TY - THES A1 - Reinhardt, Susanne T1 - Assessing interactional competence BT - identifying candidate criterial features for L2 repair skills N2 - The development of speaking competence is widely regarded as a central aspect of second language (L2) learning. It may be questioned, however, if the currently predominant ways of conceptualising the term fully satisfy the complexity of the construct: Although there is growing recognition that language primarily constitutes a tool for communication and participation in social life, as yet it is rare for conceptualisations of speaking competence to incorporate the ability to inter-act and co-construct meaning with co-participants. Accordingly, skills allowing for the successful accomplishment of interactional tasks (such as orderly speaker change, and resolving hearing and understanding trouble) also remain largely unrepresented in language teaching and assessment. As fostering the ability to successfully use the L2 within social interaction should arguably be a main objective of language teaching, it appears pertinent to broaden the construct of speaking competence by incorporating interactional competence (IC). Despite there being a growing research interest in the conceptualisation and development of (L2) IC, much of the materials and instruments required for its teaching and assessment, and thus for fostering a broader understanding of speaking competence in the L2 classroom, still await development. This book introduces an approach to the identification of candidate criterial features for the assessment of EFL learners’ L2 repair skills. Based on a corpus of video-recorded interaction between EFL learners, and following conversation-analytic and interactional-linguistic methodology as well as drawing on basic premises of research in the framework of Conversation Analysis for Second Language Acquisition, differences between (groups of) learners in terms of their L2 repair conduct are investigated through qualitative and inductive analyses. Candidate criterial features are derived from the analysis results. This book does not only contribute to the operationalisation of L2 IC (and of L2 repair skills in particular), but also lays groundwork for the construction of assessment scales and rubrics geared towards the evaluation of EFL learners’ L2 interactional skills. N2 - Die Entwicklung von Sprechkompetenz wird weithin als ein zentraler Bestandteil des Fremdsprachenerwerbs angesehen. Es kann jedoch hinterfragt werden, ob aktuell geläufige Konzeptionen dieses Begriffs der Komplexität des Konstruktes gerecht werden. Es findet zwar zunehmend Berücksichtigung, dass Sprache vor allem als Werkzeug, also als Mittel zur Kommunikation und Teilhabe an sozialer Interaktion, zu verstehen ist, selten schließt Sprechkompetenz aber die Fähigkeit ein, mit Gesprächspartner*innen zu inter-agieren und gemeinsam Sinn zu produzieren. Fähigkeiten, die es erlauben, erfolgreich interaktionale Aufgaben (z.B. reibungsloser Sprecherwechsel, Behebung von (Hör-)Verstehensproblemen) zu bewältigen, sind folglich auch kaum oder gar nicht im Alltag des Vermittelns und Bewertens von Fremdsprachenkenntnissen repräsentiert. Da es wohl eines der zentralen Anliegen bei der Vermittlung von Fremdsprachen ist, Lerner*innen zur erfolgreichen Teilnahme an fremdsprachlicher sozialer Interaktion zu befähigen, erscheint es sinnvoll, das Konstrukt ‚Sprechkompetenz‘ um das Konzept der Interaktionalen Kompetenz (IK) zu erweitern. In der Forschung ist ein wachsendes Interesse an der Konzeptualisierung und Entwicklung von (fremdsprachlicher) IK zu beobachten – um aber ein um IK erweitertes Verständnis von Sprechkompetenz auch im Fremdsprachenunterricht ermöglichen und fördern zu können, besteht noch deutlicher Bedarf bei der Entwicklung von Materialien und Instrumenten für Lehre und Prüfung. Dieses Buch präsentiert einen Ansatz zur Identifikation von candidate criterial features (d.h., möglichen Kriterien) für die Bewertung der fremdsprachlichen Reparaturfähigkeit von Englischlerner*innen. Basierend auf einem Korpus videografierter Interaktionen zwischen Englischlerner*innen werden im Rahmen qualitativer und induktiver Analysen Unterschiede zwischen Lerner*innen(gruppen) in Bezug auf ihr Reparaturverhalten in der Fremdsprache herausgearbeitet. Die Arbeit folgt dabei konzeptionellen und methodologischen Prinzipien der Konversationsanalyse, Interaktionalen Linguistik und Conversation Analysis for Second Language Acquisition. Candidate criterial features werden aus den Ergebnissen der Analysen abgeleitet. Die Arbeit leistet nicht nur einen Beitrag zur Operationalisierung fremdsprachlicher IK (insbesondere fremdsprachlicher Reparaturfähigkeit), sondern auch zum Fundament für die Entwicklung von Skalen und Rastern für die Bewertung fremdsprachlicher interaktionaler Fähigkeiten von Englischlerner*innen. KW - conversation analysis KW - interactional linguistics KW - CA-SLA KW - interactional competence KW - assessment KW - Konversationsanalyse KW - interaktionale Linguistik KW - CA-SLA KW - interaktionale Kompetenz KW - Bewertung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-619423 ER - TY - THES A1 - Jain, Nitisha T1 - Representation and curation of knowledge graphs with embeddings N2 - Knowledge graphs are structured repositories of knowledge that store facts about the general world or a particular domain in terms of entities and their relationships. Owing to the heterogeneity of use cases that are served by them, there arises a need for the automated construction of domain- specific knowledge graphs from texts. While there have been many research efforts towards open information extraction for automated knowledge graph construction, these techniques do not perform well in domain-specific settings. Furthermore, regardless of whether they are constructed automatically from specific texts or based on real-world facts that are constantly evolving, all knowledge graphs inherently suffer from incompleteness as well as errors in the information they hold. This thesis investigates the challenges encountered during knowledge graph construction and proposes techniques for their curation (a.k.a. refinement) including the correction of semantic ambiguities and the completion of missing facts. Firstly, we leverage existing approaches for the automatic construction of a knowledge graph in the art domain with open information extraction techniques and analyse their limitations. In particular, we focus on the challenging task of named entity recognition for artwork titles and show empirical evidence of performance improvement with our proposed solution for the generation of annotated training data. Towards the curation of existing knowledge graphs, we identify the issue of polysemous relations that represent different semantics based on the context. Having concrete semantics for relations is important for downstream appli- cations (e.g. question answering) that are supported by knowledge graphs. Therefore, we define the novel task of finding fine-grained relation semantics in knowledge graphs and propose FineGReS, a data-driven technique that discovers potential sub-relations with fine-grained meaning from existing pol- ysemous relations. We leverage knowledge representation learning methods that generate low-dimensional vectors (or embeddings) for knowledge graphs to capture their semantics and structure. The efficacy and utility of the proposed technique are demonstrated by comparing it with several baselines on the entity classification use case. Further, we explore the semantic representations in knowledge graph embed- ding models. In the past decade, these models have shown state-of-the-art results for the task of link prediction in the context of knowledge graph comple- tion. In view of the popularity and widespread application of the embedding techniques not only for link prediction but also for different semantic tasks, this thesis presents a critical analysis of the embeddings by quantitatively measuring their semantic capabilities. We investigate and discuss the reasons for the shortcomings of embeddings in terms of the characteristics of the underlying knowledge graph datasets and the training techniques used by popular models. Following up on this, we propose ReasonKGE, a novel method for generating semantically enriched knowledge graph embeddings by taking into account the semantics of the facts that are encapsulated by an ontology accompanying the knowledge graph. With a targeted, reasoning-based method for generating negative samples during the training of the models, ReasonKGE is able to not only enhance the link prediction performance, but also reduce the number of semantically inconsistent predictions made by the resultant embeddings, thus improving the quality of knowledge graphs. N2 - Wissensgraphen sind strukturierte Wissenssammlungen, die Fakten über die allgemeine Welt oder eine bestimmte Dom¨ane in Form von Entitäten und deren Beziehungen speichern. Aufgrund der Heterogenität der Anwendungsfälle, für die sie verwendet werden, besteht ein Bedarf an der automatischen Erstellung von domänenspezifischen Wissensgraphen aus Texten. Obwohl es viele Forschungsbem¨uhungen in Richtung offener Informationsextraktion für die automatische Konstruktion von Wissensgraphen gegeben hat, sind diese Techniken in domänenspezifischen Umgebungen nicht sehr leistungsfähig. Darüber hinaus leiden alle Wissensgraphen, unabhängig davon, ob sie automatisch aus spezifischen Texten oder auf der Grundlage realer Fakten, die sich ständig weiterentwickeln, konstruiert werden, unter Unvollständigkeit und Fehlern in den darin enthaltenen Informationen. Diese Arbeit untersucht die Herausforderungen, die bei der Konstruktion von Wissensgraphen auftreten, und schlägt Techniken zu ihrer Kuratierung (auch bekannt als Verfeinerung) vor, einschließlich der Korrektur semantischer Mehrdeutigkeiten und der Vervollständigung fehlender Fakten. Zunächst nutzen wir bestehende Ansätze für die automatische Erstellung eines Wissensgraphen im Kunstbereich mit offenen Informationsextraktionstechniken und analysieren deren Grenzen. Insbesondere konzentrieren wir uns auf die anspruchsvolle Aufgabe der Named Entity Recognition für Kunstwerke und zeigen empirische Belege für eine Leistungsverbesserung mit der von uns vorgeschlagenen Lösung für die Generierung von annotierten Trainingsdaten. Im Hinblick auf die Kuratierung bestehender Wissensgraphen identifizieren wir das Problem polysemer Relationen, die je nach Kontext unterschiedliche Semantiken repräsentieren. Konkrete Semantiken für Relationen sind wichtig für nachgelagerte Anwendungen (z.B. Fragenbeantwortung), die durch Wissensgraphen unterstützt werden. Daher definieren wir die neuartige Aufgabe, feinkörnige Relationssemantiken in Wissensgraphen zu finden und schlagen FineGReS vor, eine datengesteuerte Technik, die eine datengesteuerte Technik, die potenzielle Unterbeziehungen mit feinkörniger Bedeutung aus bestehenden polysemen Beziehungen entdeckt. Wir nutzen Lernmethoden zur Wissensrepräsentation, die niedrigdimensionale Vektoren (oder Einbettungen) für Wissensgraphen erzeugen, um deren Semantik und Struktur zu erfassen. Die Wirksamkeit und Nützlichkeit der vorgeschlagenen Technik wird durch den Vergleich mit verschiedenen Basisverfahren im Anwendungsfall der Entitätsklassifizierung demonstriert. Darüber hinaus untersuchen wir die semantischen Repräsentationen in Modellen zur Einbettung von Wissensgraphen. In den letzten zehn Jahren haben diese Modelle in den letzten zehn Jahren die besten Ergebnisse bei der Vorhersage von Links im Zusammenhang mit der Vervollständigung von Wissensgraphen erzielt. Angesichts der Popularität und der weit verbreiteten Anwendung der Einbettungstechniken nicht nur für die Linkvorhersage, sondern auch für andere semantische Aufgaben, wird in dieser Arbeit eine kritische Analyse der Einbettungen durch quantitative Messung ihrer semantischen Fähigkeiten vorgenommen. Wir untersuchen und diskutieren die Gründe für die Unzulänglichkeiten von Einbettungen in Bezug auf die Eigenschaften der zugrundeliegenden Wissensgraphen-Datensätze und die von den populären Modellen verwendeten Trainingstechniken. Darauf aufbauend schlagen wir ReasonKGE vor, eine neuartige Methode zur Erzeugung semantisch angereicherter Wissensgrapheneinbettungen durch Berücksichtigung der Semantik der Fakten, die durch eine den Wissensgraphen begleitende Ontologie gekapselt sind. Mit einer gezielten, schlussfolgernden Methode zur Erzeugung von Negativproben während des Trainings der Modelle ist ReasonKGE in der Lage, nicht nur die Leistung der Link-Vorhersage zu verbessern, sondern auch die Anzahl der semantisch inkonsistenten Vorhersagen der resultierenden Einbettungen zu reduzieren und damit die Qualität der Wissensgraphen zu verbessern. KW - knowledge graphs KW - embeddings KW - knowledge graph construction KW - knowledge graph refinement KW - domain-specific knowledge graphs KW - named entity recognition KW - semantic representations KW - domänenspezifisches Wissensgraphen KW - Einbettungen KW - Konstruktion von Wissensgraphen KW - Wissensgraphen Verfeinerung KW - Wissensgraphen KW - Named-Entity-Erkennung KW - semantische Repräsentationen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-612240 ER - TY - THES A1 - Ziemann, Niklas T1 - Four essays on the role of distance for economic decision-making T1 - Vier Studien zur Rolle von Distanzen für ökonomisches Entscheidungsverhalten N2 - Distances affect economic decision-making in numerous situations. The time at which we make a decision about future consumption has an impact on our consumption behavior. The spatial distance to employer, school or university impacts the place where we live and vice versa. The emotional closeness to other individuals influences our willingness to give money to them. This cumulative thesis aims to enrich the literature on the role of distance for economic decision-making. Thereby, each of my research projects sheds light on the impact of one kind of distance for efficient decision-making. N2 - Distanzen beeinflussen ökonomische Entscheidungen in vielen Situationen. Der Zeitpunkt an dem wir uns für zukünftige Ausgaben entscheiden, beeinflusst unser Konsumverhalten. Die räumliche Distanz zum Arbeitsgeber, zur Schule oder Universität beeinflusst die Wahl unseres Wohnortes und umgekehrt. Die emotionale Nähe zu anderen Menschen entscheidet darüber, ob wir diese finanziell unterstützen. Mit dieser kumulativen Doktorarbeit möchte ich die Literatur, die sich mit der Rolle von Distanzen für ökonomisches Entscheidungsverhalten beschäftigt, bereichern. Ich schaue mir in jedem meiner Forschungsprojekt an, wie eine Art von Distanz die Effizienz von Entscheidungen beeinflusst. KW - lab experiment KW - individual choices KW - Distanz KW - individuelle Entscheidungen KW - Laborexperiment KW - distance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591073 ER - TY - THES A1 - Schlemm, Tanja T1 - The marine ice cliff instability of the Antarctic ice sheet T1 - Die marine Eisklippeninstabilität des antarktischen Eisschildes BT - a theory of mélange-buttressed cliff calving and its application in the Parallel Ice Sheet Model BT - eine Theorie des Mélange-gebremsten Klippenkalbens und ihre Anwendung im Parallel Ice Sheet Model N2 - The Antarctic ice sheet is the largest freshwater reservoir worldwide. If it were to melt completely, global sea levels would rise by about 58 m. Calculation of projections of the Antarctic contribution to sea level rise under global warming conditions is an ongoing effort which yields large ranges in predictions. Among the reasons for this are uncertainties related to the physics of ice sheet modeling. These uncertainties include two processes that could lead to runaway ice retreat: the Marine Ice Sheet Instability (MISI), which causes rapid grounding line retreat on retrograde bedrock, and the Marine Ice Cliff Instability (MICI), in which tall ice cliffs become unstable and calve off, exposing even taller ice cliffs. In my thesis, I investigated both marine instabilities (MISI and MICI) using the Parallel Ice Sheet Model (PISM), with a focus on MICI. N2 - Der antarktische Eisschild ist das größte Süßwasserreservoir der Welt. Würde er vollständig schmelzen, würde der globale Meeresspiegel um etwa 58 m ansteigen. Die Ermittlung von Prognosen über den Beitrag der Antarktis zum Anstieg des Meeresspiegels infolge der globalen Erwärmung ist ein fortlaufender Prozess, der große Unterschiede in den Vorhersagen zur Folge hat. Einer der Gründe dafür sind Ungewissheiten im Zusammenhang mit der Physik der Eisschildmodellierung. Zu diesen Unsicherheiten gehören zwei Prozesse, die zu einem unkontrollierten Eisrückzug führen könnten: die Marine Ice Sheet Instability (MISI), die zu einem schnellen Rückzug der Grundlinie auf rückläufigem Grundgestein führt, und die Marine Ice Cliff Instability (MICI), bei der hohe Eisklippen instabil werden und abkalben, wodurch noch höhere Eisklippen freigelegt werden. In meiner Dissertation untersuchte ich beide marinen Instabilitäten (MISI und MICI) mit Hilfe des Parallel Ice Sheet Model (PISM), wobei der Schwerpunkt auf MICI lag. KW - Antarctica KW - ice sheet modelling KW - iceberg calving KW - Antarktis KW - Eisschildmodellierung KW - Eisbergkalbung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586333 ER - TY - THES A1 - Gerling, Marten Tobias T1 - A microfluidic system for high-precision image-based live cell sorting using dielectrophoretic forces T1 - Ein mikrofluidisches System zur hochpräzisen und bildgestützten Sortierung lebender Zellen mittels dielektrophoretischer Kräfte N2 - An important goal in biotechnology and (bio-) medical research is the isolation of single cells from a heterogeneous cell population. These specialised cells are of great interest for bioproduction, diagnostics, drug development, (cancer) therapy and research. To tackle emerging questions, an ever finer differentiation between target cells and non-target cells is required. This precise differentiation is a challenge for a growing number of available methods. Since the physiological properties of the cells are closely linked to their morphology, it is beneficial to include their appearance in the sorting decision. For established methods, this represents a non addressable parameter, requiring new methods for the identification and isolation of target cells. Consequently, a variety of new flow-based methods have been developed and presented in recent years utilising 2D imaging data to identify target cells within a sample. As these methods aim for high throughput, the devices developed typically require highly complex fluid handling techniques, making them expensive while offering limited image quality. In this work, a new continuous flow system for image-based cell sorting was developed that uses dielectrophoresis to precisely handle cells in a microchannel. Dielectrophoretic forces are exerted by inhomogeneous alternating electric fields on polarisable particles (here: cells). In the present system, the electric fields can be switched on and off precisely and quickly by a signal generator. In addition to the resulting simple and effective cell handling, the system is characterised by the outstanding quality of the image data generated and its compatibility with standard microscopes. These aspects result in low complexity, making it both affordable and user-friendly. With the developed cell sorting system, cells could be sorted reliably and efficiently according to their cytosolic staining as well as morphological properties at different optical magnifications. The achieved purity of the target cell population was up to 95% and about 85% of the sorted cells could be recovered from the system. Good agreement was achieved between the results obtained and theoretical considerations. The achieved throughput of the system was up to 12,000 cells per hour. Cell viability studies indicated a high biocompatibility of the system. The results presented demonstrate the potential of image-based cell sorting using dielectrophoresis. The outstanding image quality and highly precise yet gentle handling of the cells set the system apart from other technologies. This results in enormous potential for processing valuable and sensitive cell samples. N2 - Ein wichtiges Ziel in der Biotechnologie und (bio-) medizinischen Forschung ist die Isolation von Einzelzellen aus einer heterogenen Zellpopulation. Aufgrund ihrer besonderen Eigenschaften sind diese Zellen für die Bioproduktion, Diagnostik, Arzneimittelentwicklung, (Krebs-) Therapie und Forschung von großem Interesse. Um neue Fragestellungen angehen zu können, ist eine immer feinere Differenzierung zwischen Zielzellen und Nicht-Zielzellen erforderlich. Diese präzise Differenzierung stellt eine Herausforderung für eine wachsende Zahl verfügbarer Methoden dar. Da die physiologischen Eigenschaften der Zellen eng mit ihrer Morphologie verknüpft sind, ist es sinnvoll ihr Erscheinungsbild mit in die Sortierentscheidung einzubeziehen. Für etablierte Methoden stellt dies jedoch einen nicht adressierbaren Parameter dar, weshalb neue Methoden zur Identifikation und Isolation der Zielzellen benötigt werden. Folglich wurde in den letzten Jahren eine Vielzahl neuer durchflussbasierter Methoden entwickelt und vorgestellt, die 2D-Bilddaten zur Identifikation der Zielzellen innerhalb einer Probe heranziehen. Da diese Methoden auf hohe Durchsätze abzielen, erfordern die entwickelten Geräte in der Regel hochkomplexe Techniken zur Handhabung der Flüssigkeiten, was sie teuer macht und gleichzeitig zu einer begrenzten Bildqualität führt. In dieser Arbeit wurde ein neues durchflussbasiertes System zur bildbasierten Zellsortierung entwickelt, das Dielektrophorese zur präzisen Handhabung der Zellen in einem Mikrokanal verwendet. Dielektrophoretische Kräfte werden von inhomogenen elektrischen Wechselfeldern auf polarisierbare Partikel (hier: Zellen) ausgeübt. Bei dem vorliegenden System können die elektrischen Felder durch einen Signalgenerator präzise und schnell ein- und ausgeschaltet werden. Neben der daraus resultierenden einfachen und effektiven Handhabung der Zellen zeichnet sich das System durch die hervorragende Qualität der erzeugten Bilddaten und die Kompatibilität mit Standardmikroskopen aus. Diese Aspekte führen zu einer geringen Komplexität, die es sowohl erschwinglich als auch benutzerfreundlich macht. Mit dem entwickelten System zur Zellsortierung konnten Zellen sowohl auf Basis einer zytosolischen Färbung als auch auf Basis morphologischer Eigenschaften bei verschiedenen optischen Vergrößerungen zuverlässig und effizient sortiert werden. Die erreichte Reinheit der Zielzellpopulation betrug bis zu 95% wobei etwa 85% der sortierten Zellen aus dem System zurückgewonnen werden konnten. Dabei wurde eine gute Übereinstimmung der ermittelten Ergebnisse mit theoretischen Überlegungen erreicht. Der erreichte Durchsatz des Systems betrug bis zu 12.000 Zellen pro Stunde. Untersuchungen der Zellvitalität deuteten darauf hin, dass das System eine hohe Biokompatibilität aufweist. Die vorgestellten Ergebnisse demonstrieren das Potenzial der bildbasierten Zellsortierung mittels Dielektrophorese. Die herausragende Bildqualität und hochpräzise aber dennoch zellschonende Handhabung der Zellen grenzen das System von anderen Technologien ab. Daraus ergibt sich ein enormes Potenzial für die Verarbeitung wertvoller und sensibler Zellproben. KW - microfluidics KW - cell sorting KW - dielectrophoresis KW - Zellsortierung KW - Dielektrophorese KW - Mikrofluidik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587421 ER - TY - THES A1 - Böken, Björn T1 - Improving prediction accuracy using dynamic information N2 - Accurately solving classification problems nowadays is likely to be the most relevant machine learning task. Binary classification separating two classes only is algorithmically simpler but has fewer potential applications as many real-world problems are multi-class. On the reverse, separating only a subset of classes simplifies the classification task. Even though existing multi-class machine learning algorithms are very flexible regarding the number of classes, they assume that the target set Y is fixed and cannot be restricted once the training is finished. On the other hand, existing state-of-the-art production environments are becoming increasingly interconnected with the advance of Industry 4.0 and related technologies such that additional information can simplify the respective classification problems. In light of this, the main aim of this thesis is to introduce dynamic classification that generalizes multi-class classification such that the target class set can be restricted arbitrarily to a non-empty class subset M of Y at any time between two consecutive predictions. This task is solved by a combination of two algorithmic approaches. First, classifier calibration, which transforms predictions into posterior probability estimates that are intended to be well calibrated. The analysis provided focuses on monotonic calibration and in particular corrects wrong statements that appeared in the literature. It also reveals that bin-based evaluation metrics, which became popular in recent years, are unjustified and should not be used at all. Next, the validity of Platt scaling, which is the most relevant parametric calibration approach, is analyzed in depth. In particular, its optimality for classifier predictions distributed according to four different families of probability distributions as well its equivalence with Beta calibration up to a sigmoidal preprocessing are proven. For non-monotonic calibration, extended variants on kernel density estimation and the ensemble method EKDE are introduced. Finally, the calibration techniques are evaluated using a simulation study with complete information as well as on a selection of 46 real-world data sets. Building on this, classifier calibration is applied as part of decomposition-based classification that aims to reduce multi-class problems to simpler (usually binary) prediction tasks. For the involved fusing step performed at prediction time, a new approach based on evidence theory is presented that uses classifier calibration to model mass functions. This allows the analysis of decomposition-based classification against a strictly formal background and to prove closed-form equations for the overall combinations. Furthermore, the same formalism leads to a consistent integration of dynamic class information, yielding a theoretically justified and computationally tractable dynamic classification model. The insights gained from this modeling are combined with pairwise coupling, which is one of the most relevant reduction-based classification approaches, such that all individual predictions are combined with a weight. This not only generalizes existing works on pairwise coupling but also enables the integration of dynamic class information. Lastly, a thorough empirical study is performed that compares all newly introduced approaches to existing state-of-the-art techniques. For this, evaluation metrics for dynamic classification are introduced that depend on corresponding sampling strategies. Thereafter, these are applied during a three-part evaluation. First, support vector machines and random forests are applied on 26 data sets from the UCI Machine Learning Repository. Second, two state-of-the-art deep neural networks are evaluated on five benchmark data sets from a relatively recent reference work. Here, computationally feasible strategies to apply the presented algorithms in combination with large-scale models are particularly relevant because a naive application is computationally intractable. Finally, reference data from a real-world process allowing the inclusion of dynamic class information are collected and evaluated. The results show that in combination with support vector machines and random forests, pairwise coupling approaches yield the best results, while in combination with deep neural networks, differences between the different approaches are mostly small to negligible. Most importantly, all results empirically confirm that dynamic classification succeeds in improving the respective prediction accuracies. Therefore, it is crucial to pass dynamic class information in respective applications, which requires an appropriate digital infrastructure. N2 - Klassifikationsprobleme akkurat zu lösen ist heutzutage wahrscheinlich die relevanteste Machine-Learning-Aufgabe. Binäre Klassifikation zur Unterscheidung von nur zwei Klassen ist algorithmisch einfacher, hat aber weniger potenzielle Anwendungen, da in der Praxis oft Mehrklassenprobleme auftreten. Demgegenüber vereinfacht die Unterscheidung nur innerhalb einer Untermenge von Klassen die Problemstellung. Obwohl viele existierende Machine-Learning-Algorithmen sehr flexibel mit Blick auf die Anzahl der Klassen sind, setzen sie voraus, dass die Zielmenge Y fest ist und nicht mehr eingeschränkt werden kann, sobald das Training abgeschlossen ist. Allerdings sind moderne Produktionsumgebungen mit dem Voranschreiten von Industrie 4.0 und entsprechenden Technologien zunehmend digital verbunden, sodass zusätzliche Informationen die entsprechenden Klassifikationsprobleme vereinfachen können. Vor diesem Hintergrund ist das Hauptziel dieser Arbeit, dynamische Klassifikation als Verallgemeinerung von Mehrklassen-Klassifikation einzuführen, bei der die Zielmenge jederzeit zwischen zwei aufeinanderfolgenden Vorhersagen zu einer beliebigen, nicht leeren Teilmenge eingeschränkt werden kann. Diese Aufgabe wird durch die Kombination von zwei algorithmischen Ansätzen gelöst. Zunächst wird Klassifikator-Kalibrierung eingesetzt, mittels der Vorhersagen in Schätzungen der A-Posteriori-Wahrscheinlichkeiten transformiert werden, die gut kalibriert sein sollen. Die durchgeführte Analyse zielt auf monotone Kalibrierung ab und korrigiert insbesondere Falschaussagen, die in Referenzarbeiten veröffentlicht wurden. Außerdem zeigt sie, dass Bin-basierte Fehlermaße, die in den letzten Jahren populär geworden sind, ungerechtfertigt sind und nicht verwendet werden sollten. Weiterhin wird die Validität von Platt Scaling, dem relevantesten, parametrischen Kalibrierungsverfahren, genau analysiert. Insbesondere wird seine Optimalität für Klassifikatorvorhersagen, die gemäß vier Familien von Verteilungsfunktionen verteilt sind, sowie die Äquivalenz zu Beta-Kalibrierung bis auf eine sigmoidale Vorverarbeitung gezeigt. Für nicht monotone Kalibrierung werden erweiterte Varianten der Kerndichteschätzung und die Ensemblemethode EKDE eingeführt. Schließlich werden die Kalibrierungsverfahren im Rahmen einer Simulationsstudie mit vollständiger Information sowie auf 46 Referenzdatensätzen ausgewertet. Hierauf aufbauend wird Klassifikator-Kalibrierung als Teil von reduktionsbasierter Klassifikation eingesetzt, die zum Ziel hat, Mehrklassenprobleme auf einfachere (üblicherweise binäre) Entscheidungsprobleme zu reduzieren. Für den zugehörigen, während der Vorhersage notwendigen Fusionsschritt wird ein neuer, auf Evidenztheorie basierender Ansatz eingeführt, der Klassifikator-Kalibrierung zur Modellierung von Massefunktionen nutzt. Dies ermöglicht die Analyse von reduktionsbasierter Klassifikation in einem formalen Kontext sowie geschlossene Ausdrücke für die entsprechenden Gesamtkombinationen zu beweisen. Zusätzlich führt derselbe Formalismus zu einer konsistenten Integration von dynamischen Klasseninformationen, sodass sich ein theoretisch fundiertes und effizient zu berechnendes, dynamisches Klassifikationsmodell ergibt. Die hierbei gewonnenen Einsichten werden mit Pairwise Coupling, einem der relevantesten Verfahren für reduktionsbasierte Klassifikation, verbunden, wobei alle individuellen Vorhersagen mit einer Gewichtung kombiniert werden. Dies verallgemeinert nicht nur existierende Ansätze für Pairwise Coupling, sondern führt darüber hinaus auch zu einer Integration von dynamischen Klasseninformationen. Abschließend wird eine umfangreiche empirische Studie durchgeführt, die alle neu eingeführten Verfahren mit denen aus dem Stand der Forschung vergleicht. Hierfür werden Bewertungsfunktionen für dynamische Klassifikation eingeführt, die auf Sampling-Strategien basieren. Anschließend werden diese im Rahmen einer dreiteiligen Studie angewendet. Zunächst werden Support Vector Machines und Random Forests auf 26 Referenzdatensätzen aus dem UCI Machine Learning Repository angewendet. Im zweiten Teil werden zwei moderne, tiefe neuronale Netze auf fünf Referenzdatensätzen aus einer relativ aktuellen Referenzarbeit ausgewertet. Hierbei sind insbesondere Strategien relevant, die die Anwendung der eingeführten Verfahren in Verbindung mit großen Modellen ermöglicht, da eine naive Vorgehensweise nicht durchführbar ist. Schließlich wird ein Referenzdatensatz aus einem Produktionsprozess gewonnen, der die Integration von dynamischen Klasseninformationen ermöglicht, und ausgewertet. Die Ergebnisse zeigen, dass Pairwise-Coupling-Verfahren in Verbindung mit Support Vector Machines und Random Forests die besten Ergebnisse liefern, während in Verbindung mit tiefen neuronalen Netzen die Unterschiede zwischen den Verfahren oft klein bis vernachlässigbar sind. Am wichtigsten ist, dass alle Ergebnisse zeigen, dass dynamische Klassifikation die entsprechenden Erkennungsgenauigkeiten verbessert. Daher ist es entscheidend, dynamische Klasseninformationen in den entsprechenden Anwendungen zur Verfügung zu stellen, was eine entsprechende digitale Infrastruktur erfordert. KW - dynamic classification KW - multi-class classification KW - classifier calibration KW - evidence theory KW - Dempster–Shafer theory KW - Deep Learning KW - Deep Learning KW - Dempster-Shafer-Theorie KW - Klassifikator-Kalibrierung KW - dynamische Klassifikation KW - Evidenztheorie KW - Mehrklassen-Klassifikation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585125 ER - TY - THES A1 - Schrauth, Philipp T1 - Agglomerations, air quality and urban transformation T1 - Ballungsräume, Luftqualität und städtischer Wandel N2 - Die vorliegende Dissertation stellt empirische Untersuchungen über den Zusammenhang von städtischem Leben und dessen ökonomische Kosten, insbesondere für die Umwelt, an. Dabei werden zum einen bestehende Forschungslücken des Einflusses von Bevölkerungsdichte auf die Luftqualität geschlossen und zum anderen innovative Politikmaßnahmen im Verkehrsbereich untersucht, die Ballungsräume nachhaltiger gestalten sollen. Im Zentrum der Betrachtungen stehen Luftverschmutzung, Staus und Verkehrsunfälle, die für Fragen der allgemeinen Wohlfahrt bedeutend sind und erhebliche Kostenfaktoren für urbanes Leben darstellen. Von ihnen ist ein beträchtlicher Anteil der Weltbevölkerung betroffen. Während im Jahr 2018 bereits 55% der Menschen weltweit in Städten lebten, soll dieser Anteil bis zum Jahr 2050 ungefähr 68% betragen. Die vier in sich geschlossenen Kapitel dieser Arbeit lassen sich in zwei Abschnitte aufteilen: In den Kapiteln 2 und 3 werden neue kausale Erkenntnisse über das komplexe Zusammenspiel von städtischen Strukturen und Luftverschmutzung erbracht. Kapitel 4 und 5 untersuchen anschließend politische Maßnahmen zur Förderung nicht-motorisierter Verkehrsmittel und deren Einfluss auf Luftqualität sowie Staugeschehen und Verkehrsunfälle. N2 - The present dissertation conducts empirical research on the relationship between urban life and its economic costs, especially for the environment. On the one hand, existing gaps in research on the influence of population density on air quality are closed and, on the other hand, innovative policy measures in the transport sector are examined that are intended to make metropolitan areas more sustainable. The focus is on air pollution, congestion and traffic accidents, which are important for general welfare issues and represent significant cost factors for urban life. They affect a significant proportion of the world's population. While 55% of the world's people already lived in cities in 2018, this share is expected to reach approximately 68% by 2050. The four self-contained chapters of this thesis can be divided into two sections: Chapters 2 and 3 provide new causal insights into the complex interplay between urban structures and air pollution. Chapters 4 and 5 then examine policy measures to promote non-motorised transport and their influence on air quality as well as congestion and traffic accidents. KW - air quality KW - urban transformation KW - public transport KW - cycling KW - population density KW - Luftqualität KW - Radverkehr KW - Bevölkerungsdichte KW - Öffentliche Verkehrsmittel KW - städtischer Wandel KW - Verkehr KW - traffic KW - Städte KW - cities KW - Umwelt KW - environment Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586087 ER - TY - THES A1 - Galetzka, Fabian T1 - Investigating and improving background context consistency in neural conversation models N2 - Neural conversation models aim to predict appropriate contributions to a (given) conversation by using neural networks trained on dialogue data. A specific strand focuses on non-goal driven dialogues, first proposed by Ritter et al. (2011): They investigated the task of transforming an utterance into an appropriate reply. Then, this strand evolved into dialogue system approaches using long dialogue histories and additional background context. Contributing meaningful and appropriate to a conversation is a complex task, and therefore research in this area has been very diverse: Serban et al. (2016), for example, looked into utilizing variable length dialogue histories, Zhang et al. (2018) added additional context to the dialogue history, Wolf et al. (2019) proposed a model based on pre-trained Self-Attention neural networks (Vasvani et al., 2017), and Dinan et al. (2021) investigated safety issues of these approaches. This trend can be seen as a transformation from trying to somehow carry on a conversation to generating appropriate replies in a controlled and reliable way. In this thesis, we first elaborate the meaning of appropriateness in the context of neural conversation models by drawing inspiration from the Cooperative Principle (Grice, 1975). We first define what an appropriate contribution has to be by operationalizing these maxims as demands on conversation models: being fluent, informative, consistent towards given context, coherent and following a social norm. Then, we identify different targets (or intervention points) to achieve the conversational appropriateness by investigating recent research in that field. In this thesis, we investigate the aspect of consistency towards context in greater detail, being one aspect of our interpretation of appropriateness. During the research, we developed a new context-based dialogue dataset (KOMODIS) that combines factual and opinionated context to dialogues. The KOMODIS dataset is publicly available and we use the data in this thesis to gather new insights in context-augmented dialogue generation. We further introduced a new way of encoding context within Self-Attention based neural networks. For that, we elaborate the issue of space complexity from knowledge graphs, and propose a concise encoding strategy for structured context inspired from graph neural networks (Gilmer et al., 2017) to reduce the space complexity of the additional context. We discuss limitations of context-augmentation for neural conversation models, explore the characteristics of knowledge graphs, and explain how we create and augment knowledge graphs for our experiments. Lastly, we analyzed the potential of reinforcement and transfer learning to improve context-consistency for neural conversation models. We find that current reward functions need to be more precise to enable the potential of reinforcement learning, and that sequential transfer learning can improve the subjective quality of generated dialogues. N2 - Neuronale Konversationsmodelle versuchen einen angemessenen Beitrag zu einer (gegebenen) Konversation zu erzeugen, indem neuronale Netze auf Dialogdaten trainiert werden. Ein spezieller Forschungszweig beschäftigt sich mit den nicht-zielgeführten Dialogen, erstmals vorgestellt von Ritter et al. (2011): Das Team untersuchte die Aufgabe der Transformation einer Äußerung in eine angemessene Antwort. Im Laufe der Zeit hat dieser Zweig Dialogsystem-Ansätze hervorgebracht, die lange Konversationen und zusätzlichen Kontext verarbeiten können. Einen sinnvollen und angemessenen Beitrag zu einem Gespräch zu leisten, ist eine komplexe Aufgabe, und daher war die Forschung auf diesem Gebiet sehr vielfältig: Serban et al. (2016) untersuchten beispielsweise die Verwendung von Dialogverläufen variabler Länge, Zhang et al. (2018) fügten der Dialoggeschichte zusätzlichen Kontext hinzu, Wolf et al. (2019) schlugen ein Modell vor, das auf vortrainierten neuronalen Self-Attention Schichten basiert (Vasvani et al., 2017), und Dinan et al. (2021) untersuchten Ansätze zur Kontrolle von unangebrachten Inhalten, wie zum Beispiel Beleidigungen. Dieser Trend kann als Transformation gesehen werden, der vom Versuch, ein Gespräch irgendwie fortzuführen, hin zum kontrollierten und zuverlässigen Generieren angemessener Antworten reicht. In dieser Arbeit untersuchen wir den Aspekt der Kontextkonsistenz genauer, der ein Aspekt unserer Interpretation von einem angemessenen Konversationsbeitrag ist. Während der Untersuchungen haben wir einen neuen kontextbasierten Dialogdatensatz (KOMODIS) entwickelt, der sachlichen und meinungsbezogenen Kontext zu Dialogen kombiniert. Der KOMODIS Datensatz ist öffentlich verfügbar, und wir verwenden die Daten in dieser Arbeit, um neue Einblicke in die kontextunterstützte Dialoggenerierung zu gewinnen. Wir haben außerdem eine neue Methode zur Eingabe von Kontext auf Self-Attention basierenden neuronalen Netzen entwickelt. Dazu erörtern wir zunächst das Problem der begrenzten Eingabelänge für Sequenzen aus Wissensgraphen in solche Modelle, und schlagen eine effiziente Codierungsstrategie für strukturierten Kontext vor, die von Graph Neural Networks inspiriert ist (Gilmer et al., 2017), um die Komplexität des zusätzlichen Kontexts zu reduzieren. Wir diskutieren die Grenzen der Kontexterweiterung für neuronale Konversationsmodelle, untersuchen die Eigenschaften von Wissensgraphen und erklären, wie wir Wissensgraphen für unsere Experimente erstellen und erweitern können. Schließlich haben wir das Potenzial von Reinforcement Learning und Transfer Learning analysiert, um die Kontextkonsistenz für neuronale Konversationsmodelle zu verbessern. Wir stellen fest, dass aktuelle Reward Funktionen präziser sein müssen, um das Potenzial von Reinforcement Learning zu nutzen, und dass Sequential Transfer Learning die subjektive Qualität der generierten Dialoge verbessern kann. KW - conversational ai KW - neural conversation models KW - context consistency KW - gpt KW - conversation KW - dialogue KW - deep learning KW - knowledge graphs KW - Kontextkonsistenz KW - Konversation KW - Dialog KI KW - Deep Learning KW - Dialog KW - GPT KW - Wissensgraph KW - neuronale Konversationsmodelle Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-584637 ER - TY - THES A1 - Pellegrino, Antonio T1 - miRNA profiling for diagnosis of chronic pain in polyneuropathy T1 - miRNA profiling zur Diagnose von chronischem Schmerz in Polyneuropathie N2 - This dissertation aimed to determine differential expressed miRNAs in the context of chronic pain in polyneuropathy. For this purpose, patients with chronic painful polyneuropathy were compared with age matched healthy patients. Taken together, all miRNA pre library preparation quality controls were successful and none of the samples was identified as an outlier or excluded for library preparation. Pre sequencing quality control showed that library preparation worked for all samples as well as that all samples were free of adapter dimers after BluePippin size selection and reached the minimum molarity for further processing. Thus, all samples were subjected to sequencing. The sequencing control parameters were in their optimal range and resulted in valid sequencing results with strong sample to sample correlation for all samples. The resulting FASTQ file of each miRNA library was analyzed and used to perform a differential expression analysis. The differentially expressed and filtered miRNAs were subjected to miRDB to perform a target prediction. Three of those four miRNAs were downregulated: hsa-miR-3135b, hsa-miR-584-5p and hsa-miR-12136, while one was upregulated: hsa-miR-550a-3p. miRNA target prediction showed that chronic pain in polyneuropathy might be the result of a combination of miRNA mediated high blood flow/pressure and neural activity dysregulations/disbalances. Thus, leading to the promising conclusion that these four miRNAs could serve as potential biomarkers for the diagnosis of chronic pain in polyneuropathy. Since TRPV1 seems to be one of the major contributors of nociception and is associated with neuropathic pain, the influence of PKA phosphorylated ARMS on the sensitivity of TRPV1 as well as the part of AKAP79 during PKA phosphorylation of ARMS was characterized. Therefore, possible PKA-sites in the sequence of ARMS were identified. This revealed five canonical PKA-sites: S882, T903, S1251/52, S1439/40 and S1526/27. The single PKA-site mutants of ARMS revealed that PKA-mediated ARMS phosphorylation seems not to influence the interaction rate of TRPV1/ARMS. While phosphorylation of ARMST903 does not increase the interaction rate with TRPV1, ARMSS1526/27 is probably not phosphorylated and leads to an increased interaction rate. The calcium flux measurements indicated that the higher the interaction rate of TRPV1/ARMS, the lower the EC50 for capsaicin of TRPV1, independent of the PKA phosphorylation status of ARMS. In addition, the western blot analysis confirmed the previously observed TRPV1/ARMS interaction. More importantly, AKAP79 seems to be involved in the TRPV1/ARMS/PKA signaling complex. To overcome the problem of ARMS-mediated TRPV1 sensitization by interaction, ARMS was silenced by shRNA. ARMS silencing resulted in a restored TRPV1 desensitization without affecting the TRPV1 expression and therefore could be used as new topical therapeutic analgesic alternative to stop ARMS mediated TRPV1 sensitization. N2 - Ziel dieser Dissertation war es, differentiell exprimierte miRNAs im Kontext von chronischen Schmerzen bei Polyneuropathie zu bestimmen. Zu diesem Zweck wurden Patienten mit chronisch schmerzhafter Polyneuropathie und altersgleiche gesunde Patienten verglichen. Insgesamt waren alle Qualitätskontrollen zur Erstellung der miRNA-Bibliothek erfolgreich und keine der Proben wurde als Ausreißer identifiziert oder ausgeschlossen. Die Qualitätskontrolle vor der Sequenzierung zeigte, dass die Bibliothekserstellung für alle Proben funktionierte, sowie dass alle Proben frei von Adapterdimeren waren und die Mindestmolalität erreichten, woraufhin alle Proben sequenziert wurden. Die Kontrollparameter für die Sequenzierung lagen im optimalen Bereich und führten bei allen Proben zu gültigen Sequenzierungsergebnissen mit einer starken Korrelation zwischen den Proben. Die resultierende FASTQ-Datei jeder miRNA-Bibliothek wurde analysiert und für eine differenzielle Expressionsanalyse verwendet. Die differenziell exprimierten und gefilterten miRNAs wurden mittels miRDB analysiert, um eine Zielvorhersage zu erhalten. Drei dieser vier miRNAs wurden herunterreguliert: hsa-miR-3135b, hsa-miR-584-5p und hsa-miR-12136, während eine hochreguliert wurde: hsa-miR-550a-3p. Die miRNA-Zielvorhersage zeigte, dass chronische Schmerzen bei Polyneuropathie das Ergebnis von miRNA induziertem hohen Blutdruck und neuralen Aktivitätsdysregulationen sein könnten. Daraus ergibt sich die Schlussfolgerung, dass diese vier miRNAs als potenzielle Biomarker für die Diagnose von chronischen Schmerzen bei Polyneuropathie dienen könnten. Da TRPV1 mit Nozizeption und neuropathischen Schmerzen in Verbindung gebracht wird, wurde der Einfluss von PKA-phosphoryliertem ARMS auf die Sensitivität von TRPV1 sowie die Rolle von AKAP79 während der PKA-Phosphorylierung von ARMS untersucht. Dazu wurden mögliche PKA-Stellen in der Sequenz von ARMS identifiziert. Dies ergab fünf kanonische PKA-Stellen: S882, T903, S1251/52, S1439/40 und S1526/27. Die einzelnen ARMS-Mutanten zeigten, dass die PKA-vermittelte ARMS-Phosphorylierung die Interaktion von TRPV1/ARMS nicht zu beeinflussen scheint. Während die Phosphorylierung von ARMST903 die Interaktionsrate mit TRPV1 nicht erhöht, wird ARMSS1526/27 vermutlich nicht phosphoryliert und führt zu einer erhöhten Interaktionsrate. Zusätzlich zeigten Kalziumflussmessungen, dass der EC50 für Capsaicin von TRPV1 umso niedriger ist, je höher die Interaktionsrate von TRPV1/ARMS ist, unabhängig vom PKA-Phosphorylierungsstatus von ARMS. Darüber hinaus bestätigte die Western-Blot-Analyse, dass AKAP79 an dem TRPV1/ARMS/PKA-Signalkomplex beteiligt zu sein scheint. Letztlich sorgte die Stilllegung von ARMS mittels shRNA zu einer wiederhergestellten TRPV1-Desensibilisierung, ohne die TRPV1-Expression zu beeinträchtigen, und könnte als neue topische therapeutische Analgetika-Alternative verwendet werden. KW - miRNA KW - miRNA KW - chronic pain KW - chronischer Schmerz KW - polyneuropathy KW - Polyneuropathie KW - TRPV1 KW - TRPV1 KW - ARMS KW - ARMS Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583858 ER - TY - THES A1 - Mayer, Dennis T1 - Time-resolved x-ray spectroscopy of 2-thiouracil T1 - Zeitaufgelöste Röntgenspektroskopie an 2-Thiouracil N2 - In this thesis, I present my contributions to the field of ultrafast molecular spectroscopy. Using the molecule 2-thiouracil as an example, I use ultrashort x-ray pulses from free- electron lasers to study the relaxation dynamics of gas-phase molecular samples. Taking advantage of the x-ray typical element- and site-selectivity, I investigate the charge flow and geometrical changes in the excited states of 2-thiouracil. In order to understand the photoinduced dynamics of molecules, knowledge about the ground-state structure and the relaxation after photoexcitation is crucial. Therefore, a part of this thesis covers the electronic ground-state spectroscopy of mainly 2-thiouracil to provide the basis for the time-resolved experiments. Many of the previously published studies that focused on the gas-phase time-resolved dynamics of thionated uracils after UV excitation relied on information from solution phase spectroscopy to determine the excitation energies. This is not an optimal strategy as solvents alter the absorption spec- trum and, hence, there is no guarantee that liquid-phase spectra resemble the gas-phase spectra. Therefore, I measured the UV-absorption spectra of all three thionated uracils to provide a gas-phase reference and, in combination with calculations, we determined the excited states involved in the transitions. In contrast to the UV absorption, the literature on the x-ray spectroscopy of thionated uracil is sparse. Thus, we measured static photoelectron, Auger-Meitner and x-ray absorption spectra on the sulfur L edge before or parallel to the time-resolved experiments we performed at FLASH (DESY, Hamburg). In addition, (so far unpublished) measurements were performed at the synchrotron SOLEIL (France) which have been included in this thesis and show the spin-orbit splitting of the S 2p photoline and its satellite which was not observed at the free-electron laser. The relaxation of 2-thiouracil has been studied extensively in recent years with ultrafast visible and ultraviolet methods showing the ultrafast nature of the molecular process after photoexcitation. Ultrafast spectroscopy probing the core-level electrons provides a complementary approach to common optical ultrafast techniques. The method inherits its local sensitivity from the strongly localised core electrons. The core energies and core-valence transitions are strongly affected by local valence charge and geometry changes, and past studies have utilised this sensitivity to investigate the molecular process reflected by the ultrafast dynamics. We have built an apparatus that provides the requirements to perform time-resolved x-ray spectroscopy on molecules in the gas phase. With the apparatus, we performed UV-pump x-ray-probe electron spectroscopy on the S 2p edge of 2-thiouracil using the free-electron laser FLASH2. While the UV triggers the relaxation dynamics, the x-ray probes the single sulfur atom inside the molecule. I implemented photoline self-referencing for the photoelectron spectral analysis. This minimises the spectral jitter of the FEL, which is due to the underlying self-amplified spontaneous emission (SASE) process. With this approach, we were not only able to study dynamical changes in the binding energy of the electrons but also to detect an oscillatory behaviour in the shift of the observed photoline, which we associate with non-adiabatic dynamics involving several electronic states. Moreover, we were able to link the UV-induced shift in binding energy to the local charge flow at the sulfur which is directly connected to the electronic state. Furthermore, the analysis of the Auger-Meitner electrons shows that energy shifts observed at early stages of the photoinduced relaxation are related to the geometry change in the molecule. More specifically, the observed increase in kinetic energy of the Auger-Meitner electrons correlates with a previously predicted C=S bond stretch. N2 - In dieser Arbeit präsentiere ich meine Beiträge zum Gebiet der ultraschnellen Molekülspektroskopie. Am Beispiel des Moleküls 2-Thiouracil verwende ich ultrakurze Röntgenpulse von Freie-Elektronen-Lasern, um die Relaxationsdynamik von Molekülproben in der Gasphase zu untersuchen. Unter Ausnutzung der für Röntgenstrahlung typischen Element- und Ortsselektivität untersuche ich den Ladungsfluss und die geometrischen Veränderungen in den angeregten Zuständen von 2-Thiouracil. Um die photoinduzierte Dynamik von Molekülen zu verstehen, ist das Wissen über die Grundzustandsstruktur und die Relaxation nach Photoanregung entscheidend. Daher befasst sich ein Teil dieser Arbeit mit der elektronischen Grundzustandsspektroskopie von 2-Thiouracil, um die Grundlage für die zeitaufgelösten Experimente zu schaffen. Viele der bisher veröffentlichten Studien, die sich mit der zeitaufgelösten Dynamik von Thiouracilen in der Gasphase nach UV-Anregung befassten, stützten sich zur Bestimmung der Anregungsenergien auf Informationen aus der Spektroskopie in Lösung. Dies ist nicht optimal, da Lösungsmittel das Absorptionsspektrum verändern und es daher keine Garantie dafür gibt, dass die Spektren in Lösung den Spektren der Gasphase ähneln. Daher habe ich die UV-Absorptionsspektren aller drei Thiouracile gemessen, um eine Referenz für die Gasphase zu erhalten, und in Kombination mit Berechnungen die an den Übergängen beteiligten angeregten Zustände bestimmt. Im Gegensatz zur UV-Absorption ist die Literatur zur Röntgenspektroskopie von thioniertem Uracil spärlich. Daher haben wir statische Photoelektronen-, Auger-Meitner- und Röntgenabsorptionsspektren an der Schwefel-L-Kante vor oder parallel zu den zeitaufgelösten Experimenten an FLASH (DESY, Hamburg) gemessen. Darüber hinaus wurden (bisher unveröffentlichte) Messungen am Synchrotron SOLEIL (Frankreich) durchgeführt, die in diese Arbeit eingeflossen sind und die Spin-Orbit-Aufspaltung der S 2p-Photolinie und ihres Satelliten zeigen, die am Freie-Elektronen-Laser nicht beobachtet wurde. Die Relaxation von 2-Thiouracil wurde in den letzten Jahren ausgiebig mit ultraschnellen Methoden im sichtbaren und ultravioletten Spektralbereich untersucht, die die ultraschnelle Natur des molekularen Prozesses nach der Photoanregung zeigen. Die ultraschnelle Spektroskopie, bei der die Elektronen des Kernniveaus untersucht werden, bietet einen ergänzenden Ansatz zu den üblichen optischen Techniken. Die Methode erhält ihre lokale Empfindlichkeit durch die stark lokalisierten Kernelektronen. Die Kernenergien und Kern-Valenz-Übergänge werden stark von lokalen Valenzladungs- und Geometrieänderungen beeinflusst, und frühere Studien haben diese Empfindlichkeit genutzt, um den molekularen Prozess zu untersuchen, der sich in der ultraschnellen Dynamik widerspiegelt. Wir haben eine Apparatur gebaut, die die Voraussetzungen für die Durchführung zeitaufgelöster Röntgenspektroskopie an Molekülen in der Gasphase bietet. Mit dieser Apparatur haben wir Anregungs-Abfrage-Elektronenspektroskopie an der S 2p-Kante von 2-Thiouracil an dem Freie-Elektronen-Laser FLASH2 durchgeführt. Zuerst triggert ein UV-Puls die Relaxationsdynamik und anschließend tastet ein Röntgenpuls das einzelne Schwefelatom im Inneren des Moleküls ab. Für die Analyse der Photoelektronenspektren habe ich eine Selbstrefernzierung der Photolinie implementiert, mit deren Hilfe der spektrale Jitter des FEL minimiert werden konnte. Dieser ist auf den zugrunde liegenden Prozess der selbstverstärkten spontanen Emission (SASE) zurückzuführen. Mit diesem Ansatz konnten wir nicht nur dynamische Veränderungen in der Bindungsenergie der Elektronen untersuchen, sondern auch ein oszillierendes Verhalten in der Verschiebung der beobachteten Photolinie feststellen, das wir mit einer nicht-adiabatischen Dynamik in Verbindung bringen, an der mehrere elektronische Zustände beteiligt sind. Außerdem konnten wir die UV-induzierte Verschiebung der Bindungsenergie mit dem lokalen Ladungsfluss am Schwefel in Verbindung bringen, der direkt mit dem elektronischen Zustand verbunden ist. Darüber hinaus zeigt die Analyse der Auger-Meitner-Elektronen, dass die in frühen Stadien der photoinduzierten Relaxation beobachteten Energieverschiebungen mit der Geometrieänderung des Moleküls zusammenhängen. Genauer gesagt korreliert der beobachtete Anstieg der kinetischen Energie der Auger-Meitner-Elektronen mit einer zuvor vorhergesagten Dehnung der C=S-Bindung. KW - thiouracil KW - ultrafast molecular dynamics KW - x-ray spectroscopy KW - Auger-Meitner electron spectroscopy KW - photoelectron spectroscopy KW - free-electron laser KW - FLASH KW - excited-state chemical shift KW - Thiouracil KW - ultraschnelle Moleküldynamik KW - Röntgenspektroskopie KW - Photoelektronenspektroskopie KW - pump-probe spectroscopy KW - Freie-Elektronen-Laser KW - Anregungs-Abfrage-Spektroskopie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571636 ER - TY - THES A1 - Molinengo, Giulia T1 - The micropolitics of collaborative governance T1 - Die Mikropolitik von „collaborative governance“ BT - a power-sensitive and process-oriented perspective BT - eine machtsensitive und prozessorientierte Perspektive N2 - Why do exercises in collaborative governance often witness more impasse than advantage? This cumulative dissertation undertakes a micro-level analysis of collaborative governance to tackle this research puzzle. It situates micropolitics at the very center of analysis: a wide range of activities, interventions, and tactics used by actors – be they conveners, facilitators, or participants – to shape the collaborative exercise. It is by focusing on these daily minutiae, and on the consequences that they bring along, the study argues, that we can better understand why and how collaboration can become stuck or unproductive. To do so, the foundational part of this dissertation (Article 1) uses power as a sensitizing concept to investigate the micro-dynamics that shape collaboration. It develops an analytical approach to advance the study of collaborative governance at the empirical level under a power-sensitive and process-oriented perspective. The subsequent articles follow the dissertation's red thread of investigating the micropolitics of collaborative governance by showing facilitation artefacts' interrelatedness and contribution to the potential success or failure of collaborative arrangements (Article 2); and by examining the specialized knowledge, skills and practices mobilized when designing a collaborative process (Article 3). The work is based on an abductive research approach, tacking back and forth between empirical data and theory, and offers a repertoire of concepts – from analytical terms (designed and emerging interaction orders, flows of power, arenas for power), to facilitation practices (scripting, situating, and supervising) and types of knowledge (process expertise) – to illustrate and study the detailed and constant work (and rework) that surrounds collaborative arrangements. These concepts sharpen the way researchers can look at, observe, and understand collaborative processes at a micro level. The thesis thereby elucidates the subtleties of power, which may be overlooked if we focus only on outcomes rather than the processes that engender them, and supports efforts to identify potential sources of impasse. N2 - Warum führen Prozesse der collaborative governance oft eher in die Sackgasse als zum Erfolg? Die vorliegende kumulative Dissertation geht dieses Problem an, indem sie die Mikroebene von collaborative governance analysiert. Untersuchungsgegenstand ist die Mikropolitik, verstanden als weites Spektrum an Aktivitäten, Interventionen und Taktiken, mit denen beteiligte Akteure – seien es VeranstalterInnen, ModeratorInnen oder TeilnehmerInnen – kollaborative Prozesse gestalten. Es ist dieser Fokus auf alltägliche Handlungen und ihre Auswirkungen, so argumentiert die Arbeit, der ein besseres Verständnis ermöglicht, wann und warum kollaborative Prozesse unproduktiv werden. Um dies zu erreichen, verwendet der grundlegende Teil der Dissertation (Artikel 1) Macht als sensibilisierenden Begriff, um die Mikrodynamiken zu untersuchen, welche collaborative governance prägen. Der Artikel entwickelt ein Analysemodell, um die empirische Untersuchung der collaborative governance aus einer machtsensiblen und prozessorientierten Perspektive zu ermöglichen. Die weiteren Artikel folgen dem roten Faden der Dissertation und untersuchen die Mikropolitik der collaborative governance, indem sie die Wechselwirkungen und den Beitrag von Moderationsgegenständen zum potenziellen Erfolg oder Misserfolg kollaborativer Prozesse aufzeigen (Artikel 2), sowie die speziellen Kenntnisse, Fähigkeiten und Praktiken untersuchen, die bei der Gestaltung eines Beteiligungsprozesses mobilisiert werden (Artikel 3). Die Arbeit basiert auf einem abduktiven Forschungsansatz, bewegt sich zwischen empirischen Daten und Theorie hin und her, und entwickelt ein Repertoire an Begriffen und Konzepten - von analytischen Begriffen (designed and emerging interaction orders, flows of power, arenas for power) bis hin zu Moderationspraktiken (scripting, situating, und supervising) und Wissensarten (Prozessexpertise) - um die minutiösen und kontinuierlichen Gestaltungen (und Umgestaltungen) von kollaborativen Prozessen zu veranschaulichen und untersuchen. Diese Begriffe und Konzepte erlauben ForscherInnen, ihren Blick auf die Mikroebene von kollaborativen Prozessen zu schärfen. Die Dissertation verdeutlicht damit die Feinheiten von Macht, welche bei einem Fokus auf Ergebnisse statt auf die ihnen vorgelagerten Prozesse oft übersehen werden, und unterstützt die Bemühungen, potenzielle Quellen von collaborative impasse zu identifizieren. KW - collaborative governance KW - micropolitics KW - facilitation KW - power KW - process design KW - artefacts KW - process expertise KW - Artefakte KW - Moderation KW - Mikropolitik KW - Macht KW - Prozessgestaltung KW - Prozessexpertise Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577123 ER - TY - THES A1 - Klein, Konstantin Paul T1 - Remote Sensing of Suspended Sediment Dynamics in the Arctic Nearshore Zone T1 - Sedimentdynamiken im arktischen Nahküstenbereich analysiert mit Fernerkundungsdaten N2 - The Arctic nearshore zone plays a key role in the carbon cycle. Organic-rich sediments get eroded off permafrost affected coastlines and can be directly transferred to the nearshore zone. Permafrost in the Arctic stores a high amount of organic matter and is vulnerable to thermo-erosion, which is expected to increase due to climate change. This will likely result in higher sediment loads in nearshore waters and has the potential to alter local ecosystems by limiting light transmission into the water column, thus limiting primary production to the top-most part of it, and increasing nutrient export from coastal erosion. Greater organic matter input could result in the release of greenhouse gases to the atmosphere. Climate change also acts upon the fluvial system, leading to greater discharge to the nearshore zone. It leads to decreasing sea-ice cover as well, which will both increase wave energy and lengthen the open-water season. Yet, knowledge on these processes and the resulting impact on the nearshore zone is scarce, because access to and instrument deployment in the nearshore zone is challenging. Remote sensing can alleviate these issues in providing rapid data delivery in otherwise non-accessible areas. However, the waters in the Arctic nearshore zone are optically complex, with multiple influencing factors, such as organic rich suspended sediments, colored dissolved organic matter (cDOM), and phytoplankton. The goal of this dissertation was to use remotely sensed imagery to monitor processes related to turbidity caused by suspended sediments in the Arctic nearshore zone. In-situ measurements of water-leaving reflectance and surface water turbidity were used to calibrate a semi-empirical algorithm which relates turbidity from satellite imagery. Based on this algorithm and ancillary ocean and climate variables, the mechanisms underpinning nearshore turbidity in the Arctic were identified at a resolution not achieved before. The calibration of the Arctic Nearshore Turbidity Algorithm (ANTA) was based on in-situ measurements from the coastal and inner-shelf waters around Herschel Island Qikiqtaruk (HIQ) in the western Canadian Arctic from the summer seasons 2018 and 2019. It performed better than existing algorithms, developed for global applications, in relating turbidity from remotely sensed imagery. These existing algorithms were lacking validation data from permafrost affected waters, and were thus not able to reflect the complexity of Arctic nearshore waters. The ANTA has a higher sensitivity towards the lowest turbidity values, which is an asset for identifying sediment pathways in the nearshore zone. Its transferability to areas beyond HIQ was successfully demonstrated using turbidity measurements matching satellite image recordings from Adventfjorden, Svalbard. The ANTA is a powerful tool that provides robust turbidity estimations in a variety of Arctic nearshore environments. Drivers of nearshore turbidity in the Arctic were analyzed by combining ANTA results from the summer season 2019 from HIQ with ocean and climate variables obtained from the weather station at HIQ, the ERA5 reanalysis database, and the Mackenzie River discharge. ERA5 reanalysis data were obtained as domain averages over the Canadian Beaufort Shelf. Nearshore turbidity was linearly correlated to wind speed, significant wave height and wave period. Interestingly, nearshore turbidity was only correlated to wind speed at the shelf, but not to the in-situ measurements from the weather station at HIQ. This shows that nearshore turbidity, albeit being of limited spatial extent, gets influenced by the weather conditions multiple kilometers away, rather than in its direct vicinity. The large influence of wave energy on nearshore turbidity indicates that freshly eroded material off the coast is a major contributor to the nearshore sediment load. This contrasts results from the temperate and tropical oceans, where tides and currents are the major drivers of nearshore turbidity. The Mackenzie River discharge was not identified as a driver of nearshore turbidity in 2019, however, the analysis of 30 years of Landsat archive imagery from 1986 to 2016 suggests a direct link between the prevailing wind direction, which heavily influences the Mackenzie River plume extent, and nearshore turbidity around HIQ. This discrepancy could be caused by the abnormal discharge behavior of the Mackenzie River in 2019. This dissertation has substantially advanced the understanding of suspended sediment processes in the Arctic nearshore zone and provided new monitoring tools for future studies. The presented results will help to understand the role of the Arctic nearshore zone in the carbon cycle under a changing climate. N2 - Der arktische Nahküstenbereich spielt eine wichtige Rolle im Kohlenstoffkreislauf. Küsten, die Permafrostböden aufweisen, sind sehr anfällig für Thermoerosion, wodurch Sediment und unzersetzte, organische Überreste in den Arktischen Ozean gelangen können. Durch den Klimawandel ist davon auszugehen, dass Thermoerosion in Zukunft größere Erosionsraten hervorrufen wird. Permafrostböden enthalten große Mengen organischer Überreste, die nach dem Auftauen von Mikroorganismen zersetzt werden, wodurch Treibhausgase in die Atmosphäre gelangen können. Erhöhte Sedimentmengen in den Küstengewässern verhindert außerdem das Eindringen elektromagnetischer Strahlung in die Wassersäule, wodurch die auf Photosynthese basierte Primärproduktion in tieferen Wasserschichten stark reduziert wird. Durch den Klimawandel transportieren Flüsse in der Arktis mehr Frischwasser und Sediment in die Nahküstenbereiche, und erhöhte Temperaturen verringern die Meereisausdehnung. All diese Prozesse können das Ökosystem des arktischen Nahküstenbereiches nachhaltig verändern, allerdings ist das Verständnis von Interaktionen untereinander und deren Resultate begrenzt, da sich die Datensammlung in arktischen Nahküstenbereichen sehr herausfordernd gestaltet. Fernerkundungsmethoden bieten die Möglichkeit der vergleichsweise unkomplizierten Datenaufnahme nur schwer erreichbarer Regionen wie dem arktischen Nahküstenbereich. Arktische Küstengewässer sind allerdings optisch komplex, und Wasserinhaltsstoffe wie Sediment, organische Überreste, gelöstes Material und Plankton erschweren genaue Analysen. Das Ziel dieser Dissertation ist es, Satellitenbilder zu analysieren und Sedimentdynamiken zu identifizieren, die die Wassertrübung beeinflussen. In einem empirischen Algorithmus wird die von der Wasseroberfläche reflektierte elektromagnetische Strahlung genutzt, um die Wassertrübung zu berechnen. Zusammen mit einer Sammlung von Wetterdaten und anderen Umwelteinflüssen wurden Mechanismen identifiziert, die die Wassertrübung arktischer Küstengewässer beeinflussen. Die Kalibrierung des Algorithmus zur Berechnung der Wassertrübung (ANTA) wurde mit Messungen aus den Küstengewässern in der Nähe von Herschel Island Qikiqtaruk (HIQ) auf dem Kanadischen Beaufortschelf durchgeführt. Seine Anwendung führt verglichen mit bereits existierenden Algorithmen zu besseren Ergebnissen, die für den weltweiten Gebrauch vorgesehen sind. Für die Kalibrierung dieser Algorithmen wurden keine Messungen arktischer Nahküstenbereiche genutzt, wodurch die optische Komplexität nur unzureichend wiedergegeben werden kann. Der ANTA ist besser geeignet, um Transportwege von Sediment an der Wasseroberfläche zu identifizieren, weil nahezu klare Gewässer mit höherer Genauigkeit klassifiziert werden. Messungen aus dem Adventfjord in Spitzbergen zeigen, dass der ANTA auch außerhalb der Kanadischen Beaufortsee akkurate Ergebnisse produziert, was ihn zu einem wichtigen Werkzeug zukünftiger Untersuchungen arktischer Nahküstenbereiche macht. Um Prozesse zu identifizieren, die die Wassertrübung in arktischen Küstengewässern beeinflussen, wurden ANTA-Ergebnisse aus dem Sommer 2019 von HIQ, Messungen der Wetterstation auf HIQ, Wetter- und Klimamodellierungen des Kanadischen Beaufortschelfes und Abflussdaten des Mackenzie genutzt. Die Wassertrübung korreliert linear mit der Windgeschwindigkeit, der Wellenhöhe und der Wellenperiodendauer. Es ist beachtenswert, dass die Wassertrübung nur mit der Windgeschwindigkeit auf dem Beaufortschelf, nicht aber mit der Windgeschwindigkeit auf HIQ korreliert. Dies zeigt, dass weit entfernte Prozesse großen Einfluss auf die Wassertrübung in arktischen Küstengewässern haben können, obwohl die Wassertrübung selber nur ein kleines Gebiet beeinflusst. Der große Einfluss von Wellenenergie aus die Wassertrübung unterstreicht sowohl die Wirksamkeit von Erosion als auch, dass kürzlich erodiertes Sediment einen erheblichen Anteil der Sedimentfracht im Nahküstenbereich ausmacht. Dies unterscheidet den Arktischen Ozean von den gemäßigten und tropischen Ozeanen, wo Gezeiten und Strömungen die größten Einflüsse auf die Wassertrübung im Nahküstenbereich sind. Die vom Mackenzie transportierten Sedimente haben keinen Einfluss auf die Wassertrübung um HIQ im Sommer 2019, allerdings zeigt die Analyse des dreißigjährigen Bildarchives der Landsat-Satelliten, dass die Windrichtung, welche maßgeblichen Einfluss auf die Verteilung der transportierten Sedimente nimmt, ein wichtiger Faktor sein kann. Diese Diskrepanz könnte jedoch auch dem untypischen Abflussverhalten des Mackenzie im Jahr 2019 geschuldet sein. Diese Dissertation hat maßgeblichen Anteil am derzeitigen Verständnis der Prozesse im dynamischen Nahküstenbereich des Arktischen Ozeans. Die vorgestellten Methoden und erlangten Ergebnisse werden helfen, in zukünftigen Studien die Rolle des arktischen Nahküstenbereiches im Kohlenstoffkreislauf zu analysieren und quantifizieren. KW - ocean color remote sensing KW - Arctic nearhore zone KW - turbidity modelling KW - arktischer Nahküstenbereich KW - Gewässerfernerkundung KW - Modellierung der Wassertrübung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-576032 ER - TY - THES A1 - Patyniak, Magda T1 - Seismotectonic segmentation, paleoearthquakes and style of deformation along the Northern Pamir thrust system, South Kyrgyzstan T1 - Seismotektonische Segmentierung, Paläoerdbeben und Art der Deformation entlang des nördlichen Pamir-Überschiebungssystems, Südkirgisistan N2 - The Pamir Frontal Thrust (PFT) located in the Trans Alai range in Central Asia is the principal active fault of the intracontinental India-Eurasia convergence zone and constitutes the northernmost boundary of the Pamir orogen at the NW edge of this collision zone. Frequent seismic activity and ongoing crustal shortening reflect the northward propagation of the Pamir into the intermontane Alai Valley. Quaternary deposits are being deformed and uplifted by the advancing thrust front of the Trans Alai range. The Alai Valley separates the Pamir range front from the Tien Shan mountains in the north; the Alai Valley is the vestige of a formerly contiguous basin that linked the Tadjik Depression in the west with the Tarim Basin in the east. GNSS measurements across the Central Pamir document a shortening rate of ~25 mm/yr, with a dramatic decrease of ~10-15 mm over a short distance across the northernmost Trans Alai range. This suggests that almost half of the shortening in the greater Pamir – Tien Shan collision zone is absorbed along the PFT. The short-term (geodetic) and long-term (geologic) shortening rates across the northern Pamir appear to be at odds with an apparent slip-rate discrepancy along the frontal fault system of the Pamir. Moreover, the present-day seismicity and historical records have not revealed great Mw > 7 earthquakes that might be expected with such a significant slip accommodation. In contrast, recent and historic earthquakes exhibit complex rupture patterns within and across seismotectonic segments bounding the Pamir mountain front, challenging our understanding of fault interaction and the seismogenic potential of this area, and leaving the relationships between seismicity and the geometry of the thrust front not well understood. In this dissertation I employ different approaches to assess the seismogenic behavior along the PFT. Firstly, I provide paleoseismic data from five trenches across the central PFT segment (cPFT) and compute a segment-wide earthquake chronology over the past 16 kyr. This novel dataset provides important insights into the recurrence, magnitude, and rupture extent of past earthquakes along the cPFT. I interpret five, possibly six paleoearthquakes that have ruptured the Pamir mountain front since ∼7 ka and 16 ka, respectively. My results indicate that at least three major earthquakes ruptured the full-segment length and possibly crossed segment boundaries with a recurrence interval of ∼1.9 kyr and potential magnitudes of up to Mw 7.4. Importantly, I did not find evidence for great (i.e., Mw ≥8) earthquakes. Secondly, I combine my paleoseimic results with morphometric analyses to establish a segment-wide distribution of the cumulative vertical separation along offset fluvial terraces and I model a long-term slip rate for the cPFT. My investigations reveal discrepancies between the extents of slip and rupture during apparent partial segment ruptures in the western half of the cPFT. Combined with significantly higher fault scarp offsets in this sector of the cPFT, the observations indicate a more mature fault section with a potential for future fault linkage. I estimate an average rate of horizontal motion for the cPFT of 4.1 ± 1.5 mm/yr during the past ∼5 kyr, which does not fully match the GNSS-derived present-day shortening rate of ∼10 mm/yr. This suggests a complex distribution of strain accumulation and potential slip partitioning between the cPFT and additional faults and folds within the Pamir that may be associated with a partially locked regional décollement. The third part of the thesis provides new insights regarding the surface rupture of the 2008 Mw 6.6 Nura earthquake that ruptured along the eastern PFT sector. I explore this rupture in the context of its structural complexity by combining extensive field observations with high-resolution digital surface models. I provide a map of the rupture extent, net slip measurements, and updated regional geological observations. Based on this data I propose a tectonic model in this area associated with secondary flexural-slip faulting along steeply dipping bedding of folded Paleogene sedimentary strata that is related to deformation along a deeper blind thrust. Here, the strain release seems to be transferred from the PFT towards older inherited basement structures within the area of advanced Pamir-Tien Shan collision zone. The extensive research of my dissertation results in a paleoseismic database of the past 16 ~kyr, which contributes to the understanding of the seismogenic behavior of the PFT, but also to that of segmented thrust-fault systems in active collisional settings. My observations underscore the importance of combining different methodological approaches in the geosciences, especially in structurally complex tectonic settings like the northern Pamir. Discrepancy between GNSS-derived present-day deformation rates and those from different geological archives in the central part, as well as the widespread distribution of the deformation due to earthquake triggered strain transfer in the eastern part reveals the complexity of this collision zone and calls for future studies involving multi-temporal and interdisciplinary approaches. N2 - Die Pamir-Frontüberschiebung (PFT) des Trans-Alai-Gebirges in Zentralasien ist die wichtigste aktive Verwerfung der intrakontinentalen indisch-eurasischen Konvergenzzone und bildet die nördlichste Grenze des Pamir-Orogens am NW-Rand dieser Kollisionszone. Die intensive Seismizität und die fortschreitende Krustenverkürzung spiegeln die nach Norden gerichtete Verlagerung des Pamir in das intermontane Alai-Tal wider. Quartäre Ablagerungen werden durch die vorstoßende Überschiebungsfront des Trans-Alai-Gebirges sukzessive deformiert und angehoben. Das Alai-Tal trennt das Pamir-Gebirge vom Südrand des Tien Shan-Gebirges und verkörpert die Überreste eines ehemals zusammenhängenden Beckens, welches früher die Tadjik-Senke im Westen mit dem Tarim-Becken im Osten verband. GNSS-Messungen südlich der PFT im Bereich des Zentralpamirs dokumentieren eine Verkürzungsrate von 25 mm/Jahr, welche über eine kurze Strecke zur nördlichen Front des Trans-Alai-Gebirges hin drastisch um 10-15 mm abnimmt. Dies lässt darauf schließen, dass fast die Hälfte der Einengung entlang der PFT absorbiert wird, welche sich in der Kollisionszone zwischen dem Pamir und dem Tien Shan befindet. Eine offensichtliche Abweichung zwischen den kurzfristigen (geodätischen) und langfristigen (geologischen) Verkürzungsraten im nördlichen Pamir weist auf eine Diskrepanz in den Versatzraten entlang des nördlichen frontalen Verwerfungssystems hin. Darüber hinaus weisen weder die heutige Seismizität noch die historischen Aufzeichnungen auf große Erdbeben der Stärke Mw > 7 hin, wie sie bei einer solch signifikanten Verschiebung zu erwarten wären. Stattdessen zeigen rezente und historische Erdbeben komplexe Bruchmuster innerhalb und quer zu seismotektonisch definierten Segmenten, die die Pamir-Gebirgsfront begrenzen, was unser Verständnis der Verwerfungsinteraktion und des seismogenen Potenzials dieses Gebiets herausfordert. Die Wechselwirkungen zwischen Seismizität und der Geometrie der Überschiebungsfront sind somit nicht gut verstanden. In dieser Dissertation verwende ich verschiedene Verfahren, um das seismogene Verhalten entlang der PFT zu bestimmen. Dazu werden zunächst paläoseismische Daten aus fünf Schürfgräben entlang des zentralen Segmentes der PFT (cPFT) erhoben und eine segmentweite Erdbebenchronologie zusammengestellt. Dieser neue Datensatz liefert wichtige Erkenntnisse über die Häufigkeit, die Stärke und das Bruchausmaß vergangener Erdbeben entlang der cPFT. Darauf basierend wurden fünf bzw. sechs Paläoerdbeben interpretiert, die sich entlang der nördlichen Pamir-Gebirgsfront in den letzten ∼7 ka bzw. ~16 ka ereigneten. Meine Ergebnisse deuten darauf hin, dass davon mindestens drei große Erdbeben die gesamte Länge des zentralen Segments durchbrochen haben und der Bruch möglicherweise sogar die Segmentgrenzen überschritten hat, mit einem Wiederholungsintervall von ∼1,9 kyr und potenziellen Magnituden von bis zu Mw 7,4. Entscheidend an dieser Stelle ist, dass ich keine Hinweise auf sehr große (d.h. Mw ≥ 8) Erdbeben gefunden habe. Meine paläoseismischen Ergebnisse werden anschließend mit morphometrischen Analysen entlang des zentralen PFT-Segmentes verknüpft, um eine segmentweite Verteilung der kumulativ versetzten Geländestufe entlang fluvialer Terrassen zu ermitteln. Aus dieser Verteilung wird eine langzeitliche Versatzrate für die cPFT modelliert. In der westlichen Hälfte der cPFT zeigen meine Untersuchungen deutliche Unstimmigkeiten zwischen dem Versatz und der Ausdehnung des Oberflächenbruchs auf. In Anbetracht der deutlich höheren Geländestufen im westlichen Bereich deuten die Beobachtungen auf einen reiferen Verwerfungsabschnitt hin. Somit besteht Potenzial für zukünftige Verbindung der Segmente und potenziell stärke Erdbeben. Mit meinen Daten konnte ich eine mittlere horizontale Bewegungsrate von 4,1 ± 1,5 mm/Jahr während der letzten ∼5 kyr für die cPFT ermitteln, welche nicht vollständig mit der von GNSS abgeleiteten heutigen Verkürzungsrate von ∼10 mm/Jahr übereinstimmt. Dies deutet auf eine komplexe Verteilung des Spannungsaufbaus und eine potenzielle Aufteilung dieser Spannungen zwischen der cPFT und den übrigen Verwerfungen und Falten innerhalb des Pamirs hin, welche möglicherweise mit einem teilweise blockierten regionalen Décollement einhergehen. Der letzte Teil der Arbeit liefert neue Erkenntnisse über den Oberflächenbruch des Nura-Erdbebens der Stärke 6,6 (Mw) aus dem Jahr 2008, das sich entlang der östlichen PFT ereignete. Ich untersuche diesen Bruch im Hinblick auf seine strukturelle Komplexität, indem ich umfangreiche Feldbeobachtungen mit hochauflösenden digitalen Oberflächenmodellen verknüpfe. Ich erstelle eine Karte der Bruchausdehnung, des gemessenen Gesamtversatzes und aktualisiere regionale geologische Beobachtungen. Auf der Grundlage dieser Daten entwickle ich für dieses Gebiet Szenarien für ein tektonisches Modell, das mit Biegegleitfalten in mesozoischen und känozoischen Sedimentschichten im Zusammenhang steht. Ich zeige, dass diese Formen mit älteren, kumulativ versetzten seismogenen Strukturen übereinzustimmen scheinen und auf eine wiederkehrende, langfristige Deformationsgeschichte entlang dieses Sektors der nördlichen Pamir-Gebirgsfront hinweisen. Die umfangreichen Forschungsarbeiten meiner Dissertation resultieren in einer paleoseismischen Datenbasis der letzten ~16,000 Jahre, welche zum Verständnis des seismogenen Verhaltens der PFT, aber auch zu dem von segmentierten Überschiebungssystemen in aktiven Kollisionsgebieten beitragen. Meine Beobachtungen unterstreichen, wie wichtig die Kombination verschiedener methodischer Ansätze in den Geowissenschaften ist, insbesondere in strukturell komplexen tektonischen Gebieten wie dem nördlichen Pamir. Die Diskrepanz zwischen den von GNSS abgeleiteten heutigen Deformationsraten und denen aus verschiedenen geologischen Archiven im zentralen Teil, und die weite Verbreitung der Deformation durch erdbebenbedingten Dehnungstransfer im östlichen Teil offenbart die Komplexität dieser Kollisionszone und erfordert künftige Studien mit multitemporalen und interdisziplinären Ansätzen. KW - paleoseismology KW - Paleoseismologie KW - Neotektonik KW - Strukturgeologie KW - quartäre Geochronologie KW - Zentral Asien Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577141 ER - TY - THES A1 - Chea, Sany T1 - Glycomaterials: From synthesis of glycoconjugates to potential biomedical applications T1 - Glykomaterialien: Von der Synthese von Glykokonjugaten zu potenziellen biomedizinischen Anwendungen N2 - The importance of carbohydrate structures is enormous due to their ubiquitousness in our lives. The development of so-called glycomaterials is the result of this tremendous significance. These are not exclusively used for research into fundamental biological processes, but also, among other things, as inhibitors of pathogens or as drug delivery systems. This work describes the development of glycomaterials involving the synthesis of glycoderivatives, -monomers and -polymers. Glycosylamines were synthesized as precursors in a single synthesis step under microwave irradiation to significantly shorten the usual reaction time. Derivatization at the anomeric position was carried out according to the methods developed by Kochetkov and Likhorshetov, which do not require the introduction of protecting groups. Aminated saccharide structures formed the basis for the synthesis of glycomonomers in β-configuration by methacrylation. In order to obtain α-Man-based monomers for interactions with certain α-Man-binding lectins, a monomer synthesis by Staudinger ligation was developed in this work, which also does not require protective groups. Modification of the primary hydroxyl group of a saccharide was accomplished by enzyme-catalyzed synthesis. Ribose-containing cytidine was transesterified using the lipase Novozym 435 and microwave irradiation. The resulting monomer synthesis was optimized by varying the reaction partners. To create an amide bond instead of an ester bond, protected cytidine was modified by oxidation followed by amide coupling to form the monomer. This synthetic route was also used to isolate the monomer from its counterpart guanosine. After obtaining the nucleoside-based monomers, they were block copolymerized using the RAFT method. Pre-synthesized pHPMA served as macroCTA to yield cytidine- or guanosine-containing block copolymer. These isolated block copolymers were then investigated for their self-assembly behavior using UV-Vis, DLS and SEM to serve as a potential thermoresponsive drug delivery system. N2 - Die Bedeutung von Kohlenhydratstrukturen ist immens, da sie in unserem Leben allgegenwärtig sind. Die Entwicklung sogenannter Glykomaterialien ist das Ergebnis dieser großen Bedeutung. Diese werden nicht nur zur Erforschung grundlegender biologischer Prozesse eingesetzt, sondern unter anderem auch als Hemmstoffe für Krankheitserreger oder als Wirkstofftransportsysteme. Die vorliegende Arbeit beschreibt die Entwicklung von Glycomaterialien durch die Synthese von Glycoderivaten, -monomeren und -polymeren. Glycosylamine wurden als Vorstufen in einem einzigen Syntheseschritt unter Mikrowellenbestrahlung synthetisiert, um die übliche Reaktionszeit deutlich zu verkürzen. Die Derivatisierung an der anomeren Position wurde nach den von Kochetkov und Likhorshetov entwickelten Methoden durchgeführt, die keine Einführung von Schutzgruppen erfordern. Die aminierten Saccharidstrukturen bildeten die Grundlage für die Synthese von Glycomonomeren in β-Konfiguration durch Methacrylierung. Um α-Man-basierte Monomere für Interaktionen mit bestimmten α-Man-bindenden Lektinen zu erhalten, wurde in dieser Arbeit eine Monomersynthese durch Staudinger-Ligation entwickelt, die ebenfalls keine Schutzgruppen erfordert. Die Modifizierung der primären Hydroxylgruppe eines Saccharids wurde durch enzymkatalysierte Synthese erreicht. Ribosehaltiges Cytidin wurde mit Hilfe der Lipase Novozym 435 und Mikrowellenbestrahlung umgeestert. Die resultierende Monomersynthese wurde durch Variation der Reaktionspartner optimiert. Um eine Amidbindung anstelle einer Esterbindung zu erzeugen, wurde geschütztes Cytidin durch Oxidation und anschließende Amidkupplung modifiziert, um das Monomer zu bilden. Dieser Syntheseweg wurde auch zur Isolierung des Monomers aus seinem Gegenstück Guanosin verwendet. Nach der Gewinnung der nukleosidbasierten Monomere wurden diese mit Hilfe der RAFT-Methode blockcopolymerisiert. Vorsynthetisiertes pHPMA diente als MakroCTA, um Cytidin- oder Guanosin-haltige Blockcopolymere zu erhalten. Diese isolierten Blockcopolymere wurden dann mit UV-Vis, DLS und SEM auf ihr Selbstorganisationsverhalten untersucht, um als potenzielles thermoresponsives Drug-Delivery-System zu dienen. KW - polymer chemistry KW - glyco chemistry KW - glycomonomer KW - glycopolymer KW - lectin KW - drug delivery KW - thermoresponsive KW - glycoconjugate KW - Glykochemie KW - Glykokonjugat KW - Glykomonomer KW - Glykopolymer KW - Lektin KW - Polymerchemie KW - thermoresponsiv KW - Drug Delivery Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-574240 ER - TY - THES A1 - Polemiti, Elli T1 - Identifying risk of microvascular and macrovascular complications of type 2 diabetes T1 - Identifizierung des Risikos mikrovaskulärer und makrovaskulärer Komplikationen bei Typ-2-Diabetes BT - findings from the European Prospective Investigation into Cancer and Nutrition-Potsdam Study BT - Ergebnisse der europäischen prospektiven Krebsforschung und Ernährungs-Potsdamer Studie N2 - Diabetes is hallmarked by high blood glucose levels, which cause progressive generalised vascular damage, leading to microvascular and macrovascular complications. Diabetes-related complications cause severe and prolonged morbidity and are a major cause of mortality among people with diabetes. Despite increasing attention to risk factors of type 2 diabetes, existing evidence is scarce or inconclusive regarding vascular complications and research investigating both micro- and macrovascular complications is lacking. This thesis aims to contribute to current knowledge by identifying risk factors – mainly related to lifestyle – of vascular complications, addressing methodological limitations of previous literature and providing comparative data between micro- and macrovascular complications. To address this overall aim, three specific objectives were set. The first was to investigate the effects of diabetes complication burden and lifestyle-related risk factors on the incidence of (further) complications. Studies suggest that diabetes complications are interrelated. However, they have been studied mainly independently of individuals’ complication burden. A five-state time-to-event model was constructed to examine the longitudinal patterns of micro- (kidney disease, neuropathy and retinopathy) and macrovascular complications (myocardial infarction and stroke) and their association with the occurrence of subsequent complications. Applying the same model, the effect of modifiable lifestyle factors, assessed alone and in combination with complication load, on the incidence of diabetes complications was studied. The selected lifestyle factors were body mass index (BMI), waist circumference, smoking status, physical activity, and intake of coffee, red meat, whole grains, and alcohol. Analyses were conducted in a cohort of 1199 participants with incident type 2 diabetes from the European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam, who were free of vascular complications at diabetes diagnosis. During a median follow-up time of 11.6 years, 96 cases of macrovascular complications (myocardial infarction and stroke) and 383 microvascular complications (kidney disease, neuropathy and retinopathy) were identified. In multivariable-adjusted models, the occurrence of a microvascular complication was associated with a higher incidence of further micro- (Hazard ratio [HR] 1.90; 95% Confidence interval [CI] 0.90, 3.98) and macrovascular complications (HR 4.72; 95% CI 1.25, 17.68), compared with persons without a complication burden. In addition, participants who developed a macrovascular event had a twofold higher risk of future microvascular complications (HR 2.26; 95% CI 1.05, 4.86). The models were adjusted for age, sex, state duration, education, lifestyle, glucose-lowering medication, and pre-existing conditions of hypertension and dyslipidaemia. Smoking was positively associated with macrovascular disease, while an inverse association was observed with higher coffee intake. Whole grain and alcohol intake were inversely associated with microvascular complications, and a U-shaped association was observed for red meat intake. BMI and waist circumference were positively associated with microvascular events. The associations between lifestyle factors and incidence of complications were not modified by concurrent complication burden, except for red meat intake and smoking status, where the associations were attenuated among individuals with a previous complication. The second objective was to perform an in-depth investigation of the association between BMI and BMI change and risk of micro- and macrovascular complications. There is an ongoing debate on the association between obesity and risk of macrovascular and microvascular outcomes in type 2 diabetes, with studies suggesting a protective effect among people with overweight or obesity. These findings, however, might be limited due to suboptimal control for smoking, pre-existing chronic disease, or short-follow-up. After additional exclusion of persons with cancer history at diabetes onset, the associations between pre-diagnosis BMI and relative annual change between pre- and post-diagnosis BMI and incidence of complications were evaluated in multivariable-adjusted Cox models. The analyses were adjusted for age, sex, education, smoking status and duration, physical activity, alcohol consumption, adherence to the Mediterranean diet, and family history of diabetes and cardiovascular disease (CVD). Among 1083 EPIC-Potsdam participants, 85 macrovascular and 347 microvascular complications were identified during a median follow-up period of 10.8 years. Higher pre-diagnosis BMI was associated with an increased risk of total microvascular complications (HR per 5 kg/m2 1.21; 95% CI 1.07, 1.36), kidney disease (HR 1.39; 95% CI 1.21, 1.60) and neuropathy (HR 1.12; 95% CI 0.96, 1.31); but no association was observed for macrovascular complications (HR 1.05; 95% CI 0.81, 1.36). Effect modification was not evident by sex, smoking status, or age groups. In analyses according to BMI change categories, BMI loss of more than 1% indicated a decreased risk of total microvascular complications (HR 0.62; 95% CI 0.47, 0.80), kidney disease (HR 0.57; 95% CI 0.40, 0.81) and neuropathy (HR 0.73; 95% CI 0.52, 1.03), compared with participants with a stable BMI. No clear association was observed for macrovascular complications (HR 1.04; 95% CI 0.62, 1.74). The impact of BMI gain on diabetes-related vascular disease was less evident. Associations were consistent across strata of age, sex, pre-diagnosis BMI, or medication but appeared stronger among never-smokers than current or former smokers. The last objective was to evaluate whether individuals with a high-risk profile for diabetes and cardiovascular disease (CVD) also have a greater risk of complications. Within the EPIC-Potsdam study, two accurate prognostic tools were developed, the German Diabetes Risk Score (GDRS) and the CVD Risk Score (CVDRS), which predict the 5-year type 2 diabetes risk and 10-year CVD risk, respectively. Both scores provide a non-clinical and clinical version. Components of the risk scores include age, sex, waist circumference, prevalence of hypertension, family history of diabetes or CVD, lifestyle factors, and clinical factors (only in clinical versions). The association of the risk scores with diabetes complications and their discriminatory performance for complications were assessed. In crude Cox models, both versions of GDRS and CVDRS were positively associated with macrovascular complications and total microvascular complications, kidney disease and neuropathy. Higher GDRS was also associated with an elevated risk of retinopathy. The discrimination of the scores (clinical and non-clinical) was poor for all complications, with the C-index ranging from 0.58 to 0.66 for macrovascular complications and from 0.60 to 0.62 for microvascular complications. In conclusion, this work illustrates that the risk of complication development among individuals with type 2 diabetes is related to the existing complication load, and attention should be given to regular monitoring for future complications. It underlines the importance of weight management and adherence to healthy lifestyle behaviours, including high intake of whole grains, moderation in red meat and alcohol consumption and avoidance of smoking to prevent major diabetes-associated complications, regardless of complication burden. Risk scores predictive for type 2 diabetes and CVD were related to elevated risks of complications. By optimising several lifestyle and clinical factors, the risk score can be improved and may assist in lowering complication risk. N2 - Diabetes ist durch einen hohen Blutzuckerspiegel gekennzeichnet, der eine fortschreitende allgemeine Gefäßschädigung verursacht, die zu mikro- und makrovaskulären Komplikationen führt. Diabetesbedingte Komplikationen verursachen eine schwere und langanhaltende Morbidität und sind eine der Hauptursachen für die Mortalität von Menschen mit Diabetes. Trotz der zunehmenden Aufmerksamkeit der Erforschung der Risikofaktoren des Typ-2-Diabetes, ist die vorhandene Studienlage in Bezug auf vaskuläre Komplikationen nicht ein-deutig und nicht ausreichend. Diese Arbeit soll zum aktuellen Wissensstand beitragen, indem sie Risikofaktoren – hauptsächlich lebensstilbedingte Faktoren – für vaskuläre Komplikationen identifiziert, methodische Schwächen bisheriger Studien adressiert und vergleichende Daten zwischen mikro- und makrovaskulären Komplikationen liefert. Um dieses übergeordnete Ziel zu erreichen, wurden drei spezifische Ziele gesetzt. Das erste war die Untersuchung des Einflusses der Diabetes-Komplikationslast und lebensstilbezogener Risikofaktoren auf das Auftreten weiterer Komplikationen. Studien legen nahe, dass Diabeteskomplikationen in Wechselbeziehung zueinanderstehen. Allerdings wurden sie bisher hauptsächlich unabhängig von der individuellen Komplikationslast untersucht. Es wurde daher ein fünfstufiges Time-to-Event-Modell konstruiert, um die longitudinalen Muster von mikro- und makrovaskulären Komplikationen und deren Zusammenhang mit dem Auftreten von Folgekomplikationen zu untersuchen. Unter Anwendung desselben Modells wurde die Auswirkung modifizierbarer Lebensstilfaktoren, die allein und in Kombination mit der Komplikationslast untersucht wurden, auf das Auftreten von Diabeteskomplikatio-nen untersucht. Die ausgewählten Risikofaktoren waren der Body-Mass-Index (BMI), der Taillenumfang, der Raucherstatus, die körperliche Aktivität und der Konsum von Kaffee, rotem Fleisch, Vollkornprodukten und Alkohol. Die Analysen wurden in einer Kohorte von 1199 Teilnehmern mit neu diagnostiziertem Typ-2-Diabetes aus der European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam durchgeführt, die zum Zeitpunkt der Diabetesdiagnose frei von vaskulären Komplikationen waren. Während einer Nachbeobachtungszeit von 11,6 Jahren wurden 96 Fälle mit makrovaskulären Komplikati-onen (Myokardinfarkt und Schlaganfall) und 383 Fälle mit mikrovaskulären Komplikationen (Nierenerkrankungen, Neuropathie und Retinopathie) identifiziert. Das Auftreten einer mikrovaskulären Komplikation war mit einer höheren Inzidenz weiterer mikrovaskulärer Ereignisse (Hazard Ratio [HR] 1,90; 95% Konfidenzintervall [CI] 0,90, 3,98) und makrovaskulärer Komplikationen (HR 4,72; 95% CI 1,25, 17,68) assoziiert, verglichen mit Personen ohne Komplikationen. Darüber hinaus hatten Teilnehmende, die ein makrovaskuläres Ereignis entwickelten, ein doppelt so hohes Risiko für mikrovaskuläre Komplikationen (HR 2,26; 95% CI 1,05, 4,86). Die Modelle wurden für Alter, Geschlecht, Komplikationsdauer, Bildung, Lebensstil, glukosesenkende Medikamente und Vorerkrankungen wie Bluthochdruck und Dyslipidämie adjustiert. Rauchen war posi-tiv mit makrovaskulären Erkrankungen assoziiert, während eine inverse Assoziation für einen höheren Kaffeekonsum beobachtet wurde. Vollkorn- und Alkoholkonsum waren invers mit mikrovaskulären Komplikationen assoziiert, und eine U-förmige Assoziation wurde für den Konsum von rotem Fleisch beobachtet. BMI und Taillenumfang waren positiv mit mikrovaskulären Ereignissen assoziiert. Die Zusammenhänge zwischen Lebensstilfaktoren und Komplikationen wurden durch gleichzeitige Komplikationsbelastung nicht verändert, mit Ausnahme für den Verzehr von rotem Fleisch und dem Raucherstatus, dort waren die Assoziationen bei Personen mit Komplikationen abgeschwächt. Das zweite Ziel war die Untersuchung des Zusammenhangs zwischen BMI und BMI-Änderung und dem Risiko für mikro- und makrovaskuläre Komplikationen. Es gibt eine anhaltende Debatte über den Zusammenhang zwischen Adipositas und dem Risiko für makrovaskuläre und mikrovaskuläre Folgeerkrankungen bei Typ-2-Diabetes, bei der einige Studien einen protektiven Zusammenhang bei Menschen mit Übergewicht oder Adipositas nahelegen. Diese Ergebnisse könnten auf methodische Schwächen zurückzuführen sein, einschließlich einer suboptimalen Adjustierung für Rauchen, bestehende chronische Erkrankungen und eine kurze Nachbeobachtungszeit. Nach zusätzlichem Ausschluss von Personen mit einer bestehenden Krebserkrankung zu Diabetesbeginn, wurden die Zusam-menhänge zwischen BMI vor der Diagnose und die relative jährliche Veränderung zwischen BMI vor und nach der Diagnose hinsichtlich der Inzidenz von Komplikationen in Cox-Modellen ausgewertet. Die Analysen wurden für Alter, Geschlecht, Bildung, Raucherstatus und -dauer, körperliche Aktivität, Alkoholkonsum, Einhaltung der mediterranen Ernährung und Familienanamnese von Diabetes und kardiovaskulären Erkrankungen (CVD) adjustiert. Unter den 1083 Teilnehmern wurden 85 makrovaskuläre und 347 mikrovaskuläre Komplikationen während einer Nachbeobachtungszeit von 10,8 Jahren identifiziert. Ein höherer BMI vor der Diagnose war mit einem erhöhten Risiko für mikrovaskuläre Komplikationen insgesamt (HR pro 5 kg/m2 1,21; 95% CI 1,07, 1,36), Nierenerkrankungen (HR 1,39; 95% CI 1,21, 1,60) und Neuropathie (HR 1,12; 95% CI 0,96, 1,31) assozi-iert; für makrovaskuläre Komplikationen wurde jedoch kein Zusammenhang beobachtet (HR 1,05; 95% CI 0,81, 1,36). Analysen nach BMI-Kategorien bestätigten diese Ergebnisse. Es gab keine Hinweise für Effektmodifikation mit Geschlecht, Raucherstatus oder Alter. In den Analysen für BMI-Änderung zeigte sich, dass eine BMI-Abnahme von mehr als 1 % mit einem verringerten Risiko für mikrovaskuläre Komplikationen (HR 0,62; 95% CI 0,47, 0,80), Nierenerkrankungen (HR 0,57; 95% CI 0,40, 0,81) und Neuropathie (HR 0,73; 95% CI 0,52, 1,03) verbunden war, verglichen mit Teilnehmern mit einem stabilen BMI. Für makrovaskuläre Komplikationen wurde kein eindeutiger Zusammenhang beobachtet (HR 1,04; 95% CI 0,62, 1,74). Die Assoziationen waren in den Strata nach Alter, Ge-schlecht, BMI vor der Diagnose oder Medikation hinweg konsistent, schienen aber bei lebenslangen Nichtrauchern stärker zu sein als bei Rauchern oder ehemaligen Rauchern. Das letzte Ziel war es zu untersuchen, ob Personen mit einem Hochrisikoprofil für Di-abetes und CVD auch ein höheres Risiko für Komplikationen haben. Im Rahmen der EPIC-Potsdam-Studie wurden zwei präzise Prognoseinstrumente entwickelt, der German Diabetes Risk Score (GDRS) und der CVD Risk Score (CVDRS), die das 5-Jahres-Risiko für Typ-2-Diabetes bzw. das 10-Jahres-Risiko für CVD vorhersagen. Beide Scores sind als nicht-klinische und klinische Version verfügbar. Zu den Komponenten der Risikoscores gehören Alter, Geschlecht, Taillenumfang, Prävalenz von Bluthochdruck, familiäre Krankheitsvorgeschichte (Diabetes oder CVD), modifizierbare Lebensstilfaktoren und klinische Parameter (nur in den klinischen Versionen). Die Assoziation der Risikoscores mit Diabeteskomplikationen und ihre Diskriminierungsfähigkeit für Komplikationen wurden bewertet. In unadjustierten Cox-Modellen waren beide Versionen (GDRS und CVDRS) positiv mit makrovaskulären Komplikationen und insgesamt mit mikrovaskulären Komplikatio-nen, Nierenerkrankungen und Neuropathie in Personen mit Typ-2-Diabetes assoziiert. Ein höherer GDRS war auch mit einem erhöhten Risiko für eine Retinopathie assoziiert. Die Diskriminierung der Scores (klinisch und nicht-klinisch) war für alle Komplikationen gering, wobei der C-Index für makrovaskuläre Komplikationen von 0,58 bis 0,66 und für mikrovaskuläre Komplikationen von 0,60 bis 0,62 reichte. Zusammenfassend zeigt diese Arbeit, dass das Risiko für die Entwicklung von Komplikati-onen bei Personen mit Typ-2-Diabetes mit der bestehenden Komplikationslast zusammenhängt und dass eine regelmäßige Überwachung von zukünftigen Komplikationen wichtig ist. Sie unterstreicht die Bedeutung des Gewichtsmanagements und der Einhaltung gesunder Lebensgewohnheiten, einschließlich eines hohen Verzehrs von Vollkornprodukten, eines moderaten Konsums von rotem Fleisch und Alkohol, sowie des Verzichts auf das Rauchen, um schwere diabetesassoziierte Komplikationen, unabhängig von der Komplikationslast, zu verhindern. Die Risiko-Scores für Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen waren mit einem erhöhten Komplikations-Risiko assoziiert. Durch die Optimierung des Lebens-stils und der klinischen Faktoren kann der Risikoscore verbessert werden, was das Auftreten von diabetesassoziierten Komplikationen verringern könnte. KW - type 2 diabetes KW - microvascular complications KW - macrovascular complications KW - nephropathy KW - neuropathy KW - retinopathy KW - CVD KW - myocardial infarction KW - stroke KW - lifestyle KW - diet KW - obesity KW - BMI KW - weight loss KW - risk scores KW - coffee KW - whole grains KW - physical activity KW - red meat KW - smoking KW - alcohol intake KW - Body-Mass-Index KW - Herzkreislauferkrankungen KW - Alkoholkonsum KW - Kaffee KW - Diät KW - Lebensstil KW - makrovaskuläre Komplikationen KW - mikrovaskuläre Komplikationen KW - Herzinfarkt KW - Nephropathie KW - Neuropathie KW - Adipositas KW - körperliche Aktivität KW - rotes Fleisch KW - Retinopathie KW - Risikobewertungen KW - Rauchen KW - Schlaganfall KW - Typ 2 Diabetes KW - Gewichtsverlust KW - Vollkorn Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571038 ER - TY - THES A1 - Siegmund, Nicole T1 - Wind driven soil particle uptake Quantifying drivers of wind erosion across the particle size spectrum T1 - Partikelaufwirbelung durch Wind - Über die Quantifizierung von Winderosion über das ganze Partikel-Größenspektrum N2 - Among the multitude of geomorphological processes, aeolian shaping processes are of special character, Pedogenic dust is one of the most important sources of atmospheric aerosols and therefore regarded as a key player for atmospheric processes. Soil dust emissions, being complex in composition and properties, influence atmospheric processes and air quality and has impacts on other ecosystems. In this because even though their immediate impact can be considered low (exceptions exist), their constant and large-scale force makes them a powerful player in the earth system. dissertation, we unravel a novel scientific understanding of this complex system based on a holistic dataset acquired during a series of field experiments on arable land in La Pampa, Argentina. The field experiments as well as the generated data provide information about topography, various soil parameters, the atmospheric dynamics in the very lower atmosphere (4m height) as well as measurements regarding aeolian particle movement across a wide range of particle size classes between 0.2μm up to the coarse sand. The investigations focus on three topics: (a) the effects of low-scale landscape structures on aeolian transport processes of the coarse particle fraction, (b) the horizontal and vertical fluxes of the very fine particles and (c) the impact of wind gusts on particle emissions. Among other considerations presented in this thesis, it could in particular be shown, that even though the small-scale topology does have a clear impact on erosion and deposition patterns, also physical soil parameters need to be taken into account for a robust statistical modelling of the latter. Furthermore, specifically the vertical fluxes of particulate matter have different characteristics for the particle size classes. Finally, a novel statistical measure was introduced to quantify the impact of wind gusts on the particle uptake and its application on the provided data set. The aforementioned measure shows significantly increased particle concentrations during points in time defined as gust event. With its holistic approach, this thesis further contributes to the fundamental understanding of how atmosphere and pedosphere are intertwined and affect each other. N2 - Unter der Vielzahl geomorphologischer Prozesse nehmen äolische Formgebungsprozesse eine besondere Stellung ein, denn obwohl ihre unmittelbaren Auswirkungen als gering einzuschätzen sind (Ausnahmen existieren), sind sie aufgrund ihrer konstanten und großen Kraft ein mächtiger Akteur im Erdsystem. Pedogener Staub ist eine der wichtigsten Quellen atmosphärischer Aerosole und kann daher als Schlüsselfaktor für atmosphärische Prozesse angesehen werden. Bodenstaubemissionen, die in Zusammensetzung und Eigenschaften komplex sind, beeinflussen atmosphärische Prozesse und Luftqualität und haben Auswirkungen auf andere Ökosysteme. Um zum wissenschaftlichen Verständnis dieses komplexen Systems beizutragen, dokumentiert diese Arbeit eine Reihe von Veröffentlichungen, die alle auf einem ganzheitlichen Datensatz basieren, die während einer Reihe von Feldexperimenten auf Ackerland in La Pampa, Argentinien, gewonnen wurden. Die Feldexperimente sowie die generierten Daten liefern Informationen über Topographie, verschiedene Bodenparameter, die atmosphärische Dynamik in der unteren Atmosphäre (4 m Höhe) sowie Messungen zur äolischen Partikelbewegung über einen weiten Bereich von Partikelgrößenklassen zwischen 0,2μm und groben Sand. Die Untersuchungen konzentrieren sich auf drei Themen: Die Auswirkungen kleinräumiger Landschaftsstrukturen auf äolische Transportprozesse der groben Partikelfraktion, die horizontalen und vertikalen Strömungen der sehr feinen Partikel und der Einfluss von Windböen auf die Partikelemissionen. Neben anderen in dieser Arbeit vorgestellten Überlegungen konnte insbesondere gezeigt werden, dass, obwohl die kleinräumige Topologie einen deutlichen Einfluss auf Erosions- und Ablagerungsmuster hat, auch physikalische Bodenparameter für eine robuste statistische Modellierung berücksichtigt werden müssen. Darüber hinaus weisen speziell die vertikalen Feinstaubflüsse unterschiedliche Eigenschaften für die Partikelgrößenklassen auf. Schließlich wurde ein neuartiges statistisches Maß eingeführt, um den Einfluss von Windböen auf die Partikelkonzentration der Luft zu quantifizieren, und seine Anwendung auf den bereitgestellten Datensatz zeigt signifikant erhöhte Partikelkonzentrationen zu Zeitpunkten, die als Böen definiert wurden. Mit ihrem ganzheitlichen Ansatz trägt diese Arbeit weiter zum grundlegenden Verständnis bei, wie Atmosphäre und Pedosphäre miteinander verflochten sind und sich gegenseitig beeinflussen. KW - Winderosion KW - winderosion KW - PM10, PM2, PM1 KW - Horizontal flux KW - horizontaler Fluss KW - Vertical flux KW - vertikaler Fluss KW - Argentina KW - Argentinien KW - wind gusts KW - Windböen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-574897 ER - TY - THES A1 - Simsek, Ibrahim T1 - Ink-based preparation of chalcogenide perovskites as thin films for PV applications T1 - Präparation von Chalkogeniden Perowskiten auf Basis von molekularer Tinte als Dünnschichten für PV Anwendungen N2 - The increasing demand for energy in the current technological era and the recent political decisions about giving up on nuclear energy diverted humanity to focus on alternative environmentally friendly energy sources like solar energy. Although silicon solar cells are the product of a matured technology, the search for highly efficient and easily applicable materials is still ongoing. These properties made the efficiency of halide perovskites comparable with silicon solar cells for single junctions within a decade of research. However, the downside of halide perovskites are poor stability and lead toxicity for the most stable ones. On the other hand, chalcogenide perovskites are one of the most promising absorber materials for the photovoltaic market, due to their elemental abundance and chemical stability against moisture and oxygen. In the search of the ultimate solar absorber material, combining the good optoelectronic properties of halide perovskites with the stability of chalcogenides could be the promising candidate. Thus, this work investigates new techniques for the synthesis and design of these novel chalcogenide perovskites, that contain transition metals as cations, e.g., BaZrS3, BaHfS3, EuZrS3, EuHfS3 and SrHfS3. There are two stages in the deposition techniques of this study: In the first stage, the binary compounds are deposited via a solution processing method. In the second stage, the deposited materials are annealed in a chalcogenide atmosphere to form the perovskite structure by using solid-state reactions. The research also focuses on the optimization of a generalized recipe for a molecular ink to deposit precursors of chalcogenide perovskites with different binaries. The implementation of the precursor sulfurization resulted in either binaries without perovskite formation or distorted perovskite structures, whereas some of these materials are reported in the literature as they are more favorable in the needle-like non-perovskite configuration. Lastly, there are two categories for the evaluation of the produced materials: The first category is about the determination of the physical properties of the deposited layer, e.g., crystal structure, secondary phase formation, impurities, etc. For the second category, optoelectronic properties are measured and compared to an ideal absorber layer, e.g., band gap, conductivity, surface photovoltage, etc. N2 - Der stetig wachsende Energieverbrauch in der aktuellen technologischen Ära und die kürzliche Entscheidung der Politik auf Nuklearenergie zu verzichten hat die Menschheit dazu geleitet sich auf alternative umweltfreundliche Energiequellen wie Solare Energie zu fokussieren. Obwohl Silizium Solarzellen das Produkt einer ausgereiften Technologie sind geht die Suche nach hocheffizienten Materialien, die einfach umzusetzen sind weiter. Diese Eigenschaften führten zur Vergleichbarkeit von Halogeniden Perowskiten mit Silizium in Einfachsolarzellen innerhalb eines Jahrzehnts der Forschung. Allerdings mangelt es bei Halogeniden Perowskiten an Stabilität und jene stabile haben eine Blei-Toxizität. Andererseits bieten Chalkogenide Perowskite aussichtsreiche Eigenschaften als Absorber Materialien für den Photovoltaik Markt auf Grund des hohen Vorkommens der Elemente auf dem Planeten und ihrer chemischen Stabilität in Luft. Auf der Suche nach dem ultimativen Absorber Material für Solarzellen könnte sich eine Kombination der guten optoelektronischen Eigenschaften von Halogeniden Perowskiten mit der Stabilität von Chalkogeniden als guter Kandidat herausstellen. Infolgedessen untersucht diese Arbeit neue Methoden für die Synthese und das Design dieser neuartigen Chalkogeniden Perowskite, welche Übergangsmetalle als Kationen enthalten, z.B. BaZrS3, BaHfS3, EuZrS3, EuHfS3 and SrHfS3. Es gibt zwei Schritte in den Methoden der Deposition in dieser Untersuchung: Im ersten Schritt werden die binären Verbindungen durch eine Lösungsmittelprozessierung auf dem Substrat aufgebracht. Daraufhin wird im zweiten Schritt das aufgetragene Material in einer Chalkogeniden Atmosphäre getempert, um die Perowskit Struktur durch Festkörperreaktion zu bilden. Die Untersuchung fokussiert sich außerdem auf die Optimierung eines generalisierten Rezeptes für molekulare Tinte zur Deposition eines Präkursors aus unterschiedlichen binären Verbindungen. Die Implementierung der Präkursor Schwefelung führt entweder zu einer Formation der binären Verbindungen ohne Perowskit Struktur oder in der verzerrten Perowskit Struktur, obwohl für manche dieser Materialien laut Literatur die nadelförmige nicht-Perowskit Struktur günstiger sein sollte. Zuletzt gibt es zwei Kategorien für die Evaluierung der hergestellten Materialien: Die erste Kategorie behandelt die Determinierung der physikalischen Eigenschaften der deponierten Dünnschicht, z.B. Kristallstruktur, Sekundärphasen, Unreinheiten. In der zweiten Kategorie werden die optoelektronischen Eigenschaften gemessen und mit einem idealen Absorber verglichen, z.B. Bandlücke, Leitfähigkeit, Oberflächen Photospannung, etc. KW - chalcogenide KW - perovskite KW - Perowskite KW - Chalkogenide Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572711 ER - TY - THES A1 - Steppert, Isabel T1 - Entwicklung einer nichtinvasiven Diagnostikmethode zum Nachweis von Infektionserregern T1 - Development of a non-invasive diagnostic method for the identification of infectious pathogens N2 - Die aktuelle COVID-19-Pandemie zeigt deutlich, wie sich Infektionskrankheiten weltweit verbreiten können. Neben Viruserkrankungen breiten sich auch multiresistente bakterielle Erreger weltweit aus. Dementsprechend besteht ein hoher Bedarf, durch frühzeitige Erkennung Erkrankte zu finden und Infektionswege zu unterbrechen. Herkömmliche kulturelle Verfahren benötigen minimalinvasive bzw. invasive Proben und dauern für Screeningmaßnahmen zu lange. Deshalb werden schnelle, nichtinvasive Verfahren benötigt. Im klassischen Griechenland verließen sich die Ärzte unter anderem auf ihren Geruchssinn, um Infektionen und andere Krankheiten zu differenzieren. Diese charakteristischen Gerüche sind flüchtige organische Substanzen (VOC), die im Rahmen des Metabolismus eines Organismus entstehen. Tiere, die einen besseren Geruchssinn haben, werden trainiert, bestimmte Krankheitserreger am Geruch zu unterscheiden. Allerdings ist der Einsatz von Tieren im klinischen Alltag nicht praktikabel. Es bietet sich an, auf technischem Weg diese VOCs zu analysieren. Ein technisches Verfahren, diese VOCs zu unterscheiden, ist die Ionenmobilitätsspektrometrie gekoppelt mit einer multikapillaren Gaschromatographiesäule (MCC-IMS). Hier zeigte sich, dass es sich bei dem Verfahren um eine schnelle, sensitive und verlässliche Methode handelt. Es ist bekannt, dass verschiedene Bakterien aufgrund des Metabolismus unterschiedliche VOCs und damit eigene spezifische Gerüche produzieren. Im ersten Schritt dieser Arbeit konnte gezeigt werden, dass die verschiedenen Bakterien in-vitro nach einer kurzen Inkubationszeitzeit von 90 Minuten anhand der VOCs differenziert werden können. Hier konnte analog zur Diagnose in biochemischen Testreihen eine hierarchische Klassifikation der Bakterien erfolgen. Im Gegensatz zu Bakterien haben Viren keinen eigenen Stoffwechsel. Ob virusinfizierte Zellen andere VOCs als nicht-infizierte Zellen freisetzen, wurde an Zellkulturen überprüft. Hier konnte gezeigt werden, dass sich die Fingerprints der VOCs in Zellkulturen infizierter Zellen mit Respiratorischen Synzytial-Viren (RSV) von nicht-infizierten Zellen unterscheiden. Virusinfektionen im intakten Organismus unterscheiden sich von den Zellkulturen dadurch, dass hier neben Veränderungen im Zellstoffwechsel auch durch Abwehrmechanismen VOCs freigesetzt werden können. Zur Überprüfung, inwiefern sich Infektionen im intakten Organismus ebenfalls anhand VOCs unterscheiden lassen, wurde bei Patienten mit und ohne Nachweis einer Influenza A Infektion als auch bei Patienten mit Verdacht auf SARS-CoV-2 (Schweres-akutes-Atemwegssyndrom-Coronavirus Typ 2) Infektion die Atemluft untersucht. Sowohl Influenza-infizierte als auch SARS-CoV-2 infizierte Patienten konnten untereinander und von nicht-infizierten Patienten mittels MCC-IMS Analyse der Atemluft unterschieden werden. Zusammenfassend erbringt die MCC-IMS ermutigende Resultate in der schnellen nichtinvasiven Erkennung von Infektionen sowohl in vitro als auch in vivo. N2 - The current COVID-19 pandemic demonstrates the worldwide spread of infectious diseases. Besides virus infections there is also a worldwide dissemination of multiresistant bacterial strains. Therefore, there is an urgent need for rapid non-invasive screening methods. There is an unmet need to cut infection chains by early detection of infected subjects. Conventional cultural methods require minimally invasive or invasive samples and are not feasible for mass screening due to a long analysis time. In classical Greece, physicians also used their olfactory senses to differentiate infections from other diseases. These characteristic odors are volatile organic compounds (VOC) produced by the metabolism of an organism. Animals with a much better olfactory sense have been trained to detect different germs by their odors. However, the use of sniffing animals is not practicable in clinical settings. A technical detection of VOCs is therefore desirable. One technical approach for the differentiation of VOCs is ion mobility spectrometry coupled with a multicapillary gas chromatography (MCC-IMS). It could be shown that this method is a rapid, sensitive, and reliable method. It is known that various bacteria produce VOCs by their metabolism and therefore different specific smells. By the MCC-IMS method, different bacterial species could be distinguished based on the VOCs after an incubation time as short as 90 minutes in vitro. Comparable to biochemical series of tests a decision tree for the classification of bacteria could be implemented. In contrast to bacteria viruses have no own metabolism and thus are dependent on the host metabolism. Cell cultures were used to determine whether virus-infected cells release other VOCs than non-infected cells. It could be shown here that cell cultures infected with respiratory syncytial virus (RSV) differ from non-infected cell cultures in VOC profiles. Unlike in cell cultures, in the intact organism changes in VOC profiles are not only dependent on cell metabolism alterations but also in defense mechanisms. To investigate infection induced VOC changes in intact organisms, nasal breath of patients with and without influenza A infection as well as of patients with suspected SARS-CoV-2 (severe acute respiratory syndrome coronavirus type 2) infection were analyzed. It was proven that a breath analysis using a MCC-IMS is able to distinguish infected patients from non-infected as well as SARS-CoV-2 from influenza A infections. In summary, MCC-IMS delivers encouraging results in the rapid, non-invasive detection of infections in vitro as well as in vivo. KW - volatile organische Substanzen (VOCs) KW - Ionenmobilitätsspektrometrie (IMS) KW - nichtinvasive Diagnostik KW - bakterielle Infektionen KW - virale Infektionen KW - volatile organic compounds (VOCs) KW - ion mobility spectrometry (IMS) KW - non-invasive Diagnostics KW - bacterial infections KW - viral infections Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575441 ER - TY - THES A1 - Gunold, Sascha T1 - Abzug unter Beobachtung T1 - Withdrawal under observation BT - Kooperation und Konkurrenz von Bundeswehr und Bundesnachrichtendienst beim Abzug der sowjetischen/russischen Truppen aus Deutschland bis 1994 BT - competition and cooperation of German Armed Forces and Federal Foreign Intelligence Service during withdrawal of Soviet/Russian forces from Germany until 1994 N2 - Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt. Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?  Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte. N2 - The study examines the cooperation and competition between the Federal Defence Forces of Germany (Bundeswehr) and the German Foreign Intelligence Service (Bundesnachichtendienst, BND) during the withdrawal of Soviet Group of Western Forces from Germany 1990-1994. It is a common approach of military and intelligence history also reflecting the decommissioning of Military Liaison Missions of USA, United Kingdom and France (USMLM, BRIXMIS, MMFL). KW - Bundeswehr KW - Bundesnachrichtendienst KW - Gruppe der Sowjetischen Streitkräfte in Deutschland KW - Westgruppe der Truppen KW - Alliierte Militärverbindungsmissionen KW - Nachrichtendienstgeschichte KW - Militärgeschichte KW - Kalter Krieg KW - Wiedervereinigung KW - Bundeswehrkommando Ost KW - Nuklearwaffen KW - Atomwaffen KW - Spionage KW - Truppenabzug KW - allied military liaison missions KW - nuclear weapons KW - Federal Foreign Intelligence Service KW - Federal Armed Forces of Germany KW - Bundeswehrkommando Ost KW - group of Soviet forces in Germany KW - Cold War KW - military history KW - Intelligence history KW - espionage, Intelligence KW - withdrawal of troops KW - western group of forces KW - German reunification Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571977 ER - TY - THES A1 - Gandhi, Nilima T1 - Visionary leadership and job satisfaction T1 - Visionäre Führung und Arbeitszufriedenheit BT - an empirical investigation BT - eine empirische Untersuchung N2 - Current business organizations want to be more efficient and constantly evolving to find ways to retain talent. It is well established that visionary leadership plays a vital role in organizational success and contributes to a better working environment. This study aims to determine the effect of visionary leadership on employees' perceived job satisfaction. Specifically, it investigates whether the mediators meaningfulness at work and commitment to the leader impact the relationship. I take support from job demand resource theory to explain the overarching model used in this study and broaden-and-build theory to leverage the use of mediators. To test the hypotheses, evidence was collected in a multi-source, time-lagged design field study of 95 leader-follower dyads. The data was collected in a three-wave study, each survey appearing after one month. Data on employee perception of visionary leadership was collected in T1, data for both mediators were collected in T2, and employee perception of job satisfaction was collected in T3. The findings display that meaningfulness at work and commitment to the leader play positive intervening roles (in the form of a chain) in the indirect influence of visionary leadership on employee perceptions regarding job satisfaction. This research offers contributions to literature and theory by first broadening the existing knowledge on the effects of visionary leadership on employees. Second, it contributes to the literature on constructs meaningfulness at work, commitment to the leader, and job satisfaction. Third, it sheds light on the mediation mechanism dealing with study variables in line with the proposed model. Fourth, it integrates two theories, job demand resource theory and broaden-and-build theory providing further evidence. Additionally, the study provides practical implications for business leaders and HR practitioners. Overall, my study discusses the potential of visionary leadership behavior to elevate employee outcomes. The study aligns with previous research and answers several calls for further research on visionary leadership, job satisfaction, and mediation mechanism with meaningfulness at work and commitment to the leader. N2 - Heutige Unternehmen wollen effizienter sein und sich ständig weiterentwickeln, um Talente zu binden. Es ist bekannt, dass visionäre Führung eine wichtige Rolle für den Erfolg eines Unternehmens spielt und zu einem besseren Arbeitsumfeld beiträgt. Ziel dieser Studie ist es, die Auswirkungen visionärer Führung auf die wahrgenommene Arbeitszufriedenheit der Mitarbeiter zu ermitteln. Insbesondere wird untersucht, ob die Mediatoren Sinnhaftigkeit der Arbeit und Bindung an die Führungskraft einen Einfluss auf diese Beziehung haben. Ich stütze mich auf die Job Demand Resource theory, um das in dieser Studie verwendete übergreifende Modell zu erklären, und auf die Broaden-and-Build theory, um die Verwendung von Mediatoren zu nutzen. Um die Hypothesen zu testen, wurden in einer Feldstudie mit mehreren Quellen und zeitlich versetztem Design Daten von 95 aus Führungskraft und Geführten bestehenden Dyaden gesammelt. In einer Drei-Wellen-Studie wurden die Daten zur Wahrnehmung visionärer Führung durch die Mitarbeiter in T1, Daten zu den beiden Mediatoren in T2 und schließlich die Wahrnehmung der Arbeitszufriedenheit durch die Mitarbeiter in T3 erhoben. Die Ergebnisse zeigen, dass Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft positive intervenierende Rollen (in Form einer Kette) beim indirekten Einfluss von visionärer Führung auf die Wahrnehmung der Arbeitszufriedenheit der Mitarbeiter spielen. Diese Studie leistet einen Beitrag zur Literatur und Theorie, indem sie erstens das vorhandene Wissen über die Auswirkungen visionärer Führung auf die Mitarbeiter erweitert. Zweitens trägt sie zur Literatur über die Konstrukte Sinnhaftigkeit bei der Arbeit, Bindung an die Führungskraft und Arbeitszufriedenheit bei. Drittens beleuchtet sie den Mediationsmechanismus, der mit den Untersuchungsvariablen im Einklang mit dem vorgeschlagenen Modell steht. Viertens integriert sie zwei Theorien, die Job Demand Resource theory und die Broaden-and-Build theory, und liefert damit weitere Belege. Darüber hinaus liefert die Studie praktische Implikationen für Unternehmensleiter und HR-Praktiker. Insgesamt erörtert meine Studie das Potenzial von visionärem Führungsverhalten zur Verbesserung der Mitarbeiterergebnisse. Die Studie steht im Einklang mit früheren Forschungsarbeiten und beantwortet mehrere Forderungen nach weiterer Forschung zu visionärer Führung, Arbeitszufriedenheit und Vermittlungsmechanismen mit Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft. KW - visionary leadership KW - meaningfulness at work KW - commitment to the leader KW - job satisfaction KW - visionäre Führung KW - Engagement für die Führungskraft KW - Arbeitszufriedenheit KW - Sinnhaftigkeit der Arbeit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572691 ER - TY - THES A1 - Brinkmann, Pia T1 - Laserinduzierte Breakdownspektroskopie zur qualitativen und quantitativen Bestimmung von Elementgehalten in geologischen Proben mittels multivariater Analysemethoden am Beispiel von Kupfer und ausgewählten Seltenen Erden N2 - Ein schonender Umgang mit den Ressourcen und der Umwelt ist wesentlicher Bestandteil des modernen Bergbaus sowie der zukünftigen Versorgung unserer Gesellschaft mit essentiellen Rohstoffen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung analytischer Strategien, die durch eine exakte und schnelle Vor-Ort-Analyse den technisch-praktischen Anforderungen des Bergbauprozesses gerecht werden und somit zu einer gezielten und nachhaltigen Nutzung von Rohstofflagerstätten beitragen. Die Analysen basieren auf den spektroskopischen Daten, die mittels der laserinduzierten Breakdownspektroskopie (LIBS) erhalten und mittels multivariater Datenanalyse ausgewertet werden. Die LIB-Spektroskopie ist eine vielversprechende Technik für diese Aufgabe. Ihre Attraktivität machen insbesondere die Möglichkeiten aus, Feldproben vor Ort ohne Probennahme oder ‑vorbereitung messen zu können, aber auch die Detektierbarkeit sämtlicher Elemente des Periodensystems und die Unabhängigkeit vom Aggregatzustand. In Kombination mit multivariater Datenanalyse kann eine schnelle Datenverarbeitung erfolgen, die Aussagen zur qualitativen Elementzusammensetzung der untersuchten Proben erlaubt. Mit dem Ziel die Verteilung der Elementgehalte in einer Lagerstätte zu ermitteln, werden in dieser Arbeit Kalibrierungs- und Quantifizierungsstrategien evaluiert. Für die Charakterisierung von Matrixeffekten und zur Klassifizierung von Mineralen werden explorative Datenanalysemethoden angewendet. Die spektroskopischen Untersuchungen erfolgen an Böden und Gesteinen sowie an Mineralen, die Kupfer oder Seltene Erdelemente beinhalten und aus verschiedenen Lagerstätten bzw. von unterschiedlichen Agrarflächen stammen. Für die Entwicklung einer Kalibrierungsstrategie wurden sowohl synthetische als auch Feldproben von zwei verschiedenen Agrarflächen mittels LIBS analysiert. Anhand der Beispielanalyten Calcium, Eisen und Magnesium erfolgte die auf uni- und multivariaten Methoden beruhende Evaluierung verschiedener Kalibrierungsmethoden. Grundlagen der Quantifizierungsstrategien sind die multivariaten Analysemethoden der partiellen Regression der kleinsten Quadrate (PLSR, von engl.: partial least squares regression) und der Intervall PLSR (iPLSR, von engl.: interval PLSR), die das gesamte detektierte Spektrum oder Teilspektren in der Analyse berücksichtigen. Der Untersuchung liegen synthetische sowie Feldproben von Kupfermineralen zugrunde als auch solche die Seltene Erdelemente beinhalten. Die Proben stammen aus verschiedenen Lagerstätten und weisen unterschiedliche Begleitmatrices auf. Mittels der explorativen Datenanalyse erfolgte die Charakterisierung dieser Begleitmatrices. Die dafür angewendete Hauptkomponentenanalyse gruppiert Daten anhand von Unterschieden und Regelmäßigkeiten. Dies erlaubt Aussagen über Gemeinsamkeiten und Unterschiede der untersuchten Proben im Bezug auf ihre Herkunft, chemische Zusammensetzung oder lokal bedingte Ausprägungen. Abschließend erfolgte die Klassifizierung kupferhaltiger Minerale auf Basis der nicht-negativen Tensorfaktorisierung. Diese Methode wurde mit dem Ziel verwendet, unbekannte Proben aufgrund ihrer Eigenschaften in Klassen einzuteilen. Die Verknüpfung von LIBS und multivariater Datenanalyse bietet die Möglichkeit durch eine Analyse vor Ort auf eine Probennahme und die entsprechende Laboranalytik weitestgehend zu verzichten und kann somit zum Umweltschutz sowie einer Schonung der natürlichen Ressourcen bei der Prospektion und Exploration von neuen Erzgängen und Lagerstätten beitragen. Die Verteilung von Elementgehalten der untersuchten Gebiete ermöglicht zudem einen gezielten Abbau und damit eine effiziente Nutzung der mineralischen Rohstoffe. N2 - The sustainable use of resources and the environment is an important part of modern mining and the supply of our society with essential raw materials in the future. The present work focuses on the development of analytical strategies that address the technical-practical requirements of the mining process through accurate and rapid on-site analysis, thus contributing to the targeted and sustainable use of raw material deposits. The analyses are based on spectroscopic data obtained by laser-induced breakdown spectroscopy (LIBS) and evaluated by multivariate data analysis. LIB spectroscopy is a promising technique for this task. Its advantages are in particular the possibility to measure field samples on site without sample collection or preparation, but also the detectability of all elements of the periodic table and the independence of the state of matter. In combination with multivariate data analysis, rapid data processing can be performed, allowing statements to be made on the qualitative elemental composition of the samples investigated. With the goal of determining the distribution of elemental contents in a deposit, calibration and quantification strategies are evaluated in this work. Exploratory data analysis methods are used to characterize matrix effects and to classify minerals. Spectroscopic studies are performed on soils and rocks as well as on minerals containing copper or rare earth elements originating from different deposits or from different agricultural sites. To develop a calibration strategy, both synthetic and field samples from two different agricultural sites were analyzed using LIBS. Using calcium, iron and magnesium as example analytes, the evaluation of different calibration methods based on univariate and multivariate methods was performed. Basics of the quantification strategies are the multivariate analysis methods of partial least squares regression (PLSR) and interval PLSR (iPLSR), which consider the whole detected spectrum or partial spectra in the analysis. The investigation is based on synthetic and field samples of copper minerals as well as those containing rare earth elements. The samples are from different deposits and have varying accompanying matrices. Exploratory data analysis was used to characterize these accompanying matrices. The principal component analysis used for this purpose groups data on the basis of differences and regularities. This allows conclusions to be drawn about similarities and differences between the samples examined in terms of their origin, chemical composition or locally determined characteristics. Finally, the classification of copper-bearing minerals was based on non-negative tensor factorization. This method was used with the aim of classifying unknown samples based on their properties. The combination method of LIBS and multivariate data analysis offers the possibility to avoid sampling and the corresponding laboratory analysis as far as possible by an on-site analysis and can thus contribute to environmental protection as well as to a conservation of natural resources during the prospection and exploration of new ore veins and deposits. The distribution of element contents of the investigated areas also enables a precise mining and thus an efficient utilization of the mineral raw materials. KW - LIBS KW - laserinduzierte Breakdownspektroskopie KW - Seltene Erdelemente KW - Kupfer KW - PCA KW - PLSR KW - NTF KW - copper KW - LIBS KW - NTF KW - PCA KW - PLSR KW - rare earth elements KW - laser induced breakdown spectroscopy Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572128 ER - TY - THES A1 - Drago, Claudia T1 - Microplastics in the environment: Assessing the ingestion and effect of microplastics on freshwater rotifers in an environmental scenario T1 - Mikroplastik in der Umwelt: Bewertung der Aufnahme und Effekte von Mikroplastik auf Süßwasser-Rotatorien N2 - Microplastics in the environments are estimated to increase in the near future due to increasing consumption of plastic product and also due to further fragmentation in small pieces. The fate and effects of MP once released into the freshwater environment are still scarcely studied, compared to the marine environment. In order to understand possible effect and interaction of MPs in freshwater environment, planktonic zooplankton organisms are very useful for their crucial trophic role. In particular freshwater rotifers are one of the most abundant organisms and they are the interface between primary producers and secondary consumers. The aim of my thesis was to investigate the ingestion and the effect of MPs in rotifers from a more natural scenario and to individuate processes such as the aggregation of MPs, the food dilution effect and the increasing concentrations of MPs that could influence the final outcome of MPs in the environment. In fact, in a near natural scenario MPs interaction with bacteria and algae, aggregations together with the size and concentration are considered drivers of ingestion and effect. The aggregation of MPs makes smaller MPs more available for rotifers and larger MPs less ingested. The negative effect caused by the ingestion of MPs was modulated by their size but also by the quantity and the quality of food that cause variable responses. In fact, rotifers in the environment are subjected to food limitation and the presence of MPs could exacerbate this condition and decrease the population and the reproduction input. Finally, in a scenario incorporating an entire zooplanktonic community, MPs were ingested by most individuals taking into account their feeding mode but also the concentration of MPs, which was found to be essential for the availability of MPs. This study highlights the importance to investigate MPs from a more environmental perspective, this in fact could provide an alternative and realistic view of effect of MPs in the ecosystem. N2 - Das allgegenwärtige Vorhandensein in der Umwelt, der rasche Anstieg und die Langlebigkeit haben Plastik zu einem großen Umweltproblem gemacht. Die zunehmende Konzentration von Plastik durch weitere Fragmentierung in Süßgewässern und die daraus resultierenden Konsequenzen auf Ökosystemebenen werden noch immer unterschätzt. Die Auswirkungen von MP auf planktonische Organismen wie den Rotatorien sind noch nicht hinreichend untersucht worden. Ein negativer Effekt könnte Folgen auf höhere trophische Ebenen haben. In dieser Studie wird untersucht, wie natürliche Faktoren die Aufnahme und Wirkung von Mikroplastik (MP) auf Rotatorien verändern können. Natürliche Faktoren, wie zum Beispiel durch Bakterien aggregierte MP, unterschiedliche Algennahrung, sowie verschiedene aquatische Tierarten, wurden genutzt, um Umweltbedingungen im Labor zu imitieren. Die Aufnahmerate von MP, von MP in Verbindung mit Algennahrung und von aggregiertem MP wurde untersucht (Kapitel 2). Durch die Aggregation von MP sind kleinere MP für Rotatorien besser verfügbar und größere MP werden weniger aufgenommen. Die Auswirkungen des MPs wurden in meiner Studie in Abhängigkeit von der Nahrungszufuhr, z. B. von der Algenkonzentration, aber auch von der Art der Algen untersucht. Darüber hinaus wurden Polyamidfragmente und Siliziumdioxidkügelchen verwendet, um mögliche Partikeleffekte oder negative Reaktionen im Zusammenhang mit der Art und Form des Plastiks zu verstehen. Zwei verwandte Brachyonidenarten wurden dabei untersucht. Die Wirkung von MP auf B. calyciflorus und B. fernandoi wurde in Kombination mit verschiedenen Konzentrationen und Arten von Futter getestet. Ziel dieser Studie (Kapitel 3) war es, eine Beziehung zwischen den MP-Konzentrationen und der Qualität der Nahrung herzustellen. Darüber hinaus wurden die beiden Arten miteinander verglichen, um mögliche Unterschiede in der Reaktion auf MP festzustellen. Es wurden subletale Reaktionen, wie die Fortpflanzung, die Populationswachstumsrate und das Überleben untersucht, wobei eine schädliche Auswirkung in Form einer Verringerung der Populationsgröße durch geringere Fortpflanzung festgestellt wurde. In einem komplexeren und naturnahen Szenario, wurde ein Mikrokosmos-Experiment durchgeführt, bei dem vier verschiedene Zooplanktongruppen, bestehend aus Rotatorien, Cladoceren, Copepoden und Ostracoden, drei verschiedenen MP-Größen ausgesetzt wurden (Kapitel 4). Die wichtigsten Einflussfaktoren, wie die MP-Konzentration, die Größe und die Art der Nahrungsaufnahme, wurden berücksichtigt, um festzustellen, welche Gruppe anfälliger für die MP-Aufnahme ist. Die MP-Konzentration und die Art der Futteraufnahme beeinflussten die Aufnahme von MP stärker als die Größe. Bei hoher Konzentration nahmen trotz der Größenpräferenz und der Art der Futteraufnahme mehr Individuen das MP auf. Im Gegensatz dazu konnte die Aufnahme von MP bei niedriger Konzentration vermieden werden. Diese Studie verdeutlicht, dass Umweltfaktoren sowie die MP-Konzentration und die Art der Futteraufnahme eine wichtige Rolle bei der Untersuchung von MP spielen. KW - microplastics KW - rotifer KW - ingestion KW - effect KW - Effekt KW - Aufnahme KW - Mikroplastik KW - Rotatorien Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573356 ER - TY - THES A1 - Sójka, Pia T1 - Writing travel, writing life T1 - Reisen schreiben Leben T1 - Écriture, le voyage ou la vie BT - Ars Vivendi and the travelling narrations of Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier BT - Ars Vivendi und die reisenden Erzählungen von Ella Maillart, Annemarie Schwarzenbach und Nicolas Bouvier BT - Ars Vivendi et les narrations itinérantes d'Ella Maillart, Annemarie Schwarzenbach et Nicolas Bouvier N2 - The book compares the texts of three Swiss authors: Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier. The focus is on their trip from Genève to Kabul that Ella Maillart and Annemarie Schwarzenbach made together in 1939/1940 and Nicolas Bouvier 1953/1954 with the artist Thierry Vernet. The comparison shows the strong connection between the journey and life and between ars vivendi and travel literature. This book also gives an overview of and organises the numerous terms, genres, and categories that already exist to describe various travel texts and proposes the new term travelling narration. The travelling narration looks at the text from a narratological perspective that distinguishes the author, narrator, and protagonist within the narration. In the examination, ten motifs could be found to characterise the travelling narration: Culture, Crossing Borders, Freedom, Time and Space, the Aesthetics of Landscapes, Writing and Reading, the Self and/as the Other, Home, Religion and Spirituality as well as the Journey. The importance of each individual motif does not only apply in the 1930s or 1950s but also transmits important findings for living together today and in the future. N2 - Das Buch vergleicht die Texte von drei Schweizer Autoren: Ella Maillart, Annemarie Schwarzenbach und Nicolas Bouvier. Im Mittelpunkt steht die Reise von Genève nach Kabul, die Ella Maillart gemeinsam mit Annemarie Schwarzenbach 1939/1940 und Nicolas Bouvier 1953/1954 mit dem Künstler Thierry Vernet unternahmen. Der Vergleich zeigt die enge Verbindung zwischen der Reise und dem Leben sowie zwischen ars vivendi und Reiseliteratur. Das Buch gibt einen Überblick über die zahlreichen Begriffe, Gattungen und Kategorien, die bereits zur Beschreibung verschiedener Reisetexte existieren, und schlägt den neuen Begriff der reisenden Erzählung „travelling narration“ vor. Die reisende Erzählung betrachtet den Text aus einer narratologischen Perspektive, die den Autor, Erzähler und Protagonisten innerhalb der Erzählung unterscheidet. In der Untersuchung konnten zehn Motive gefunden werden, die die reisende Erzählung charakterisieren: Kultur, Grenzüberschreitung, Freiheit, Zeit und Raum, Ästhetik der Landschaft, Schreiben und Lesen, das Selbst und / oder der Andere, Heimat, Religion und Spiritualität sowie die Reise. Die Bedeutung jedes einzelnen Motivs gilt nicht nur für die 1930er oder 1950er Jahre, sondern vermittelt auch wichtige Erkenntnisse für das Zusammenleben heute und in der Zukunft. N2 - Le livre compare les textes de trois auteurs suisses : Ella Maillart, Annemarie Schwarzenbach et Nicolas Bouvier. L'accent est mis sur le voyage de Genève à Kaboul qu'Ella Maillart et Annemarie Schwarzenbach ont effectué ensemble en 1939/1940 et Nicolas Bouvier 1953/1954 avec l'artiste Thierry Vernet. La comparaison montre le lien fort entre le voyage et la vie et entre l'ars vivendi et la littérature de voyage. Ce livre donne également un aperçu et organise les nombreux termes, genres et catégories qui existent déjà pour décrire les différents textes de voyage et propose le nouveau terme narration itinérante „travelling literature“. La narration itinérante examine le texte dans une perspective narratologique qui distingue l'auteur, le narrateur et le protagoniste au sein de la narration. Au cours de l'examen, dix motifs ont été trouvés pour caractériser le récit de voyage : La culture, la traversée des frontières, la liberté, le temps et l'espace, l'esthétique des paysages, l'écriture et la lecture, le soi et l'autre, la maison, la religion et la spiritualité ainsi que le voyage. L'importance de chaque motif individuel ne s'applique pas seulement aux années 1930 ou 1950, mais transmet également des conclusions importantes pour le vivre ensemble aujourd'hui et à l'avenir. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 5 KW - travel literature KW - récit de voyage KW - Reiseliteratur KW - Ella Maillart KW - Ella Maillart KW - Ella Maillart KW - Nicolas Bouvier KW - Nicolas Bouvier KW - Nicolas Bouvier KW - Annemarie Schwarzenbach KW - Annemarie Schwarzenbach KW - Annemarie Schwarzenbach KW - art of life KW - Lebenskunst KW - savoir vivre Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558799 SN - 978-3-86956-537-8 SN - 2629-2548 SN - 2629-253X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bäckemo, Johan Dag Valentin T1 - Digital tools and bioinspiration for the implementation in science and medicine T1 - Digitale Werkzeuge und Bioinspiration für die Umsetzung in der Wissenschaft und der Medizin N2 - Diese Doktorarbeit untersucht anhand dreier Beispiele, wie digitale Werkzeuge wie Programmierung, Modellierung, 3D-Konstruktions-Werkzeuge und additive Fertigung in Verbindung mit einer auf Biomimetik basierenden Design\-strategie zu neuen Analysemethoden und Produkten führen können, die in Wissenschaft und Medizin Anwendung finden. Das Verfahren der Funkenerosion (EDM) wird häufig angewandt, um harte Metalle zu verformen oder zu formen, die mit normalen Maschinen nur schwer zu bearbeiten sind. In dieser Arbeit wird eine neuartige Krümmungsanalysemethode als Alternative zur Rauheitsanalyse vorgestellt. Um besser zu verstehen, wie sich die Oberfläche während der Bearbeitungszeit des EDM-Prozesses verändert, wurde außerdem ein digitales Schlagmodell erstellt, das auf einem ursprünglich flachen Substrat Krater auf Erhebungen erzeugte. Es wurde festgestellt, dass ein Substrat bei etwa 10.000 Stößen ein Gleichgewicht erreicht. Die vorgeschlagene Krümmungsanalysemethode hat das Potenzial, bei der Entwicklung neuer Zellkultursubstrate für die Stammzellenforschung eingesetzt zu werden. Zwei Arten, die in dieser Arbeit aufgrund ihrer interessanten Mechanismen analysiert wurden, sind die Venusfliegenfalle und der Bandwurm. Die Venusfliegenfalle kann ihr Maul mit einer erstaunlichen Geschwindigkeit schließen. Der Schließmechanismus kann für die Wissenschaft interessant sein und ist ein Beispiel für ein so genanntes mechanisch bi-stabiles System - es gibt zwei stabile Zustände. Der Bandwurm ist bei Säugetieren meist im unteren Darm zu finden und heftet sich mit seinen Saugnäpfen an die Darmwände. Wenn der Bandwurm eine geeignete Stelle gefunden hat, stößt er seine Haken aus und heftet sich dauerhaft an die Wand. Diese Funktion könnte in der minimalinvasiven Medizin genutzt werden, um eine bessere Kontrolle der Implantate während des Implantationsprozesses zu ermöglichen. Für beide Projekte wurde ein mathematisches Modell, das so genannte Chained Beam Constraint Model (CBCM), verwendet, um das nichtlineare Biegeverhalten zu modellieren und somit vorherzusagen, welche Strukturen ein mechanisch bi-stabiles Verhalten aufweisen könnten. Daraufhin konnten zwei Prototypen mit einem 3D-Drucker gedruckt und durch Experimente veranschaulicht werden, dass sie beide ein bi-stabiles Verhalten aufweisen. Diese Arbeit verdeutlicht das hohe Anwendungspotenzial für neue Analysenmethoden in der Wissenschaft und für neue Medizinprodukte in der minimalinvasiven Medizin. N2 - Biomimicry is the art of mimicking nature to overcome a particular technical or scientific challenge. The approach studies how evolution has found solutions to the most complex problems in nature. This makes it a powerful method for science. In combination with the rapid development of manufacturing and information technologies into the digital age, structures and material that were before thought to be unrealizable can now be created with simple sketch and the touch of a button. This doctoral thesis had as its primary goal to investigate how digital tools, such as programming, modelling, 3D-Design tools and 3D-Printing, with the help from biomimicry, could lead to new analysis methods in science and new medical devices in medicine. The Electrical Discharge Machining (EDM) process is applied commonly to deform or mold hard metals that are difficult to work using normal machinery. A workpiece submerged in an electrolyte is deformed while being in close vicinity to an electrode. When high voltage is put between the workpiece and the electrode it will cause sparks that create cavitations on the substrate which in turn removes material and is flushed away by the electrolyte. Usually, such surfaces are analysed based on roughness, in this work another method using a novel curvature analysis method is presented as an alternative. In addition, to better understand how the surface changes during process time of the EDM process, a digital impact model was created which created craters on ridges on an originally flat substrate. These substrates were then analysed using the curvature analysis method at different processing times of the modelling. It was found that a substrate reaches an equilibrium at around 10000 impacts. The proposed curvature analysis method has potential to be used in the design of new cell culture substrates for stem cell. The Venus flytrap can shut its jaws at an amazing speed. The shutting mechanism may be interesting to use in science and is an example of a so-called mechanical bi-stable system – there are two stable states. In this work two truncated pyramid structures were modelled using a non-linear mechanical model called the Chained Beam Constraint Model (CBCM). The structure with a slope angle of 30 degrees is not bi-stable and the structure with a slope angle of 45 degrees is bi-stable. Developing this idea further by using PEVA, which has a shape-memory effect, the structure which is not bi-stable could be programmed to be bi-stable and then turned off again. This could be used as an energy storage system. Another species which has interesting mechanism is the tapeworm. Some species of this animal has a crown of hooks and suckers located on its side. The parasite commonly is found in mammals in the lower intestine and attaches to the walls by using its suckers. When the tapeworm has found a suitable spot, it ejects its hooks and permanently attaches to the wall. This function could be used in minimally invasive medicine to have better control of implants during the implantation process. By using the CBCM model and a 3D-printer capable of tuning how hard or soft a printed part is, a design strategy was developed to investigate how one could create a device that mimics the tapeworm. In the end a prototype was created which was able attach to a pork loin at an under pressure of 20 kPa and to ejects its hooks at an under pressure of 50 kPa or above. These three projects is an exhibit of how digital tools and biomimicry can be used together to come up with applicable solutions in science and in medicine. KW - bioinspiration KW - non-linear mechanics KW - modelling KW - shape-memory KW - additive manufacturing KW - Bioinspiration KW - nichtlineare Mechanik KW - Modellierung KW - Formgedächtnis KW - additive Fertigung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571458 ER - TY - THES A1 - Tegtmeier, Laura T1 - Functional analysis of ENTH domain proteins T1 - Funktionelle Analyse der ENTH Proteinen N2 - In plant cells, subcellular transport of cargo proteins relies to a large extent on post-Golgi transport pathways, many of which are mediated by clathrin-coated vesicles (CCVs). Vesicle formation is facilitated by different factors like accessory proteins and adaptor protein complexes (APs), the latter serving as a bridge between cargo proteins and the coat protein clathrin. One type of accessory proteins is defined by a conserved EPSIN N-TERMINAL HOMOLOGY (ENTH) domain and interacts with APs and clathrin via motifs in the C-terminal part. In Arabidopsis thaliana, there are three closely related ENTH domain proteins (EPSIN1, 2 and 3) and one highly conserved but phylogenetically distant outlier, termed MODIFIED TRANSPORT TO THE VACUOLE1 (MTV1). In case of the trans-Golgi network (TGN) located MTV1, clathrin association and a role in vacuolar transport have been shown previously (Sauer et al. 2013). In contrast, for EPSIN1 and EPSIN2 limited functional and localization data were available; and EPSIN3 remained completely uncharacterized prior to this study (Song et al. 2006; Lee et al. 2007). The molecular details of ENTH domain proteins in plants are still unknown. In order to systematically characterize all four ENTH proteins in planta, we first investigated expression and subcellular localization by analysis of stable reporter lines under their endogenous promotors. Although all four genes are ubiquitously expressed, their subcellular distribution differs markedly. EPSIN1 and MTV1 are located at the TGN, whereas EPSIN2 and EPSIN3 are associated with the plasma membrane (PM) and the cell plate. To examine potential functional redundancy, we isolated knockout T-DNA mutant lines and created all higher order mutant combinations. The clearest evidence for functional redundancy was observed in the epsin1 mtv1 double mutant, which is a dwarf displaying overall growth reduction. These findings are in line with the TGN localization of both MTV1 and EPS1. In contrast, loss of EPSIN2 and EPSIN3 does not result in a growth phenotype compared to wild type, however, a triple knockout of EPSIN1, EPSIN2 and EPSIN3 shows partially sterile plants. We focused mainly on the epsin1 mtv1 double mutant and addressed the functional role of these two genes in clathrin-mediated vesicle transport by comprehensive molecular, biochemical, and genetic analyses. Our results demonstrate that EPSIN1 and MTV1 promote vacuolar transport and secretion of a subset of cargo. However, they do not seem to be involved in endocytosis and recycling. Importantly, employing high-resolution imaging, genetic and biochemical experiments probing the relationship of the AP complexes, we found that EPSIN1/AP1 and MTV1/AP4 define two spatially and molecularly distinct subdomains of the TGN. The AP4 complex is essential for MTV1 recruitment to the TGN, whereas EPSIN1 is independent of AP4 but presumably acts in an AP1-dependent framework. Our findings suggest that this ENTH/AP pairing preference is conserved between animals and plants. N2 - In pflanzlichen Zellen hängt der Transport von Proteinen von vielen dem Golgi-Apparat nachfolgenden Transportwegen ab, welche zum Großteil durch Clathrin-bedeckte Vesikel (CCV) vermittelt werden. Die Vesikelbildung wird durch verschiedene Helferproteine und Adapterproteinkomplexe (AP) ermöglicht. Letztere dienen als Brücke zwischen den Transportproteinen und dem Hüllprotein Clathrin. Eine Gruppe von Hilfsproteinen interagiert mit APs und Clathrin mittels des C-Terminus und ist durch eine konservierte EPSIN N-TERMINAL HOMOLOGY (ENTH)-Domäne definiert. In Arabidopsis thaliana wurden drei eng verwandte ENTH-Domänenproteine (EPSIN1, 2 und 3) sowie ein stark konservierter phylogenetischer Außenseiter MODIFIED TRANSPORT TO THE VACUOLE1 (MTV1), gefunden. Im Falle des im trans-Golgi Netzwerk (TGN) lokalisierten MTV1 wurde die Assoziation mit Clathrin und eine Rolle im vakuolären Transport nachgewiesen (Sauer et al. 2013). Im Vergleich dazu gab es für EPSIN1 und EPSIN2 nur limitierte Daten und EPSIN3 war bisher unerforscht (Song et al. 2006; Lee et al. 2007). Die Funktionen der ENTH-Domänenproteine in Pflanzen blieben unklar. Um die vier ENTH-Proteine in planta zu charakterisieren, untersuchten wir zunächst deren Expression sowie subzelluläre Lokalisation anhand stabiler Reporterlinien, welche Fusionsproteine vom jeweils endogenen Promotor exprimierten. Obwohl unsere Ergebnisse zeigten, dass alle ENTH-Domänenproteine ubiquitär exprimiert wurden, war die subzelluläre Verteilung deutlich unterschiedlich. EPSIN1 und MTV1 lokalisierten am TGN, während EPSIN2 und EPSIN3 in der Nähe der Plasmamembran (PM) und der Zellplatte zu finden waren. Um eine mögliche funktionelle Redundanz zu untersuchen, nutzten wir komplette Funktionsverlust-Mutanten und erzeugten daraus Mutanten höherer Ordnung. Deutliche Hinweise auf funktionelle Redundanz ergab die epsin1 mtv1-Doppelmutante, die eine starke Wachstumsreduktion aufwies, was zur Lokalisierung beider Proteine am TGN passte. Im Gegensatz dazu verursachte der Verlust von EPSIN2 und EPSIN3 keinen vom Wildtyp abweichenden Phänotyp, jedoch zeigte die epsin1 epsin2 epsin3-Dreifachmutante partielle Sterilität. Wir fokussierten uns daher hauptsächlich auf epsin1 mtv1 und untersuchten die funktionelle Rolle im Clathrin-vermittelten Vesikeltransport durch vergleichende molekulare, biochemische und genetische Analysen. EPSIN1 und MTV1 unterstützten den vakuolären und sekretorischen Transport, waren aber nicht an Endozytose oder Recycling beteiligt. Durch hochauflösende Mikroskopie, genetische und biochemische Analysen der Beziehung zwischen verschiedenen AP-Komplexen und EPSIN1/MTV1 konnten wir zeigen, dass EPSIN1/AP1 und MTV1/AP4 zwei räumlich und molekular distinkte Subdomänen des TGNs definierten. AP4 war essenziell für die MTV1- jedoch nicht die EPSIN1-Rekrutierung zum TGN und EPSIN1 assoziierte bevorzugt mit AP1. Ähnliche Beobachtungen an EPSIN1- und MTV1-Homologen in tierischen Zellen legen eine evolutionär konservierte Paarung von AP-Komplexen und ENTH-Proteinen nahe. KW - vesicle transport KW - trans-Golgi network KW - trans-Golgi Netzwerk KW - clathrin-coated vesicles KW - Clathrin-bedeckte Vesikel KW - ENTH domain proteins KW - ENTH-Domänenproteine Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570049 ER - TY - THES A1 - Oberkofler, Vicky T1 - Molecular basis of HS memory in Arabidopsis thaliana T1 - Die molekulare Basis des Hitzestress-Gedächtnisses in Arabidopsis thaliana N2 - Plants can be primed to survive the exposure to a severe heat stress (HS) by prior exposure to a mild HS. The information about the priming stimulus is maintained by the plant for several days. This maintenance of acquired thermotolerance, or HS memory, is genetically separable from the acquisition of thermotolerance itself and several specific regulatory factors have been identified in recent years. On the molecular level, HS memory correlates with two types of transcriptional memory, type I and type II, that characterize a partially overlapping subset of HS-inducible genes. Type I transcriptional memory or sustained induction refers to the sustained transcriptional induction above non-stressed expression levels of a gene for a prolonged time period after the end of the stress exposure. Type II transcriptional memory refers to an altered transcriptional response of a gene after repeated exposure to a stress of similar duration and intensity. In particular, enhanced re-induction refers to a transcriptional pattern in which a gene is induced to a significantly higher degree after the second stress exposure than after the first. This thesis describes the functional characterization of a novel positive transcriptional regulator of type I transcriptional memory, the heat shock transcription factor HSFA3, and compares it to HSFA2, a known positive regulator of type I and type II transcriptional memory. It investigates type I transcriptional memory and its dependence on HSFA2 and HSFA3 for the first time on a genome-wide level, and gives insight on the formation of heteromeric HSF complexes in response to HS. This thesis confirms the tight correlation between transcriptional memory and H3K4 hyper-methylation, reported here in a case study that aimed to reduce H3K4 hyper-methylation of the type II transcriptional memory gene APX2 by CRISPR/dCas9-mediated epigenome editing. Finally, this thesis gives insight into the requirements for a heat shock transcription factor to function as a positive regulator of transcriptional memory, both in terms of its expression profile and protein abundance after HS and the contribution of individual functional domains. In summary, this thesis contributes to a more detailed understanding of the molecular processes underlying transcriptional memory and therefore HS memory, in Arabidopsis thaliana. N2 - Pflanzen können darauf vorbereitet werden, einen schweren Hitzestress (HS) zu überleben, indem sie zuvor einem leichten HS ausgesetzt werden. Die Information über den Priming-Stimulus wird von der Pflanze mehrere Tage lang aufrechterhalten. Diese Aufrechterhaltung der erworbenen Thermotoleranz, das so genannte HS-Gedächtnis, ist genetisch vom Erwerb der Thermotoleranz selbst trennbar, und in den letzten Jahren wurden mehrere spezifische Regulierungsfaktoren identifiziert. Auf molekularer Ebene korreliert das HS-Gedächtnis mit zwei Arten von Transkriptionsgedächtnis, Typ I und Typ II, die eine sich teilweise überschneidende Untergruppe von HS-induzierbaren Genen charakterisieren. Das Transkriptionsgedächtnis vom Typ I oder die anhaltende Induktion bezieht sich auf die anhaltende Transkriptionsinduktion eines Gens über das Niveau der Expression im ungestressten Zustand hinaus über einen längeren Zeitraum nach dem Ende der Stressbelastung. Das Transkriptionsgedächtnis des Typs II bezieht sich auf eine veränderte Transkriptionsreaktion eines Gens nach wiederholter Exposition gegenüber einem Hitzestress von ähnlicher Dauer und Intensität. Insbesondere bezieht sich dabei die verstärkte Re-Induktion auf ein Transkriptionsmuster, bei dem ein Gen nach der zweiten Stressexposition in deutlich höherem Maße induziert wird als nach der ersten. Diese Arbeit beschreibt die funktionelle Charakterisierung eines neuartigen positiven Transkriptionsregulators des Typ-I-Transkriptionsgedächtnisses, des Hitzeschock-Transkriptionsfaktors HSFA3, und vergleicht ihn mit HSFA2, einem bekannten positiven Regulator des Typ-I- und Typ-II-Transkriptionsgedächtnisses. Die Arbeit untersucht das Typ-I-Transkriptionsgedächtnis und seine Abhängigkeit von HSFA2 und HSFA3 zum ersten Mal auf genomweiter Ebene und gibt Einblick in die Bildung heteromerer HSF-Komplexe als Reaktion auf HS. Diese Arbeit bestätigt den engen Zusammenhang zwischen transkriptionellem Gedächtnis und H3K4-Hypermethylierung, über den hier in einer Fallstudie berichtet wird, die darauf abzielt, die H3K4-Hypermethylierung des Typ-II-Transkriptionsgedächtnisgens APX2 durch CRISPR/dCas9-vermitteltes Epigenom-Editing zu reduzieren. Schließlich gibt diese Arbeit einen Einblick in die Anforderungen, die ein Hitzeschock-Transkriptionsfaktor erfüllen muss, damit er als positiver Regulator des Transkriptionsgedächtnisses fungieren kann, und zwar sowohl in Bezug auf sein Expressionsprofil und seine Proteinabundanz nach HS als auch in Bezug auf den Beitrag seiner einzelnen funktionellen Domänen. Zusammenfassend trägt diese Arbeit zu einem genaueren Verständnis der molekularen Prozesse bei, die dem Transkriptionsgedächtnis und damit dem HS-Gedächtnis in Arabidopsis thaliana zugrunde liegen. KW - Arabidopsis thaliana KW - abiotic stress KW - heat stress memory KW - transcription factors KW - HSF KW - epigenome editing KW - histone methylation KW - H3K4me KW - Arabidopsis thaliana KW - H3K4me KW - Hitzeschock-Transkriptionsfaktor KW - abiotischer Stress KW - Epigenom Editierung KW - Hitzestress-Gedächtnis KW - Histon Methylierung KW - Transkriptionsfaktoren Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569544 ER - TY - THES A1 - Draisbach, Uwe T1 - Efficient duplicate detection and the impact of transitivity T1 - Effiziente Dublettenerkennung und der Einfluss von Transitivität N2 - Duplicate detection describes the process of finding multiple representations of the same real-world entity in the absence of a unique identifier, and has many application areas, such as customer relationship management, genealogy and social sciences, or online shopping. Due to the increasing amount of data in recent years, the problem has become even more challenging on the one hand, but has led to a renaissance in duplicate detection research on the other hand. This thesis examines the effects and opportunities of transitive relationships on the duplicate detection process. Transitivity implies that if record pairs ⟨ri,rj⟩ and ⟨rj,rk⟩ are classified as duplicates, then also record pair ⟨ri,rk⟩ has to be a duplicate. However, this reasoning might contradict with the pairwise classification, which is usually based on the similarity of objects. An essential property of similarity, in contrast to equivalence, is that similarity is not necessarily transitive. First, we experimentally evaluate the effect of an increasing data volume on the threshold selection to classify whether a record pair is a duplicate or non-duplicate. Our experiments show that independently of the pair selection algorithm and the used similarity measure, selecting a suitable threshold becomes more difficult with an increasing number of records due to an increased probability of adding a false duplicate to an existing cluster. Thus, the best threshold changes with the dataset size, and a good threshold for a small (possibly sampled) dataset is not necessarily a good threshold for a larger (possibly complete) dataset. As data grows over time, earlier selected thresholds are no longer a suitable choice, and the problem becomes worse for datasets with larger clusters. Second, we present with the Duplicate Count Strategy (DCS) and its enhancement DCS++ two alternatives to the standard Sorted Neighborhood Method (SNM) for the selection of candidate record pairs. DCS adapts SNMs window size based on the number of detected duplicates and DCS++ uses transitive dependencies to save complex comparisons for finding duplicates in larger clusters. We prove that with a proper (domain- and data-independent!) threshold, DCS++ is more efficient than SNM without loss of effectiveness. Third, we tackle the problem of contradicting pairwise classifications. Usually, the transitive closure is used for pairwise classifications to obtain a transitively closed result set. However, the transitive closure disregards negative classifications. We present three new and several existing clustering algorithms and experimentally evaluate them on various datasets and under various algorithm configurations. The results show that the commonly used transitive closure is inferior to most other clustering algorithms, especially for the precision of results. In scenarios with larger clusters, our proposed EMCC algorithm is, together with Markov Clustering, the best performing clustering approach for duplicate detection, although its runtime is longer than Markov Clustering due to the subexponential time complexity. EMCC especially outperforms Markov Clustering regarding the precision of the results and additionally has the advantage that it can also be used in scenarios where edge weights are not available. N2 - Dubletten sind mehrere Repräsentationen derselben Entität in einem Datenbestand. Diese zu identifizieren ist das Ziel der Dublettenerkennung, wobei in der Regel Paare von Datensätzen anhand von Ähnlichkeitsmaßen miteinander verglichen und unter Verwendung eines Schwellwerts als Dublette oder Nicht-Dublette klassifiziert werden. Für Dublettenerkennung existieren verschiedene Anwendungsbereiche, beispielsweise im Kundenbeziehungsmanagement, beim Onlineshopping, der Genealogie und in den Sozialwissenschaften. Der in den letzten Jahren zu beobachtende Anstieg des gespeicherten Datenvolumens erschwert die Dublettenerkennung, da die Anzahl der benötigten Vergleiche quadratisch mit der Anzahl der Datensätze wächst. Durch Verwendung eines geeigneten Paarauswahl-Algorithmus kann die Anzahl der zu vergleichenden Paare jedoch reduziert und somit die Effizienz gesteigert werden. Die Dissertation untersucht die Auswirkungen und Möglichkeiten transitiver Beziehungen auf den Dublettenerkennungsprozess. Durch Transitivität lässt sich beispielsweise ableiten, dass aufgrund einer Klassifikation der Datensatzpaare ⟨ri,rj⟩ und ⟨rj,rk⟩ als Dublette auch die Datensätze ⟨ri,rk⟩ eine Dublette sind. Dies kann jedoch im Widerspruch zu einer paarweisen Klassifizierung stehen, denn im Unterschied zur Äquivalenz ist die Ähnlichkeit von Objekten nicht notwendigerweise transitiv. Im ersten Teil der Dissertation wird die Auswirkung einer steigenden Datenmenge auf die Wahl des Schwellwerts zur Klassifikation von Datensatzpaaren als Dublette oder Nicht-Dublette untersucht. Die Experimente zeigen, dass unabhängig von dem gewählten Paarauswahl-Algorithmus und des gewählten Ähnlichkeitsmaßes die Wahl eines geeigneten Schwellwerts mit steigender Datensatzanzahl schwieriger wird, da die Gefahr fehlerhafter Cluster-Zuordnungen steigt. Der optimale Schwellwert eines Datensatzes variiert mit dessen Größe. So ist ein guter Schwellwert für einen kleinen Datensatz (oder eine Stichprobe) nicht notwendigerweise ein guter Schwellwert für einen größeren (ggf. vollständigen) Datensatz. Steigt die Datensatzgröße im Lauf der Zeit an, so muss ein einmal gewählter Schwellwert ggf. nachjustiert werden. Aufgrund der Transitivität ist dies insbesondere bei Datensätzen mit größeren Clustern relevant. Der zweite Teil der Dissertation beschäftigt sich mit Algorithmen zur Auswahl geeigneter Datensatz-Paare für die Klassifikation. Basierend auf der Sorted Neighborhood Method (SNM) werden mit der Duplicate Count Strategy (DCS) und ihrer Erweiterung DCS++ zwei neue Algorithmen vorgestellt. DCS adaptiert die Fenstergröße in Abhängigkeit der Anzahl gefundener Dubletten und DCS++ verwendet zudem die transitive Abhängigkeit, um kostspielige Vergleiche einzusparen und trotzdem größere Cluster von Dubletten zu identifizieren. Weiterhin wird bewiesen, dass mit einem geeigneten Schwellwert DCS++ ohne Einbußen bei der Effektivität effizienter als die Sorted Neighborhood Method ist. Der dritte und letzte Teil der Arbeit beschäftigt sich mit dem Problem widersprüchlicher paarweiser Klassifikationen. In vielen Anwendungsfällen wird die Transitive Hülle zur Erzeugung konsistenter Cluster verwendet, wobei hierbei paarweise Klassifikationen als Nicht-Dublette missachtet werden. Es werden drei neue und mehrere existierende Cluster-Algorithmen vorgestellt und experimentell mit verschiedenen Datensätzen und Konfigurationen evaluiert. Die Ergebnisse zeigen, dass die Transitive Hülle den meisten anderen Clustering-Algorithmen insbesondere bei der Precision, definiert als Anteil echter Dubletten an der Gesamtzahl klassifizierter Dubletten, unterlegen ist. In Anwendungsfällen mit größeren Clustern ist der vorgeschlagene EMCC-Algorithmus trotz seiner subexponentiellen Laufzeit zusammen mit dem Markov-Clustering der beste Clustering-Ansatz für die Dublettenerkennung. EMCC übertrifft Markov Clustering insbesondere hinsichtlich der Precision der Ergebnisse und hat zusätzlich den Vorteil, dass dieser auch ohne Ähnlichkeitswerte eingesetzt werden kann. KW - Datenqualität KW - Datenintegration KW - Dubletten KW - Duplikaterkennung KW - data quality KW - data integration KW - duplicate detection KW - deduplication KW - entity resolution Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572140 ER - TY - THES A1 - Dech, Silas T1 - Isometric muscle function T1 - Die Isometrische Muskelfunktion BT - with specific respect to oxygen supply and adaptive force BT - unter besonderer Betrachtung der Sauerstoffversorgung und Adaptiven Kraft N2 - The cumulative dissertation consists of four original articles. These considered isometric muscle ac-tions in healthy humans from a basic physiological view (oxygen and blood supply) as well as possibilities of their distinction. It includes a novel approach to measure a specific form of isometric hold-ing function which has not been considered in motor science so far. This function is characterized by an adaptation to varying external forces with particular importance in daily activities and sports. The first part of the research program analyzed how the biceps brachii muscle is supplied with oxygen and blood by adapting to a moderate constant load until task failure (publication 1). In this regard, regulative mechanisms were investigated in relation to the issue of presumably compressed capillaries due to high intramuscular pressures (publication 2). Furthermore, it was examined if oxygenation and time to task failure (TTF) differs compared to an-other isometric muscle function (publication 3). This function is mainly of diagnostic interest by measuring the maximal voluntary isometric contraction (MVIC) as a gold standard. For that, a person pulls on or pushes against an insurmountable resistance. However, the underlying pulling or pushing form of isometric muscle action (PIMA) differs compared to the holding one (HIMA). HIMAs have mainly been examined by using constant loads. In order to quantify the adaptability to varying external forces, a new approach was necessary and considered in the second part of the research program. A device was constructed based on a previously developed pneumatic measurement system. The device should have been able to measure the Adaptive Force (AF) of elbow ex-tensor muscles. The AF determines the adaptability to increasing external forces under isometric (AFiso) and eccentric (AFecc) conditions. At first, it was questioned if these parameters can be relia-bly assessed by use of the new device (publication 4). Subsequently, the main research question was investigated: Is the maximal AFiso a specific and independent variable of muscle function in comparison to the MVIC? Furthermore, both research parts contained a sub-question of how results can be influenced. Parameters of local oxygen saturation (SvO2) and capillary blood filling (rHb) were non-invasively recorded by a spectrophotometer during maximal and submaximal HIMAs and PIMAs. These were the main findings: Under load, SvO2 and rHb always adjusted into a steady state after an initial decrease. Nevertheless, their behavior could roughly be categorized into two types. In type I, both parameters behaved nearly parallel to each other. In contrast, their progression over time was partly inverse in type II. The inverse behavior probably depends on the level of deoxygenation since rHb increased reliably at a suggested threshold of about 59% SvO2. This triggered mechanism and the found homeostatic steady states seem to be in conflict with the concept of mechanically compressed capillaries and consequently with a restricted blood flow. Anatomical configuration of blood vessels might provide one hypothetical explanation of how blood flow might be maintained. HIMA and PIMA did not differ regarding oxygenation and allocation to the described types. The TTF tended to be longer during PIMA. As a sub-question, oxygenation and TTF were compared between (HIMA) and intermittent voluntary muscle twitches during a weight holding task. TTF but not oxygenation differed significantly (Twitch > HIMA). A changed neuromuscular control might serve as a speculative explanation of how the results can be explained. This is supported by the finding that the TTF did not correlate significantly with the extent of deoxygenation irrespective of the performed task (HIMA, PIMA or Twitch). Other neuromuscular aspects of muscle function were considered in second part of the re-search program. The new device mentioned above detected different force capacities within four trials at two days each. Among AF measurements, the functional counterpart of a concentric muscle action merging into an isometric one was analyzed in comparison to the MVIC. Based on the results, it can be assumed that a prior concentric muscle action does not influence the MVIC. However, the results were inconsistent and possibly influenced by systematic errors. In con-trast, maximal variables of the AF (AFisomax and AFeccmax) could be measured in a reliable way which is indicated by a high test-retest reliability. Despite substantial correlations between force variables, the AFisomax differed significantly from MVIC and AFmax, which was identical with AFeccmax in almost all cases. Moreover, AFisomax revealed the highest variability between trials. These results indicate that maximal force capacities should be assessed separately. The adaptive holding capacity of a muscle can be lower compared to a commonly determined MVIC. This is of relevance since muscles frequently need to respond adequately to external forces. If their response does not correspond to the external impact, the muscle is forced to lengthen. In this scenario, joints are not completely stabilized and an injury may occur. This outlined issue should be addressed in future research in the field of sport and health sciences. At last, the dissertation presents another possibility to quantify the AFisomax by use of a handheld device applied in combination with a manual muscle test. This assessment delivers a more practical way for clinical purposes. N2 - Die kumulative Dissertation setzt sich im Kern aus vier Originalartikel zusammen. Diese betrachten isometrische Muskelaktionen beim gesunden Menschen aus grundlegender physiologischer Sicht (Sauerstoff- und Blutversorgung) sowie Möglichkeiten ihrer Unterscheidung. Sie beinhaltet einen neuartigen Ansatz zur Messung einer spezifischen Form der isometrischen Haltefunktion, die bisher in der Bewegungswissenschaft nicht berücksichtigt wurde. Diese Funktion ist durch eine Anpassung an variierende äußere Kräfte gekennzeichnet, die bei täglichen Aktivitäten und im Sport von besonderer Bedeutung ist. Im ersten Teil des Forschungsprogramms wurde untersucht, wie der M. biceps brachii mit Sauerstoff und Blut versorgt wird, indem er sich an eine moderate konstante Belastung bis zum Versagen der Aufgabe anpasst (Publikation 1). In diesem Zusammenhang wurden Regulationsmechanismen in Bezug auf die Problematik der hohe intramuskulären Drücke betrachtet, die theoretisch zu einer Komprimierung der Kapillaren führen (Publikation 2). Darüber hinaus wurde untersucht, ob sich die Sauerstoffversorgung und die Zeit bis zum Versagen der Aufgabe (time to task failure, TTF) im Vergleich zu einer anderen isometrischen Muskelfunktion unterscheiden (Publikation 3). Diese Funktion ist hauptsächlich von diagnostischem Interesse, indem die maximale willkürliche isometrische Kontraktion (MVIC) als Goldstandard gemessen wird. Dabei zieht oder drückt eine Person an/gegen einen unüberwindbaren Widerstand. Die zugrundeliegende ziehende oder drückende Form der isometrischen Muskelaktion (pushing or pulling isometric muscle action, PIMA) unterscheidet sich jedoch von der haltenden Form (holding isometric muscle action, HIMA). HIMAs wurden bisher hauptsächlich unter Verwendung konstanter Lasten untersucht. Um die Anpassungsfähigkeit an variierende äußere Kräfte zu quantifizieren, war ein neuer Ansatz erforderlich, der im zweiten Teil des Forschungsprogramms berücksichtigt wurde. Dazu wurde ein Gerät konstruiert, das auf einem zuvor entwickelten pneumatischen Messsystem basiert. Das Gerät sollte in der Lage sein, die Adaptive Force (AF) der Ellbogenstreckmuskulatur zu messen. Die AF bestimmt die Anpassungsfähigkeit an steigende äußere Kräfte unter isometrischen (AFiso) und exzentrischen AFecc) Bedingungen. Zunächst wurde die Frage gestellt, ob diese Parameter mit dem neuen Gerät zuverlässig erfasst werden können (Publikation 4). Anschließend wurde die Hauptforschungsfrage untersucht: Ist die maximale AFiso eine spezifische und unabhängige Variable der Muskelfunktion im Vergleich zur MVIC? Darüber hinaus enthielten beide Forschungsteile eine Unterfrage, wie die Ergebnisse beeinflusst werden können. Die Parameter der lokalen Sauerstoffsättigung (SvO2) und der Kapillarblutfüllung (rHb) wurden während der maximaler und submaximaler HIMAs und PIMAs nicht-invasiv mit einem Spektrophotometer erfasst. Dies waren die wichtigsten Ergebnisse: Unter Belastung pendelten sich SvO2 und rHb nach einem anfänglichen Abfall immer in einen stabilen Zustand ein. Dennoch konnte ihr Verhalten grob in zwei Typen eingeteilt werden. Bei Typ I verhielten sich beide Parameter nahezu parallel zueinander. Im Gegensatz dazu war ihr zeitlicher Verlauf bei Typ II teilweise invers. Das umgekehrte Verhalten hängt wahrscheinlich vom Grad der Desoxygenierung ab, da der rHb-Wert zuverlässig bei einem Schwellenwert von etwa 59 % SvO2 anstieg. Diser Auslösemechanismus und die gefundenen homöostatischen Gleichgewichtszustände scheinen im Widerspruch zu dem Konzept mechanisch komprimierter Kapillaren und folglich zu einem eingeschränkten Blutfluss zu stehen. Die anatomische Lage und Verlauf der Blutgefäße könnte eine hypothetische Erklärung dafür liefern, wie der Blutfluss aufrechterhalten werden könnte. HIMA und PIMA unterschieden sich nicht hinsichtlich der Sauerstoffzufuhr und der Zuordnung zu den beschriebenen Typen. Die TTF war bei PIMA tendenziell länger. Als Unterfrage wurden Oxygenierung und TTF zwischen (HIMA) und intermittierenden freiwilligen Muskelzuckungen während einer Gewichthalteaufgabe verglichen. Die TTF, nicht aber die Oxygenierung, unterschied sich signifikant (Zuckung > HIMA). Eine veränderte neuromuskuläre Kontrolle könnte als spekulative Erklärung für die Ergebnisse dienen. Dies wird durch die Feststellung unterstützt, dass die TTF unabhängig von der durchgeführten Aufgabe (HIMA, PIMA oder Zuckung) nicht signifikant mit dem Ausmaß der Desoxygenierung korrelierte. Andere neuromuskuläre Aspekte der Muskelfunktion wurden im zweiten Teil des Forschungsprogramms berücksichtigt. Mit dem oben erwähnten neuen Gerät wurden innerhalb von vier Versuchen an jeweils zwei Tagen unterschiedliche Kraftkapazitäten ermittelt. Unter den AF-Messungen wurde der funktionelle Gegenpart einer konzentrischen Muskelaktion, die in eine isometrische übergeht, im Vergleich zur MVIC analysiert. Aufgrund der Ergebnisse kann davon ausgegangen werden, dass eine vorherige konzentrische Muskelaktion die MVIC nicht beeinflusst. Allerdings waren die Ergebnisse inkonsistent und möglicherweise durch systematische Fehler beeinflusst. Im Gegensatz dazu konnten die Variablen der AF (AFisomax und AFeccmax) zuverlässig gemessen werden, was sich durch eine hohe Test-Retest-Reliabilität zeigte. Trotz erheblicher Korrelationen zwischen den Kraftvariablen unterschied sich AFisomax signifikant von MVIC und AFmax, welcher in fast allen Fällen mit AFeccmax identisch war. Außerdem wies AFisomax die höchste Variabilität zwischen den Versuchen auf. Diese Ergebnisse deuten darauf hin, dass diese Maximalkräfte separat erfasst werden sollten. Die adaptive Haltekapazität eines Muskels kann im Vergleich zu einer allgemein ermittelten MVIC niedriger sein. Dies ist von Bedeutung, da Muskeln häufig angemessen auf äußere Kräfte reagieren müssen. Wenn ihre Reaktion nicht der äußeren Einwirkung entspricht, ist der Muskel gezwungen, sich zu verlängern. In diesem Fall werden die Gelenke nicht vollständig stabilisiert und es kann zu einer Verletzung kommen. Dieses Thema sollte in der künftigen Forschung im Bereich der Sport- und Gesundheitswissenschaften betrachtet werden. Schließlich wird in der Dissertation eine weitere Möglichkeit zur Quantifizierung der AFisomax mit Hilfe eines Handgeräts in Kombination mit einem manuellen Muskeltest vorgestellt. Diese Bewertung bietet eine praktischere Alternative für klinische Zwecke. KW - isometric contraction KW - holding isometric muscle action KW - neuromuscular functionality KW - muscle oxygen saturation KW - microvascular blood filling KW - muscle blood flow KW - time to task failure KW - haltende isometrische Muskelaktion KW - isometrische Kontraktion KW - Kapillarblutfüllung KW - Muskeldurchblutung KW - muskuläre Sauerstoffsättigung KW - neuomuskuläre Funktionalität KW - Kraftausdauer Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571265 ER - TY - THES A1 - Folikumah, Makafui Yao T1 - Stimuli-promoted in situ formation of hydrogels with thiol/thioester containing peptide precursors T1 - Stimuli-induzierte In-Situ-Bildung von Hydrogelen durch Peptid-Prekursor mit Thiol/Thioestergruppen N2 - Hydrogels are potential synthetic ECM-like substitutes since they provide functional and structural similarities compared to soft tissues. They can be prepared by crosslinking of macromolecules or by polymerizing suitable precursors. The crosslinks are not necessarily covalent bonds, but could also be formed by physical interactions such as π-π interactions, hydrophobic interactions, or H-bonding. On demand in situ forming hydrogels have garnered increased interest especially for biomedical applications over preformed gels due to the relative ease of in vivo delivery and filling of cavities. The thiol-Michael addition reaction provides a straightforward and robust strategy for in situ gel formation with its fast reaction kinetics and ability to proceed under physiological conditions. The incorporation of a trigger function into a crosslinking system becomes even more interesting since gelling can be controlled with stimulus of choice. The use of small molar mass crosslinker precursors with active groups orthogonal to thiol-Michael reaction type electrophile provides the opportunity to implement an on-demand in situ crosslinking without compromising the fast reaction kinetics. It was postulated that short peptide sequences due to the broad range structural-function relations available with the different constituent amino acids, can be exploited for the realisation of stimuli-promoted in situ covalent crosslinking and gelation applications. The advantages of this system over conventional polymer-polymer hydrogel systems are the ability tune and predict material property at the molecular level. The main aim of this work was to develop a simplified and biologically-friendly stimuli-promoted in situ crosslinking and hydrogelation system using peptide mimetics as latent crosslinkers. The approach aims at using a single thiodepsipeptide sequence to achieve separate pH- and enzyme-promoted gelation systems with little modification to the thiodepsipeptide sequence. The realization of this aim required the completion of three milestones. In the first place, after deciding on the thiol-Michael reaction as an effective in situ crosslinking strategy, a thiodepsipeptide, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) with expected propensity towards pH-dependent thiol-thioester exchange (TTE) activation, was proposed as a suitable crosslinker precursor for pH-promoted gelation system. Prior to the synthesis of the proposed peptide-mimetic, knowledge of the thiol-Michael reactivity of the would-be activated thiol moiety SH-Leu, which is internally embedded in the thiodepsipeptide was required. In line with pKa requirements for a successful TTE, the reactivity of a more acidic thiol, SH-Phe was also investigated to aid the selection of the best thiol to be incorporated in the thioester bearing peptide based crosslinker precursor. Using ‘pseudo’ 2D-NMR investigations, it was found that only reactions involving SH-Leu yielded the expected thiol-Michael product, an observation that was attributed to the steric hindrance of the bulkier nature of SH-Phe. The fast reaction rates and complete acrylate/maleimide conversion obtained with SH-Leu at pH 7.2 and higher aided the direct elimination of SH-Phe as a potential thiol for the synthesis of the peptide mimetic. Based on the initial studies, for the pH-promoted gelation system, the proposed Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH was kept unmodified. The subtle difference in pKa values between SH-Leu (thioester thiol) and the terminal cysteamine thiol from theoretical conditions should be enough to effect a ‘pseudo’ intramolecular TTE. In polar protic solvents and under basic aqueous conditions, TDP successfully undergoes a ‘pseudo’ intramolecular TTE reaction to yield an α,ω-dithiol tripeptide, HSLeu-Leu-Gly-NEtSH. The pH dependence of thiolate ion generation by the cysteamine thiol aided the incorporation of the needed stimulus (pH) for the overall success of TTE (activation step) – thiol-Michael addition (crosslinking) strategy. Secondly, with potential biomedical applications in focus, the susceptibility of TDP, like other thioesters, to intermolecular TTE reaction was probed with a group of thiols of varying thiol pKa values, since biological milieu characteristically contain peptide/protein thiols. L-cysteine, which is a biologically relevant thiol, and a small molecular weight thiol, methylthioglycolate both with relatively similar thiol pKa, values, led to an increase concentration of the dithiol crosslinker when reacted with TDP. In the presence of acidic thiols (p-NTP and 4MBA), a decrease in the dithiol concentration was observed, an observation that can be attributed to the inability of the TTE tetrahedral intermediate to dissociate into exchange products and is in line with pKa requirements for successful TTE reaction. These results additionally makes TDP more attractive and the potentially the first crosslinker precursor for applications in biologically relevant media. Finally, the ability of TDP to promote pH-sensitive in situ gel formation was probed with maleimide functionalized 4-arm polyethylene glycol polymers in tris-buffered media of varying pHs. When a 1:1 thiol: maleimide molar ratio was used, TDP-PEG4MAL hydrogels formed within 3, 12 and 24 hours at pH values of 8.5, 8.0 and 7.5 respectively. However, gelation times of 3, 5 and 30 mins were observed for the same pH trend when the thiol: maleimide molar was increased to 2:1. A direct correlation of thiol content with G’ of the gels at each pH could also be drawn by comparing gels with thiol: maleimide ratios of 1:1 to those with 2:1 thiol: maleimide mole ratios. This is supported by the fact that the storage modulus (G') is linearly dependent on the crosslinking density of the polymer. The values of initial G′ for all gels ranged between (200 – 5000 Pa), which falls in the range of elasticities of certain tissue microenvironments for example brain tissue 200 – 1000 Pa and adipose tissue (2500 – 3500 Pa). Knowledge so far gained from the study on the ability to design and tune the exchange reaction of thioester containing peptide mimetic will give those working in the field further insight into the development of new sequences tailored towards specific applications. TTE substrate design using peptide mimetic as presented in this work has revealed interesting new insights considering the state-of-the-art. Using the results obtained as reference, the strategy provides a possibility to extend the concept to the controlled delivery of active molecules needed for other robust and high yielding crosslinking reactions for biomedical applications. Application for this sequentially coupled functional system could be seen e.g. in the treatment of inflamed tissues associated with urinary tract like bladder infections for which pH levels above 7 were reported. By the inclusion of cell adhesion peptide motifs, the hydrogel network formed at this pH could act as a new support layer for the healing of damage epithelium as shown in interfacial gel formation experiments using TDP and PEG4MAL droplets. The versatility of the thiodepsipeptide sequence, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) was extended for the design and synthesis of a MMP-sensitive 4-arm PEG-TDPo conjugate. The purported cleavage of TDPo at the Gly-SLeu bond yields active thiol units for subsequent reaction of orthogonal Michael acceptor moieties. One of the advantages of stimuli-promoted in situ crosslinking systems using short peptides should be the ease of design of required peptide molecules due to the predictability of peptide functions their sequence structure. Consequently the functionalisation of a 4-arm PEG core with the collagenase active TDPo sequence yielded an MMP-sensitive 4-arm thiodepsipeptide-PEG conjugate (PEG4TDPo) substrate. Cleavage studies using thiol flourometric assay in the presence of MMPs -2 and -9 confirmed the susceptibility of PEG4TDPo towards these enzymes. The resulting time-dependent increase in fluorescence intensity in the presence of thiol assay signifies the successful cleavage of TDPo at the Gly-SLeu bond as expected. It was observed that the cleavage studies with thiol flourometric assay introduces a sigmoid non-Michaelis-Menten type kinetic profile, hence making it difficult to accurately determine the enzyme cycling parameters, kcat and KM . Gelation studies with PEG4MAL at 10 % wt. concentrations revealed faster gelation with MMP-2 than MMP-9 with 28 and 40 min gelation times respectively. Possible contributions by hydrolytic cleavage of PEG4TDPo has resulted in the gelation of PEG4MAL blank samples but only after 60 minutes of reaction. From theoretical considerations, the simultaneous gelation reaction would be expected to more negatively impact the enzymatic than hydrolytic cleavage. The exact contributions from hydrolytic cleavage of PEG4TDPo would however require additional studies. In summary this new and simplified in situ crosslinking system using peptide-based crosslinker precursors with tuneable properties exhibited in situ crosslinking gelation kinetics on similar levels with already active dithiols reported. The advantageous on-demand functionality associated with its pH-sensitivity and physiological compatibility makes it a strong candidate worth further research as biomedical applications in general and on-demand material synthesis is concerned. Results from MMP-promoted gelation system unveils a simple but unexplored approach for in situ synthesis of covalently crosslinked soft materials, that could lead to the development of an alternative pathway in addressing cancer metastasis by making use of MMP overexpression as a trigger. This goal has so far not being reach with MMP inhibitors despite the extensive work this regard. N2 - Hydrogele sind synthetische, potenziell ECM-ähnliche Substituenten, die funktionelle und strukturelle Ähnlichkeiten mit Weichteilgeweben aufweisen. Sie können durch Vernetzung von Makromolekülen oder durch Polymerisation geeigneter Precursoren hergestellt werden. Die Vernetzungen müssen nicht unbedingt aus kovalenten Bindungen bestehen, sondern können auch durch physikalische Wechselwirkungen wie π-π-Wechselwirkungen, hydrophoben Wechselwirkungen oder Wasserstoff-Brückenbindungen entstehen. In-situ-Hydrogele, die on-demand gebildet werden, haben vor allem für biomedizinische Anwendungen gegenüber vorgefertigten Gelen zunehmend an Interesse gewonnen, da sie relativ einfach in-vivo eingebracht und somit Fehlstellen gefüllt werden können. Die Thiol-Michael-Additionsreaktion bietet mit ihrer schnellen Reaktionskinetik und ihrer Fähigkeit, unter physiologischen Bedingungen abzulaufen, eine unkomplizierte und robuste Strategie für die in-situ-Gelbildung. Der Einbau einer Triggerfunktion in ein Vernetzungssystem ist besonders interessant, da die Gelierung durch einen gewählten Stimulus gesteuert werden kann. Die Verwendung eines Precursors mit geringer Molmasse und aktiven Gruppen, die orthogonal zu den Elektrophilen des Thiol-Michael-Reaktionstyps sind, bietet die Möglichkeit, eine bedarfsgesteuerte in-situ-Vernetzung zu realisieren, ohne die schnelle Reaktionskinetik zu beeinträchtigen. Es wurde postuliert, dass kurze Peptidsequenzen aufgrund der weitreichenden Struktur-Funktions-Beziehungen, die mit den verschiedenen konstituierenden Aminosäuren zur Verfügung stehen, für die Realisierung von Stimulus-ausgelösten, in-situ kovalenten Vernetzungs- und Gelierungsanwendungen genutzt werden können. Die Vorteile dieses Systems gegenüber herkömmlichen Polymer-Polymer-Hydrogelsystemen liegen in der Möglichkeit, die Materialeigenschaften auf molekularer Ebene zu justieren und vorherzusagen. Das Hauptziel dieser Arbeit war die Entwicklung eines vereinfachten und biologisch-geeigneten, stimulierungsgeförderten in-situ-Vernetzungs- und Hydrogelierungssystems unter Verwendung von Peptidmimetika als latente Vernetzer. Der Ansatz zielt darauf ab, eine einzige Thiodepsipeptidsequenz zu verwenden, um getrennte pH- und enzymausgelöste Gelierungssysteme mit geringen Modifikationen der Thiodepsipeptidsequenz zu erreichen. Zur Verwirklichung dieses Ziels, mussten drei Meilensteine erreicht werden. Nach der Wahl der Thiol-Michael-Reaktion als in-situ-Vernetzungsstrategie, musste ein Thiodepsipeptid, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) mit einer zu erwartenden Neigung zu einer pH-abhängigen Thiol-Thioester-Austausch-Aktivierung (TTE), als geeignetem Vernetzer-Precursor für das pH-unterstützte Gelierungssystem designt werden. Vor der Synthese dieses Peptid-Mimetikums war die Untersuchung der Thiol-Michael-Reaktivität der potenziell aktivierten Thiolkomponente SH-Leu erforderlich, die intern in das Thiodepsipeptid eingebettet ist. In Übereinstimmung mit den pKa-Anforderungen für eine erfolgreiche TTE wurde auch die Reaktivität eines saureren Thiols, SH-Phe, untersucht, um die Auswahl des besten Thiols zu ermöglichen, das in den Thioester-tragenden Peptid-basierten Vernetzer-Precursor eingebaut werden sollte. Pseudo-2D-NMR-Untersuchungen zeigten, dass nur Reaktionen mit SH-Leu das erwartete Thiol-Michael-Produkt ergaben, eine Beobachtung, die auf die sterische Hinderung durch die sperrige Natur von SH-Phe zurückzuführen ist. Wegen der schnellen Reaktionsgeschwindigkeiten und der vollständigen Acrylat/Maleimid-Umwandlung, die mit SH-Leu bei einem pH-Wert von 7,2 und höher erzielt wurde, kam SH-Phe als potenzielles Thiol für die Synthese des Peptidmimetikums nicht mehr infrage. Auf der Grundlage der ersten Studien wurde für das pH-basierte Gelierungssystem das vorgeschlagene Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH unverändert beibehalten. Der geringe Unterschied in den pKa-Werten zwischen SH-Leu (Thioesterthiol) und dem terminalen Cysteaminthiol sollte ausreichen, um eine "pseudo"-intramolekulare TTE zu bewirken. In polaren protischen Lösungsmitteln und unter basischen wässrigen Bedingungen verläuft die "pseudo"-intramolekulare TTE-Reaktion bei TDP erfolgreich, bei der ein α,ω-Dithiol-Tripeptid, HSLeu-Leu-Gly-NEtSH, entsteht. Die pH-Abhängigkeit der Thiolat-Ionen-Generierung durch das Cysteamin-Thiol trug dazu bei, den notwendigen Stimulus (pH) für den Gesamterfolg der TTE (Aktivierungsschritt) - Thiol-Michael-Addition (Vernetzung) Strategie einzubauen. Zweitens wurde mit Blick auf potenzielle biomedizinische Anwendungen die Empfindlichkeit von TDP, wie auch anderer Thioester, für die intermolekulare TTE-Reaktion mit einer Gruppe von Thiolen mit unterschiedlichen Thiol-pKa-Werten untersucht, da biologische Milieus typischerweise Peptid-/Proteinthiole enthalten. L-Cystein, ein biologisch relevantes Thiol, und ein Thiol mit geringem Molekulargewicht, Methylthioglykolat, die beide relativ ähnliche Thiol-pKa-Werte besitzen, führten bei der Reaktion mit TDP zu einer erhöhten Konzentration des Dithiol-Vernetzers. In Gegenwart von sauren Thiolen (p-NTP und 4MBA) wurde eine Abnahme der Dithiolkonzentration beobachtet, eine Beobachtung, die auf die Unfähigkeit des tetraedrischen TTE-Zwischenprodukts in Austauschprodukte zu dissoziieren zurückgeführt werden kann und mit den pKa-Anforderungen für eine erfolgreiche TTE-Reaktion in Einklang steht. Diese Ergebnisse machen TDP noch attraktiver und zum potenziell ersten Vernetzer-Precursor für Anwendungen in biologisch relevanten Medien. Schließlich wurde die Fähigkeit von TDP, die pH-empfindliche in-situ-Gelbildung zu fördern, mit Maleimid-funktionalisierten 4-armigen Polyethylenglykolpolymeren in tris-gepufferten Medien mit unterschiedlichen pH-Werten untersucht. Bei einem Molverhältnis von 1:1 Thiol zu Maleimid bildeten sich TDP-PEG4MAL-Hydrogele innerhalb von 3, 12 und 24 Stunden bei pH-Werten von 8,5, 8,0 bzw. 7,5. Bei einer Erhöhung des Molverhältnisses von Thiol zu Maleimid auf 2:1 wurden jedoch Gelierzeiten von 3, 5 und 30 Minuten für denselben pH-Trend beobachtet. Ein direkter Zusammenhang zwischen dem Thiolgehalt und G' der Gele bei jedem pH-Wert konnte auch durch den Vergleich von Gelen mit einem Thiol/Maleimid-Molverhältnis von 1:1 mit solchen mit einem Thiol/Maleimid-Molverhältnis von 2:1 hergestellt werden. Dies wird durch die Tatsache unterstützt, dass der Speichermodulus (G') linear von der Vernetzungsdichte des Polymers abhängig ist. Die Werte des anfänglichen G′ für alle Gele lagen bei 200 - 5000 Pa, was in den Bereich der Elastizitäten bestimmter Gewebe-Mikroumgebungen fällt, z. B. Gehirngewebe (200 - 1000 Pa) und Fettgewebe (2500 - 3500 Pa). Die bisher aus der Studie gewonnenen Erkenntnisse über die Möglichkeit, die Austauschreaktion von Thioester-haltigen Peptidmimetika zu entwerfen und abzustimmen, geben weitere Einblicke in die Entwicklung neuer, auf spezifische Anwendungen zugeschnittener Sequenzen. Das Design von TTE-Substraten unter Verwendung von Peptidmimetika, wie es in dieser Arbeit vorgestellt wurde, hat interessante neue Erkenntnisse im Hinblick auf den Stand der Technik gebracht. Mit den erzielten Ergebnissen als Basis bietet die Strategie die Möglichkeit, das Konzept auf die kontrollierte Freisetzung aktiver Moleküle zu erweitern, die für andere robuste Vernetzungsreaktionen mit hohem Umsatz für biomedizinische Anwendungen benötigt werden. Dieses sequentiell gekoppelte funktionelle System könnte z. B. bei der Behandlung von entzündetem Gewebe im Zusammenhang mit Harnwegsinfektionen wie Blasenentzündungen eingesetzt werden, für die pH-Werte über 7 berichtet wurden. Durch die Einbeziehung von Zelladhäsionspeptidmotiven könnte das bei diesem pH-Wert gebildete Hydrogelnetz als neue Stützschicht für die Heilung von geschädigtem Epithel fungieren, wie in Experimenten zur Bildung von Grenzflächengelen mit TDP- und PEG4MAL-Tropfen gezeigt wurde. Die Vielseitigkeit der Thiodepsipeptidsequenz Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) wurde um Design und die Synthese eines MMP-empfindlichen 4-armigen PEG-TDPo-Konjugats erweitert. Die beabsichtigte Spaltung von TDPo an der Gly-SLeu-Bindung liefert aktive Thiol-Einheiten für die anschließende Reaktion orthogonaler Michael-Akzeptor-Einheiten. Einer der Vorteile stimulierungsgestützter in-situ-Vernetzungssysteme unter Verwendung kurzer Peptide dürfte darin liegen, dass sich die erforderlichen Peptidmoleküle aufgrund der Vorhersagbarkeit der Peptidfunktionen und ihrer Sequenzstruktur leicht entwerfen lassen. Die Funktionalisierung eines vierarmigen PEG-Kerns mit der kollagenaseaktiven TDPo-Sequenz führte zu einem MMP-empfindlichen vierarmigen Thiodepsipeptid-PEG-Konjugat (PEG4TDPo). Spaltungs-Studien unter Verwendung eines thiolfluorimetrischen Assays in Gegenwart der MMPs -2 und -9 bestätigten die Spaltbarkeit von PEG4TDPo durch diese Enzyme. Der daraus resultierende zeitabhängige Anstieg der Fluoreszenzintensität in Anwesenheit des Thiol-Assays deutet auf die erfolgreiche Spaltung von TDPo an der Gly-SLeu-Bindung hin. Es wurde festgestellt, dass die Spaltungsstudien mit dem thiol-fluorimetrischen Assay ein sigmoides, nicht-Michaelis-Menten-artiges kinetisches Profil ergeben, was eine genaue Bestimmung der Enzymzyklusparameter, kcat und KM, erschwert. Gelierungsstudien mit PEG4MAL in einer Konzentration von 10 Gew.-% ergaben eine schnellere Gelierung mit MMP-2 als mit MMP-9 mit Gelierungszeiten von 28 bzw. 40 Minuten. Eventuelle Beiträge durch hydrolytische Spaltung von PEG4TDPo an der Gelierung wurden an PEG4MAL-Blindproben untersucht und führten erst nach 60 Minuten Reaktionszeit zu einer Gelierung. Aus theoretischen Überlegungen heraus wäre zu erwarten, dass sich die gleichzeitige Gelierungsreaktion negativer auf die enzymatische als auf die hydrolytische Spaltung auswirkt. Genaues zum Beitrag der hydrolytischen Spaltung von PEG4TDPo bedürfte jedoch weiterer Untersuchungen. Zusammenfassend lässt sich sagen, dass dieses neue in-situ-Vernetzungssystem, bei dem Peptid-basierte Vernetzungs-Precursor mit einstellbaren Eigenschaften verwendet werden, eine in-situ-Vernetzungs-Gelierungskinetik auf ähnlichem Niveau wie bei bereits berichteten aktiven Dithiole aufweist. Die vorteilhafte On-Demand-Funktionalität in Verbindung mit ihrer pH-Sensitivität und physiologischen Verträglichkeit macht sie zu einem interessanten Kandidaten für weitere Forschungen im Bereich biomedizinischer Anwendungen im Allgemeinen und der On-Demand-Materialsynthese. Die Ergebnisse des MMP-geförderten Gelierungssystems weisen einen einfachen, aber unerforschten Ansatz für die in-situ-Synthese kovalent vernetzter weicher Materialien, der zur Entwicklung eines alternativen Weges zur Bekämpfung der Krebsmetastasierung führen könnte, indem er die MMP-Überexpression als Auslöser nutzt. Mit MMP-Inhibitoren wurde dieses Ziel trotz umfangreicher Arbeiten in dieser Hinsicht bisher nicht erreicht. KW - hydrogels KW - stimuli KW - peptide KW - thioester KW - crosslinker KW - Hydrogele KW - Vernetzer KW - Peptid KW - Thioester KW - Stimuli Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569713 ER - TY - THES A1 - Hußner, Isabell T1 - Self-efficacy beliefs of student teachers in the context of teachingrelated practical experiences in schools T1 - Selbstwirksamkeitserwartungen von Lehramtsstudierenden im Kontext von schulpraktischen Erfahrungen N2 - Self-efficacy beliefs play a significant role in teachers’ professional behavior in class (Tschannen-Moran et al., 1998) and students’ achievement and behavior (Mojavezi & Tamiz, 2012). Teacher self-efficacy beliefs are defined as teachers’ own beliefs about their capability to achieve certain goals in a specific situation (Dellinger et al., 2008; Tschannen-Moran & Hoy, 2001). Due to the essential role of teachers in the educational system and society, supporting teachers’ well-being, productivity, and efficiency is important (Kasalak & Dagyar, 2020). Empirical evidence highlights the positive effects of teacher self-efficacy beliefs on their wellbeing (Perera & John, 2020) and on students’ learning and performance (Zee & Koomen, 2016), but there is a lack of empirical research focusing on the importance of self-efficacy beliefs for student teachers in teacher education programs (Yurekli et al., 2020), especially during practical training periods. Based on the importance of teachers’ own teaching experiences, which have been described as mastery experiences, i.e. the strongest source of self-efficacy beliefs for student teachers (Pfitzner-Eden, 2016b), this dissertation examines practical experiences as a source of (student) teacher self-efficacy beliefs and, relatedly, the development of and changes in student teachers’ self-efficacy during teacher education. Therefore, Study 1 focuses on changes in student teachers’ self-efficacy beliefs during shortterm practical experiences compared to online teaching without teaching experiences. Due to inconsistent findings of reciprocal relations between teacher self-efficacy beliefs and teaching quality (Holzberger et al., 2013; Lazarides et al., 2022), Study 2 examines the interrelation of student teachers’ self-efficacy beliefs and their teaching behavior during teacher education. Feedback can be an important source of self-efficacy beliefs, serving as verbal persuasion that enhances feelings of competence (Pfitzner-Eden, 2016b). In this context, Study 2 also focuses on the relation between changes in student teachers’ self-efficacy beliefs and the perceived quality of peer feedback in terms of short-term practical experiences in teacher education. Moreover, for the investigation of the development of student teachers’ self-efficacy beliefs, it is important to examine individual personality aspects and specific conditions of the learning environment in teacher education (Bach, 2022). Based on the assumption that the support of reflective processes in teacher education (Menon & Azam, 2021) and the use of innovative learning settings such as VR videos (Nissim & Weissblueth, 2017) foster the development of student teachers’ self-efficacy beliefs, Studies 3 and 4 investigate student teachers’ reflection processes regarding their own experiences in teaching and the teaching experiences of others observed during teacher education. Against the background of inconsistent findings and a lack of empirical research on the relations between self-efficacy beliefs of student teachers and different circumstances pertaining to the learning environment or personal characteristics, further empirical research is needed that investigates different sources and relations of student teachers’ self-efficacy beliefs during teacher education. In this context, this dissertation examines which individual characteristics and learning environments enhance student teachers’ self-efficacy beliefs, especially during short-term practical experiences in teacher education. In addition, the dissertation concludes with a discussion of the findings of the four studies by summarizing the strengths and weaknesses of each study. Limitations and implications for further research are discussed as well. N2 - Selbstwirksamkeitserwartungen spielen eine wichtige Rolle für das professionelle Verhalten von Lehrkräften im Unterricht (Tschannen-Moran et al., 1998) sowie für die Leistungen und das Verhalten der Schülerinnen und Schüler (Mojavezi & Tamiz, 2012). Selbstwirksamkeitserwartungen von Lehrkräften sind definiert als die Überzeugung von Lehrkräften, dass sie in der Lage sind, bestimmte Ziele in einer spezifischen Situation zu erreichen (Dellinger et al., 2008; Tschannen-Moran & Hoy, 2001). Aufgrund der bedeutenden Rolle der Lehrkräfte im Bildungssystem und in der Gesellschaft ist es wichtig, das Wohlbefinden, die Produktivität und die Wirksamkeit von Lehrkräften zu fördern (Kasalak & Dagyar, 2020). Empirische Befunde unterstreichen die positiven Effekte von Selbstwirksamkeitserwartungen bei Lehrkräften auf ihr Wohlbefinden (Perera & John, 2020) und auf das Lernen sowie die Leistungen der Schülerinnen und Schüler (Zee & Koomen, 2016). Dabei mangelt es jedoch an empirischer Forschung, die die Bedeutung von Selbstwirksamkeitserwartungen bei Lehramtsstudierende in der Lehrkräftebildung untersucht (Yurekli et al., 2020), insbesondere während schulpraktischen Ausbildungsphasen. Ausgehend von der Bedeutung eigener Unterrichtserfahrungen, die als mastery experience, d.h. als stärkste Quelle von Selbstwirksamkeit für Lehramtsstudierende, beschrieben wurden (Pfitzner-Eden, 2016b), werden in dieser Dissertation Praxiserfahrungen als Quelle von Selbstwirksamkeit von Lehramtsstudierenden und die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während der Lehrkräfteausbildung untersucht. Studie 1 konzentriert sich daher auf die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während kurzer praktischer Unterrichtserfahrungen im Vergleich zur Online-Lehre ohne Unterrichtserfahrung. Aufgrund inkonsistenter Befunde zu den wechselseitigen Beziehungen zwischen den Selbstwirksamkeitserwartungen von Lehrkräften und ihrem Unterrichtsverhalten (Holzberger et al., 2013; Lazarides et al., 2022) wurde in Studie 2 der Zusammenhang zwischen der Selbstwirksamkeit von Lehramtsstudierenden und ihrem Unterrichtsverhalten während des Lehramtsstudiums untersucht. Da Feedback als verbale Überzeugung (verbal persuasion) dienen kann und somit eine wichtige Quelle für Selbstwirksamkeitserwartungen ist, die das Gefühl der Kompetenz stärkt (Pfitzner-Eden, 2016b), fokussiert Studie 2 den Zusammenhang zwischen der Veränderung der Selbstwirksamkeit von Lehramtsstudierenden und der wahrgenommenen Qualität des Peer-Feedbacks im Kontext kurzer schulpraktischer Erfahrungen während des Lehramtsstudiums. Darüber hinaus ist es für die Untersuchung der Veränderung von Selbstwirksamkeit bei Lehramtsstudierenden wichtig, individuelle Persönlichkeitsaspekte und spezifische Bedingungen der Lernumgebung in der Lehrkräftebildung zu untersuchen (Bach, 2022). Ausgehend von der Annahme, dass die Unterstützung von Reflexionsprozessen in der Lehrkräftebildung (Menon & Azam, 2021) und der Einsatz innovativer Lernsettings wie VR-Videos (Nissim & Weissblueth, 2017) die Entwicklung von Selbstwirksamkeitserwartungen von Lehramtsstudierenden fördern, werden in Studie 3 und Studie 4 Reflexionsprozesse bei Lehramtsstudierenden in Bezug auf ihre eigenen Unterrichtserfahrungen bzw. stellvertretenden Unterrichtserfahrungen anderer untersucht. Vor dem Hintergrund inkonsistenter Befunde und fehlender empirischer Forschung zu den Zusammenhängen zwischen Selbstwirksamkeit von Lehramtsstudierenden und verschiedenen Faktoren, die das Lernumfeld oder persönliche Merkmale betreffen, sind weitere empirische Studien erforderlich, die verschiedene Quellen und Zusammenhänge der Selbstwirksamkeitserwartungen von Lehramtsstudierenden während des Lehramtsstudiums untersuchen. In diesem Zusammenhang wird in der vorliegenden Dissertation der Frage nachgegangen, welche individuellen Merkmale und Lernumgebungen die Selbstwirksamkeit von Lehramtsstudierenden – insbesondere während kurzer schulpraktischer Phasen im Lehramtsstudium fördern können. Darüber hinaus schließt die Dissertation mit der Diskussion der Ergebnisse aus den vier Teilstudien ab, indem Stärken und Schwächen jeder Studie gesamtheitlich in den Blick genommen werden. Abschließend werden Limitationen und Implikationen für die weitere Forschung und die Praxis diskutiert. KW - self-efficacy beliefs KW - teacher education KW - practical phases KW - schulpraktische Phasen KW - Selbstwirksamkeitserwartungen KW - Lehrkräftebildung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571627 ER - TY - THES A1 - Niephaus, Fabio T1 - Exploratory tool-building platforms for polyglot virtual machines N2 - Polyglot programming allows developers to use multiple programming languages within the same software project. While it is common to use more than one language in certain programming domains, developers also apply polyglot programming for other purposes such as to re-use software written in other languages. Although established approaches to polyglot programming come with significant limitations, for example, in terms of performance and tool support, developers still use them to be able to combine languages. Polyglot virtual machines (VMs) such as GraalVM provide a new level of polyglot programming, allowing languages to directly interact with each other. This reduces the amount of glue code needed to combine languages, results in better performance, and enables tools such as debuggers to work across languages. However, only a little research has focused on novel tools that are designed to support developers in building software with polyglot VMs. One reason is that tool-building is often an expensive activity, another one is that polyglot VMs are still a moving target as their use cases and requirements are not yet well understood. In this thesis, we present an approach that builds on existing self-sustaining programming systems such as Squeak/Smalltalk to enable exploratory programming, a practice for exploring and gathering software requirements, and re-use their extensive tool-building capabilities in the context of polyglot VMs. Based on TruffleSqueak, our implementation for the GraalVM, we further present five case studies that demonstrate how our approach helps tool developers to design and build tools for polyglot programming. We further show that TruffleSqueak can also be used by application developers to build and evolve polyglot applications at run-time and by language and runtime developers to understand the dynamic behavior of GraalVM languages and internals. Since our platform allows all these developers to apply polyglot programming, it can further help to better understand the advantages, use cases, requirements, and challenges of polyglot VMs. Moreover, we demonstrate that our approach can also be applied to other polyglot VMs and that insights gained through it are transferable to other programming systems. We conclude that our research on tools for polyglot programming is an important step toward making polyglot VMs more approachable for developers in practice. With good tool support, we believe polyglot VMs can make it much more common for developers to take advantage of multiple languages and their ecosystems when building software. N2 - Durch Polyglottes Programmieren können Softwareentwickler:innen mehrere Programmiersprachen für das Bauen von Software verwenden. Während diese Art von Programmierung in einigen Programmierdomänen üblich ist, wenden Entwickler:innen Polyglottes Programmieren auch aus anderen Gründen an, wie zum Beispiel, um Software über Programmiersprachen hinweg wiederverwenden zu können. Obwohl die bestehenden Ansätze zum Polyglotten Programmieren mit erheblichen Einschränkungen verbunden sind, wie beispielsweise in Bezug zur Laufzeitperformance oder der Unterstützung durch Programmierwerkzeuge, werden sie dennoch von Entwickler:innen genutzt, um Sprachen kombinieren zu können. Mehrsprachige Ausführungsumgebungen wie zum Beispiel GraalVM bieten Polyglottes Programmieren auf einer neuen Ebene an, welche es Sprachen erlaubt, direkt miteinander zu interagieren. Dadurch wird die Menge an notwendigem Glue Code beim Kombinieren von Sprachen reduziert und die Laufzeitperformance verbessert. Außerdem können Debugger und andere Programmierwerkzeuge über mehrere Sprachen hinweg verwendet werden. Jedoch hat sich bisher nur wenig wissenschaftliche Arbeit mit neuartigen Werkzeugen beschäftigt, die darauf ausgelegt sind, Entwickler:innen beim Polyglotten Programmieren mit mehrsprachigen Ausführungsumgebungen zu unterstützen. Ein Grund dafür ist, dass das Bauen von Werkzeugen üblicherweise sehr aufwendig ist. Ein anderer Grund ist, dass sich mehrsprachige Ausführungsumgebungen immer noch ständig weiterentwickeln, da ihre Anwendungsfälle und Anforderungen noch nicht ausreichend verstanden sind. In dieser Arbeit stellen wir einen Ansatz vor, der auf selbsttragenden Programmiersystemen wie zum Beispiel Squeak/Smalltalk aufbaut, um Exploratives Programmieren, eine Praktik zum Explorieren und Erfassen von Softwareanforderungen, sowie das Wiederverwenden ihrer umfangreichen Fähigkeiten zum Bauen von Werkzeugen im Rahmen von mehrsprachigen Ausführungsumgebungen zu ermöglichen. Basierend auf TruffleSqueak, unserer Implementierung für die GraalVM, zeigen wir anhand von fünf Fallstudien, wie unser Ansatz Werkzeugentwickler:innen dabei hilft, neue Werkzeuge zum Polyglotten Programmieren zu entwerfen und zu bauen. Außerdem demonstrieren wir, dass TruffleSqueak auch von Anwendungsentwickler:innen zum Bauen und Erweitern von polyglotten Anwendungen zur Laufzeit genutzt werden kann und Sprach- sowie Laufzeitentwickler:innen dabei hilft, das dynamische Verhalten von GraalVM-Sprachen und -Interna zu verstehen. Da unsere Plattform dabei all diesen Entwickler:innen Polyglottes Programmieren erlaubt, trägt sie außerdem dazu bei, dass Vorteile, Anwendungsfälle, Anforderungen und Herausforderungen von mehrsprachigen Ausführungsumgebungen besser verstanden werden können. Darüber hinaus zeigen wir, dass unser Ansatz auch auf andere mehrsprachige Ausführungsumgebungen angewandt werden kann und dass die Erkenntnisse, die man durch unseren Ansatz gewinnen kann, auch auf andere Programmiersysteme übertragbar sind. Wir schlussfolgern, dass unsere Forschung an Werkzeugen zum Polyglotten Programmieren ein wichtiger Schritt ist, um mehrsprachige Ausführungsumgebungen zugänglicher für Entwickler:innen in der Praxis zu machen. Wir sind davon überzeugt, dass diese Ausführungsumgebungen mit guter Werkzeugunterstützung dazu führen können, dass Softwareentwickler:innen häufiger von den Vorteilen der Verwendung mehrerer Programmiersprachen zum Bauen von Software profitieren wollen. KW - polyglot programming KW - polyglottes Programmieren KW - programming tools KW - Programmierwerkzeuge KW - Smalltalk KW - Smalltalk KW - GraalVM KW - GraalVM KW - virtual machines KW - virtuelle Maschinen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571776 ER - TY - THES A1 - Fischer, Melanie T1 - Outburst floods in the Greater Himalayas T1 - Dammbruchfluten in der Großregion des Himalayas BT - from regional susceptibility to local hazard BT - von regionaler Suszeptibilität zu lokaler Gefährdung N2 - High-mountain regions provide valuable ecosystem services, including food, water, and energy production, to more than 900 million people worldwide. Projections hold, that this population number will rapidly increase in the next decades, accompanied by a continued urbanisation of cities located in mountain valleys. One of the manifestations of this ongoing socio-economic change of mountain societies is a rise in settlement areas and transportation infrastructure while an increased power need fuels the construction of hydropower plants along rivers in the high-mountain regions of the world. However, physical processes governing the cryosphere of these regions are highly sensitive to changes in climate and a global warming will likely alter the conditions in the headwaters of high-mountain rivers. One of the potential implications of this change is an increase in frequency and magnitude of outburst floods – highly dynamic flows capable of carrying large amounts of water and sediments. Sudden outbursts from lakes formed behind natural dams are complex geomorphological processes and are often part of a hazard cascade. In contrast to other types of natural hazards in high-alpine areas, for example landslides or avalanches, outburst floods are highly infrequent. Therefore, observations and data describing for example the mode of outburst or the hydraulic properties of the downstream propagating flow are very limited, which is a major challenge in contemporary (glacial) lake outburst flood research. Although glacial lake outburst floods (GLOFs) and landslide-dammed lake outburst floods (LLOFs) are rare, a number of documented events caused high fatality counts and damage. The highest documented losses due to outburst floods since the start of the 20th century were induced by only a few high-discharge events. Thus, outburst floods can be a significant hazard to downvalley communities and infrastructure in high-mountain regions worldwide. This thesis focuses on the Greater Himalayan region, a vast mountain belt stretching across 0.89 million km2. Although potentially hundreds of outburst floods have occurred there since the beginning of the 20th century, data on these events is still scarce. Projections of cryospheric change, including glacier-mass wastage and permafrost degradation, will likely result in an overall increase of the water volume stored in meltwater lakes as well as the destabilisation of mountain slopes in the Greater Himalayan region. Thus, the potential for outburst floods to affect the increasingly more densely populated valleys of this mountain belt is also likely to increase in the future. A prime example of one of these valleys is the Pokhara valley in Nepal, which is drained by the Seti Khola, a river crossing one of the steepest topographic gradients in the Himalayas. This valley is also home to Nepal’s second largest, rapidly growing city, Pokhara, which currently has a population of more than half a million people – some of which live in informal settlements within the floodplain of the Seti Khola. Although there is ample evidence for past outburst floods along this river in recent and historic times, these events have hardly been quantified. The main motivation of my thesis is to address the data scarcity on past and potential future outburst floods in the Greater Himalayan region, both at a regional and at a local scale. For the former, I compiled an inventory of >3,000 moraine-dammed lakes, of which about 1% had a documented sudden failure in the past four decades. I used this data to test whether a number of predictors that have been widely applied in previous GLOF assessments are statistically relevant when estimating past GLOF susceptibility. For this, I set up four Bayesian multi-level logistic regression models, in which I explored the credibility of the predictors lake area, lake-area dynamics, lake elevation, parent-glacier-mass balance, and monsoonality. By using a hierarchical approach consisting of two levels, this probabilistic framework also allowed for spatial variability on GLOF susceptibility across the vast study area, which until now had not been considered in studies of this scale. The model results suggest that in the Nyainqentanglha and Eastern Himalayas – regions with strong negative glacier-mass balances – lakes have been more prone to release GLOFs than in regions with less negative or even stable glacier-mass balances. Similarly, larger lakes in larger catchments had, on average, a higher probability to have had a GLOF in the past four decades. Yet, monsoonality, lake elevation, and lake-area dynamics were more ambiguous. This challenges the credibility of a lake’s rapid growth in surface area as an indicator of a pending outburst; a metric that has been applied to regional GLOF assessments worldwide. At a local scale, my thesis aims to overcome data scarcity concerning the flow characteristics of the catastrophic May 2012 flood along the Seti Khola, which caused 72 fatalities, as well as potentially much larger predecessors, which deposited >1 km³ of sediment in the Pokhara valley between the 12th and 14th century CE. To reconstruct peak discharges, flow depths, and flow velocities of the 2012 flood, I mapped the extents of flood sediments from RapidEye satellite imagery and used these as a proxy for inundation limits. To constrain the latter for the Mediaeval events, I utilised outcrops of slackwater deposits in the fills of tributary valleys. Using steady-state hydrodynamic modelling for a wide range of plausible scenarios, from meteorological (1,000 m³ s-1) to cataclysmic outburst floods (600,000 m³ s-1), I assessed the likely initial discharges of the recent and the Mediaeval floods based on the lowest mismatch between sedimentary evidence and simulated flood limits. One-dimensional HEC-RAS simulations suggest, that the 2012 flood most likely had a peak discharge of 3,700 m³ s-1 in the upper Seti Khola and attenuated to 500 m³ s-1 when arriving in Pokhara’s suburbs some 15 km downstream. Simulations of flow in two-dimensions with orders of magnitude higher peak discharges in ANUGA show extensive backwater effects in the main tributary valleys. These backwater effects match the locations of slackwater deposits and, hence, attest for the flood character of Mediaeval sediment pulses. This thesis provides first quantitative proof for the hypothesis, that the latter were linked to earthquake-triggered outbursts of large former lakes in the headwaters of the Seti Khola – producing floods with peak discharges of >50,000 m³ s-1. Building on this improved understanding of past floods along the Seti Khola, my thesis continues with an analysis of the impacts of potential future outburst floods on land cover, including built-up areas and infrastructure mapped from high-resolution satellite and OpenStreetMap data. HEC-RAS simulations of ten flood scenarios, with peak discharges ranging from 1,000 to 10,000 m³ s-1, show that the relative inundation hazard is highest in Pokhara’s north-western suburbs. There, the potential effects of hydraulic ponding upstream of narrow gorges might locally sustain higher flow depths. Yet, along this reach, informal settlements and gravel mining activities are close to the active channel. By tracing the construction dynamics in two of these potentially affected informal settlements on multi-temporal RapidEye, PlanetScope, and Google Earth imagery, I found that exposure increased locally between three- to twentyfold in just over a decade (2008 to 2021). In conclusion, this thesis provides new quantitative insights into the past controls on the susceptibility of glacial lakes to sudden outburst at a regional scale and the flow dynamics of propagating flood waves released by past events at a local scale, which can aid future hazard assessments on transient scales in the Greater Himalayan region. My subsequent exploration of the impacts of potential future outburst floods to exposed infrastructure and (informal) settlements might provide valuable inputs to anticipatory assessments of multiple risks in the Pokhara valley. N2 - Hochgebirgsregionen stellen wertvolle Ökosystemdienstleistungen wie Nahrung, Wasser und Energieerzeugung für weltweit mehr als 900 Millionen Menschen bereit. Prognosen zufolge wird diese Zahl in den nächsten Jahrzehnten weiter rapide ansteigen, begleitet von einer zunehmenden Urbanisierung der in den Bergtälern lebenden Bevölkerung. Dieser anhaltende sozioökonomische Wandel äußert sich unter anderem in der Zunahme von Siedlungsflächen und dem Ausbau der Verkehrsinfrastruktur, während gleichzeitig ein erhöhter Energiebedarf den Bau von Wasserkraftwerken entlang von Hochgebirgsflüssen vorantreibt. Physikalische Prozesse, welche die Hochgebirgs-Kryosphäre beeinflussen, reagieren jedoch sehr empfindlich auf Klimaveränderungen. Die globale Erwärmung wird somit wahrscheinlich auch die Bedingungen in den Einzugsgebieten und Oberläufen dieser Hochgebirgsflüsse verändern. Eine mögliche Folge dieses Wandels ist eine Zunahme der Frequenz und Magnitude von natürlichen Dammbruchfluten (im Englischen outburst floods), welche hochdynamisch sind und potenziell große Mengen Wasser und Sedimente mit sich führen können. Plötzliche Ausbrüche von Seen, welche sich zuvor hinter natürlichen Dämmen aufgestaut haben, sind komplexe geomorphologische Prozesse und oft Teil einer mehrteiligen Gefahrenkaskade. Dammbruchfluten sind jedoch, im Gegensatz zu anderen Naturgefahren im Hochgebirge wie beispielsweise Erdrutsche oder Lawinen, sehr selten. Daher sind direkte Beobachtungen und Messdaten, welche z.B. die Art des Ausbruchs oder die hydraulischen Eigenschaften der sich stromabwärts ausbreitenden Strömung festhalten, nur sehr begrenzt vorhanden, was eine der größten Herausforderungen für die gegenwärtige Forschung an natürlichen Dammbruchfluten darstellt. Trotz der Seltenheit von Ausbrüchen von Gletscherseen (glacial lake outburst floods oder GLOFs) beziehungsweise von durch Erdrutschmassen aufgestauten Seen (landslide-dammed lake outburst floods oder LLOFs), ist dieser Fluttyp für eine hohe Anzahl an dokumentierten Opferzahlen und Schäden weltweit verantwortlich. Ein Großteil dieser Schäden wurde dabei nach Aufzeichnungen seit Beginn des 20. Jahrhunderts durch nur wenige Ereignisse verursacht. Natürliche Dammbruchfluten stellen somit eine ernsthafte Gefahr für weiter talabwärts gelegene Siedlungen und die Infrastruktur in den Hochgebirgsregionen der Welt dar. Die vorliegende Dissertation fokussiert sich räumlich auf den Himalaya und die angrenzenden Gebirgszüge – die sogenannte Großregion des Himalayas – welche sich über eine Fläche von 0.89 Millionen km² erstreckt. Obwohl sich in diesem Gebirgsgürtel seit Beginn des 20. Jahrhunderts möglicherweise Hunderte natürlicher Dammbruchfluten ereignet haben, liegen nur wenige Daten über derartige Ereignisse vor. Aktuelle Prognosen der Veränderungen der Kryosphäre in diesem Gebiet zeigen einen zunehmenden Verlust an Gletschermasse und das Abtauen von Permafrostböden, was wahrscheinlich wiederum zu einem allgemeinen Anstieg des in den Gletscherseen gespeicherten Wasservolumens sowie zur Destabilisierung der Berghänge in der Großregion des Himalayas führen wird. In Zukunft ist somit auch eine Zunahme des Potenzials für solche Überschwemmungen in den zunehmend dichter besiedelten Tälern dieses Gebirgsgürtels wahrscheinlich. Ein Paradebeispiel eines solchen gefährdeten Himalaya-Tals ist das Pokhara Tal in Nepal, welches vom Seti Khola („Khola“ heißt auf Nepalesisch Fluss) entwässert wird, dem Hochgebirgsfluss mit dem steilsten topographischen Gefälle im zentralen Himalaya. Das Pokhara Tal beherbergt die gleichnamige Stadt Pokhara, welche mit einer Einwohnerzahl von über 500.000 die zweitgrößte und am schnellsten wachsende Stadt Nepals darstellt. Ein Teil der Einwohner Pokharas lebt in informellen Siedlungen, welche sich oftmals direkt im Überschwemmungsgebiet des Seti Khola befinden. Trotz zahlreicher Hinweise auf frühere natürliche Dammbruchfluten entlang dieses Flusses aus jüngerer und historischer Zeit, wurden diese Ereignisse bisher kaum quantifiziert. Die Hauptmotivation meiner Dissertation besteht darin, den Mangel an Daten über vergangene und potenzielle zukünftige natürliche Dammbruchfluten in der Großregion des Himalayas zu überwinden, sowohl auf regionaler als auch auf lokaler Ebene. Zu diesem Zweck habe ich ein Inventar von mehr als 3.000 hinter Moränen aufgestauten Gletscherseen erstellt, von welchen etwa 1% in den letzten vier Jahrzehnten einen dokumentierten GLOF produziert haben. Auf dieser Datengrundlage testete ich, ob eine Reihe von Prädiktoren, die in bisherigen GLOF-Studien häufig verwendet wurden, statistisch relevant für die Abschätzung der Suszeptibilität von moränengedämmten Gletscherseen für GLOFs in der Vergangenheit sind. Zu diesem Zweck habe ich vier Bayesische hierarchische logistische Regressionsmodelle aufgestellt, mit welchen ich die Glaubwürdigkeit der Prädiktoren Seefläche, Seeflächendynamik, Seehöhe über dem Meeresspiegel, Gletschermassenbilanz und „Monsunalität“ (definiert als der Anteil des während der Sommermonate fallenden Niederschlages am Jahresniederschlag) untersuchen konnte. Die Anwendung eines hierarchischen Ansatzes mit zwei Ebenen ermöglichte dabei die Berücksichtigung einer möglichen räumlichen Variabilität der GLOF-Suszeptibilität im Untersuchungsgebiet, was in bisherigen Studien dieser Größenordnung bislang nicht berücksichtigt worden ist. Die Modellergebnisse deuten darauf hin, dass Gletscherseen im Nyainqentanglha und im östlichen Himalaya, also Regionen mit stark negativen Gletschermassenbilanzen, eine höhere Suszeptibilität für GLOFs hatten als Gletscherseen in Regionen mit weniger stark negativen oder stabilen Gletschermassenbilanzen. Größere Gletscherseen in größeren Einzugsgebieten zeigten durchschnittlich ebenfalls eine höhere Wahrscheinlichkeit für einen nachgewiesenen GLOF in den letzten vier Jahrzehnten. Ein Einfluss der Monsunalität, der Höhe des Sees über dem Meeresspiegel sowie der Dynamik der Seefläche waren jedoch uneindeutig in den Modellen. Dieses Ergebnis stellt die Gültigkeit eines raschen Seewachstums als Indikator eines bevorstehenden GLOFs, ein in regionalen GLOF-Studien häufig angewandter Prädiktor, in Frage. Auf lokaler Ebene kann meine Dissertation dabei helfen, die Datenknappheit bezüglich der Fließcharakteristika der katastrophalen Flut vom Mai 2012 mit 72 Opfern entlang des Seti Khola sowie deren potenziell viel größeren Vorgängerereignissen des 12. bis 14. Jahrhunderts, welche >1 km³ an Sedimenten deponierten, zu überwinden. Um Spitzenabflüsse, Fließtiefen und Fließgeschwindigkeiten der 2012 Flut zu rekonstruieren, habe ich die Erstreckung der Flutsedimente aus RapidEye-Satellitenbildern kartiert und diese als Proxy für die Grenzen der Überflutungsflächen verwendet. Um letztere auch für die mittelalterlichen Ereignisse einzuschätzen, nutzte ich die Aufschlüsse von Stauwasserablagerungen (slackwater deposits) in den Talverfüllungen der Tributäre des Seti Kholas. Mit Hilfe stationärer hydrodynamischer Modelle simulierte ich eine breite Palette plausibler Fließszenarien, von meteorologischen Fluten (1.000 m³ s-1) bis hin zu kataklystischen Ausbrüchen (600.000 m³ s-1). Die Abschätzung der wahrscheinlichen anfänglichen Spitzenabflüsse der rezenten und mittelalterlichen Überschwemmungen geschah dabei auf der Grundlage der geringsten räumlichen Diskrepanz zwischen den sedimentären Beweisen und den simulierten Überflutungsgrenzen. Meine eindimensionalen Flutsimulationen mit der Modellierungssoftware HEC-RAS ergaben, dass die Flut von 2012 höchstwahrscheinlich einen Spitzenabfluss von 3.700 m³ s-1 im oberen Abschnitt des Seti Khola aufwies, sich jedoch beim Erreichen der etwa 15 km flussabwärts gelegenen Randbereiche Pokharas bereits auf 500 m³ s-1 abgeschwächt hatte. Um Größenordnungen höhere zweidimensionale Flutsimulationen mit der Modellierungssoftware ANUGA zeigen extensive Rückstaueffekte in den Haupttributären. Die Grenzen dieser Rückstaueffekte stimmen mit den Vorkommen von Stauwasserablagerungen überein und belegen somit den fluviatilen Charakter der mittelalterlichen Sedimentationsereignisse. Diese Dissertation liefert somit den ersten quantitativen Beweis für die Hypothese, dass die mächtigen mittelalterlichen Sedimentablagerungen des Pokhara Tals durch von starken Erdbeben ausgelösten Ausbrüchen großer ehemaliger Gletscherseen im Oberlauf des Seti Khola zusammenhängen, welche Fluten mit Spitzenabflüssen von >50.000 m³ s-1 produzierten. Aufbauend auf diesem verbesserten Verständnis vergangener Fluten entlang des Seti Khola analysierte ich die Auswirkungen potenzieller zukünftiger natürlicher Dammbruchfluten auf die Landbedeckung des Pokhara Tals, einschließlich Siedlungsfläche und Infrastruktur, anhand von hochauflösenden Satelliten- und OpenStreetMap-Daten. Meine HEC-RAS-Simulationen von zehn Flutszenarien mit Spitzenabflüssen zwischen 1.000 und 10.000 m³ s-1 ergaben, dass die relative Überflutungsgefahr in den nordwestlichen Randbereichen Pokharas am höchsten ist. Dort kann eine hydraulische Aufstauung oberhalb von engen Schluchten zu lokal höheren Überflutungstiefen führen, was eine potenzielle Gefahr für die sich in diesen Flussabschnitten befindenden informellen Siedlungen und Kiesabbaulokalitäten darstellt. Meine Analyse der Bebauungsdynamik zweier potenziell betroffener informeller Siedlungen mithilfe von hochauflösenden, multi-temporalen RapidEye-, PlanetScope- und Google Earth-Satellitenbildern ergab, dass sich die Exposition in etwas mehr als einem Jahrzehnt (2008 bis 2021) lokal um das Drei- bis Zwanzigfache erhöhte. Die vorliegende Dissertation liefert neue quantitative Erkenntnisse einerseits über die Suszeptibilität von moränengedämmten Seen für plötzliche Gletscherseeausbrüche (GLOFs) auf regionaler Ebene und andererseits, auf lokaler Ebene, über die Strömungsdynamik der sich talabwärtsbewegenden Flutwellen vergangener Ereignisse. Meine anschließende Untersuchung der Auswirkungen potenzieller künftiger natürlicher Dammbruchfluten auf exponierte Infrastruktur und (informelle) Siedlungen kann einen wertvollen Beitrag zu zukünftigen Multi-Risikobewertung für das Pokhara Tal leisten. KW - outburst floods KW - Bayesian multi-level logistic regression KW - hydrodynamic modelling KW - Himalayas KW - GLOF KW - Nepal KW - flood hazard KW - Bayes'sche Mehrebenenregression KW - GLOF (Gletscherseeausbruchsflut) KW - Himalaya-Gebirge KW - Nepal KW - Flutgefährdung KW - hydrodynamische Modellierung KW - Dammbruchfluten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569972 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Burgold, Julia T1 - Erfahrung und Reflexion von Obdachlosigkeit BT - Zur Verständigung über Obdachlosigkeit in der Praxis des Slumming T2 - Potsdamer Geographische Praxis N2 - Die Arbeit gibt einen Einblick in die Verständigungspraxen bei Stadtführungen mit (ehemaligen) Obdachlosen, die in ihrem Selbstverständnis auf die Herstellung von Verständnis, Toleranz und Anerkennung für von Obdachlosigkeit betroffene Personen zielen. Zunächst wird in den Diskurs des Slumtourismus eingeführt und, angesichts der Vielfalt der damit verbundenen Erscheinungsformen, Slumming als organisierte Begegnung mit sozialer Ungleichheit definiert. Die zentralen Diskurslinien und die darin eingewobenen moralischen Positionen werden nachvollzogen und im Rahmen der eigenommenen wissenssoziologischen Perspektive als Ausdruck einer per se polykontexturalen Praxis re-interpretiert. Slumming erscheint dann als eine organisierte Begegnung von Lebensformen, die sich in einer Weise fremd sind, als dass ein unmittelbares Verstehen unwahrscheinlich erscheint und genau aus diesem Grund auf der Basis von gängigen Interpretationen des Common Sense ausgehandelt werden muss. Vor diesem Hintergrund untersucht die vorliegende Arbeit, wie sich Teilnehmer und Stadtführer über die Erfahrung der Obdachlosigkeit praktisch verständigen und welcher Art das hierüber erzeugte Verständnis für die im öffentlichen Diskurs mit vielfältigen stigmatisierenden Zuschreibungen versehenen Obdachlosen ist. Dabei interessiert besonders, in Bezug auf welche Aspekte der Erfahrung von Obdachlosigkeit ein gemeinsames Verständnis möglich wird und an welchen Stellen dieses an Grenzen gerät. Dazu wurden die Gesprächsverläufe auf neun Stadtführungen mit (ehemaligen) obdachlosen Stadtführern unterschiedlicher Anbieter im deutschsprachigen Raum verschriftlicht und mit dem Verfahren der Dokumentarischen Methode ausgewertet. Die vergleichende Betrachtung der Verständigungspraxen eröffnet nicht zuletzt eine differenzierte Perspektive auf die in den Prozessen der Verständigung immer schon eingewobenen Anerkennungspraktiken. Mit Blick auf die moralische Debatte um organisierte Begegnungen mit sozialer Ungleichheit wird dadurch eine ethische Perspektive angeregt, in deren Zentrum Fragen zur Vermittlungsarbeit stehen. N2 - The book provides an insight into the social practices of mutual understanding occurring during city tours with former homeless people, which operate with the goal of increasing understanding, tolerance and recognition for people affected by homelessness. First, the discourse of slum tourism is reviewed and, considering the diversity of this phenomena, the term “slumming” is defined as an organized encounter with social inequality. The central lines of discourse and the moral positions woven into them are thus traced and reinterpreted within the framework of the adopted sociological perspective of knowledge as an expression of a polycontextural practice per se. Through this lens, slumming then appears as an organized encounter of ways of life that are alien to each other in a way that defies immediate understanding, and for this very reason must be negotiated on the basis of common sense interpretations. Against this background, this study examines how participants and city guides communicate about the experience of homelessness and focusses on the thereby generated kind of understanding of homelessness. Of particular interest here are the possibilities and limits of the mutual understanding between the former homeless guides and their predominantly bourgeois attendees. For this purpose, the transcripts of conversations taken during nine city tours from different providers in German-speaking countries were analyzed using the procedure of the documentary method. This comparative examination offers not least a differentiated perspective on the practices of recognition that are always inherent in the processes of understanding. Concerning the moral debate surrounding organized encounters with social inequality, this ultimately suggests a shift in the ethical framework away from the issue of representation toward one of mediation. T3 - Potsdamer Geographische Praxis - 18 KW - Slumming KW - slumming KW - Slumtourismus KW - slum tourism KW - soziale Ungleichheit KW - social inequality KW - Obdachlosigkeit KW - Homelessness KW - Rekonstruktive Sozialforschung KW - reconstructive social research KW - Dokumentarische Methode KW - documentary method KW - Systemtheorie KW - systems theory KW - Polykontexturalität KW - polycontexturality KW - Stadtführungen KW - guided tours KW - Interaktion KW - interaction KW - Stigmatisierung KW - stigmatization Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553932 SN - 978-3-86956-541-5 SN - 2194-1599 SN - 2194-1602 IS - 18 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Eckert, Silvia T1 - Trait variation in changing environments: Assessing the role of DNA methylation in non-native plant species T1 - Merkmalsvariation in sich verändernden Umgebungen: Bewertung der Rolle der DNA-Methylierung bei nicht einheimischen Pflanzenarten N2 - The increasing introduction of non-native plant species may pose a threat to local biodiversity. However, the basis of successful plant invasion is not conclusively understood, especially since these plant species can adapt to the new range within a short period of time despite impoverished genetic diversity of the starting populations. In this context, DNA methylation is considered promising to explain successful adaptation mechanisms in the new habitat. DNA methylation is a heritable variation in gene expression without changing the underlying genetic information. Thus, DNA methylation is considered a so-called epigenetic mechanism, but has been studied in mainly clonally reproducing plant species or genetic model plants. An understanding of this epigenetic mechanism in the context of non-native, predominantly sexually reproducing plant species might help to expand knowledge in biodiversity research on the interaction between plants and their habitats and, based on this, may enable more precise measures in conservation biology. For my studies, I combined chemical DNA demethylation of field-collected seed material from predominantly sexually reproducing species and rearing offsping under common climatic conditions to examine DNA methylation in an ecological-evolutionary context. The contrast of chemically treated (demethylated) plants, whose variation in DNA methylation was artificially reduced, and untreated control plants of the same species allowed me to study the impact of this mechanism on adaptive trait differentiation and local adaptation. With this experimental background, I conducted three studies examining the effect of DNA methylation in non-native species along a climatic gradient and also between climatically divergent regions. The first study focused on adaptive trait differentiation in two invasive perennial goldenrod species, Solidago canadensis sensu latu and S. gigantea AITON, along a climate gradient of more than 1000 km in length in Central Europe. I found population differences in flowering timing, plant height, and biomass in the temporally longer-established S. canadensis, but only in the number of regrowing shoots for S. gigantea. While S. canadensis did not show any population structure, I was able to identify three genetic groups along this climatic gradient in S. gigantea. Surprisingly, demethylated plants of both species showed no change in the majority of traits studied. In the subsequent second study, I focused on the longer-established goldenrod species S. canadensis and used molecular analyses to infer spatial epigenetic and genetic population differences in the same specimens from the previous study. I found weak genetic but no epigenetic spatial variation between populations. Additionally, I was able to identify one genetic marker and one epigenetic marker putatively susceptible to selection. However, the results of this study reconfirmed that the epigenetic mechanism of DNA methylation appears to be hardly involved in adaptive processes within the new range in S. canadensis. Finally, I conducted a third study in which I reciprocally transplanted short-lived plant species between two climatically divergent regions in Germany to investigate local adaptation at the plant family level. For this purpose, I used four plant families (Amaranthaceae, Asteraceae, Plantaginaceae, Solanaceae) and here I additionally compared between non-native and native plant species. Seeds were transplanted to regions with a distance of more than 600 kilometers and had either a temperate-oceanic or a temperate-continental climate. In this study, some species were found to be maladapted to their own local conditions, both in non-native and native plant species alike. In demethylated individuals of the plant species studied, DNA methylation had inconsistent but species-specific effects on survival and biomass production. The results of this study highlight that DNA methylation did not make a substantial contribution to local adaptation in the non-native as well as native species studied. In summary, my work showed that DNA methylation plays a negligible role in both adaptive trait variation along climatic gradients and local adaptation in non-native plant species that either exhibit a high degree of genetic variation or rely mainly on sexual reproduction with low clonal propagation. I was able to show that the adaptive success of these non-native plant species can hardly be explained by DNA methylation, but could be a possible consequence of multiple introductions, dispersal corridors and meta-population dynamics. Similarly, my results illustrate that the use of plant species that do not predominantly reproduce clonally and are not model plants is essential to characterize the effect size of epigenetic mechanisms in an ecological-evolutionary context. N2 - Die zunehmende Eintragung nicht-heimischer Pflanzenarten kann eine Gefahr für die lokale Artenvielfalt darstellen. Die Grundlagen einer erfolgreichen pflanzlichen Ausbreitung sind jedoch nicht abschließend geklärt, zumal sich diese Arten innerhalb kurzer Zeit an das neue Verbreitungsgebiet anpassen können trotz anfänglich reduzierter genetischer Vielfalt der Startpopulationen. In diesem Kontext gilt DNA-Methylierung als vielversprechend, um erfolgreiche Anpassungsmechanismen im neuen Lebensraum zu erklären. Bei der DNA-Methylierung handelt es sich um eine vererbbare Variation der Genaktivität, ohne dass die zugrundeliegende genetische Erbinformation verändert wird. Damit gehört DNA-Methylierung zu den sogenannten epigenetischen Mechanismen, wurde jedoch vorwiegend bei sich klonal vermehrenden Pflanzenarten oder genetischen Modellpflanzen untersucht. Ein Verständnis dieses epigenetischen Mechanismus im Zusammenhang mit nicht-einheimischen, sich vorwiegend sexuell reproduzierenden Pflanzenarten erweitert das Wissen in der Biodiversitätsforschung zur Interaktion zwischen Pflanzen und ihrem Lebensraum und kann, darauf aufbauend, präzisere Maßnahmen in der Naturschutzbiologie ermöglichen. Für meine Studien kombinierte ich die chemische DNA-Demethylierung von im Freiland gesammeltem Samenmaterial sich vorwiegend sexuell fortpflanzender Arten und die Aufzucht unter gemeinsamen klimatischen Bedingungen, um DNA-Methylierung im ökologisch-evolutionären Kontext zu untersuchen. Der Kontrast von chemisch behandelten (demethylierten) Pflanzen, deren Methylierungsvariation nun künstlich verringert war, und unbehandelten Kontrollpflanzen derselben Art ermöglichte mir die Auswirkung dieses Mechanismus auf adaptive Merkmalsvariationen und lokale Anpassung zu studieren. Vor diesem experimentellen Hintergrund führte ich drei Studien durch, um die Auswirkung von DNA-Methylierung bei nicht-einheimischen Pflanzenarten entlang eines klimatischen Gradienten und zwischen zwei klimatisch unterschiedlichen Regionen zu untersuchen. Die erste Studie konzentrierte sich auf adaptive Merkmalsveränderungen bei Nachkommen von zwei invasiven, mehrjährigen Goldrutenarten, Solidago canadensis sensu latu und S. gigantea AITON, entlang eines Klimagradienten von mehr als 1000 km Länge in Zentraleuropa. Ich fand graduelle Unterschiede im Blühzeitpunkt, in der Pflanzenhöhe und der Biomasse bei der zeitlich länger etablierten S. canadensis, bei S. gigantea jedoch nur in der Anzahl der nachwachsenden Triebe. Während S. canadensis keinerlei Populationsstruktur aufwies, konnte ich bei S. gigantea drei genetische Gruppen entlang dieses Klimagradienten identifizieren. Überraschenderweise zeigten demethylierte Pflanzen beider Arten keine Veränderung in der überwiegenden Anzahl der untersuchten Merkmale. In der darauffolgenden zweiten Studie konzentrierte ich mich auf die länger etablierte Goldrutenart S. canadensis und verwendete molekulare Analysen, um räumliche epigenetische und genetische Populationunterschiede aus den Exemplaren der vorhergehenden Studie abzuleiten. Ich fand schwache genetische aber keine epigenetische räumliche Variation zwischen den Populationen. Zusätzlich konnte ich einen genetischen und einen epigenetischen Marker identifizieren, welcher potentiell unter Selektion stehen könnte. Allerdings bestätigten die Ergebnisse dieser Studie erneut, dass DNA-Methylierung bei S. canadensis kaum in die Anpassung an das neue Verbreitungsgebiet involviert zu sein scheint. Schließlich führte ich eine dritte Studie durch, in welcher ich Samen kurzlebiger Pflanzenarten reziprok zwischen zwei klimatisch unterschiedlichen Regionen in Deutschland transplantierte, um lokale Anpassung auf Ebene der Pflanzenfamilien zu untersuchen. Zu diesem Zweck nutze ich vier Pflanzenfamilien (Amaranthaceae, Asteraceae, Plantaginaceae, Solanaceae), wobei ich hier auch zwischen nicht-heimischen und heimischen Pflanzenarten verglich. Beide Regionen lagen mehr als 600 Kilometer voneinander entfernt und wiesen entweder ein gemäßigt-ozeanisches oder gemäßigt-kontinentales Klima auf. In dieser Studie zeigte sich für einige—sowohl nicht-einheimische als auch einhimische—Arten eine Fehlanpassung an die eigenen lokalen Bedingungen. In demethylierten Individuen der untersuchten Pflanzenarten wirkte sich die DNA-Methylierung widersprüchlich, aber artspezifisch auf das Überleben und die Biomasseproduktion aus. Die Ergebnisse dieser Studie unterstreichen, dass DNA-Methylierung einen vernachlässigbaren Beitrag zur lokalen Anpassung bei den untersuchten nicht-heimischen, aber auch einheimischen Arten leistete. Zusammenfassend konnte ich mit dieser Arbeit festellen, dass DNA-Methylierung bei nicht-einheimischen Pflanzenarten eine untergeordnete Rolle sowohl bei der adaptiven Merkmalsvariation entlang von Klimagradienten als auch der lokalen Anpassung an klimatisch unterschiedliche Regionen spielt, wenn diese Pflanzenarten eine hohe genetische Vielfalt aufweisen und sich hauptsächlich sexuell vermehren. Ich konnte zeigen, dass der Anpassungserfolg dieser nicht-einheimischen Pflanzenarten kaum durch DNA-Methylierung erklärbar ist, sondern vielmehr eine mögliche Folge mehrfacher Eintragungen, von Ausbreitungskorridoren und Meta-Populationsdynamiken sein könnte. Die Ergebnisse dieser Studien verdeutlichen ebenso, dass die Verwendung von Pflanzenarten, die sich nicht überwiegend klonal vermehren und keine genetischen Modellpflanzen sind, unerlässlich ist, um die Effektstärke epigenetischer Mechanismen im ökologisch-evolutionären Kontext zu charakterisieren. KW - common-garden experiment KW - reciprocal transplant experiment KW - epigenetics KW - cytosine methylation KW - zebularine KW - adaptive differentiation KW - local adaptation KW - microsatellites KW - Solidago canadensis KW - Solidago gigantea KW - Amaranthus retroflexus KW - Chenopodium album KW - Erigeron canadensis KW - Erigeron annuus KW - Lactuca serriola KW - Senecio vulgaris KW - Sonchus oleraceus KW - Tripleurospermum inodorum KW - Veronica persica KW - Plantago major KW - Datura stramonium KW - Solanum nigrum KW - latitudinal clines KW - population structure KW - invasive KW - ruderal KW - non-native KW - Central Europe KW - Germany KW - AFLP KW - MSAP KW - spatial autocorrelation KW - genome scan KW - Gemeinschaftsgarten-Experiment KW - reziprokes Transplantationsexperiment KW - Epigenetik KW - Cytosin-Methylierung KW - Zebularin KW - adaptive Differenzierung KW - lokale Anpassung KW - Mikrosatelliten KW - Breitengrad KW - Ökokline KW - Populationsstruktur KW - invasiv KW - ruderal KW - nicht-einheimisch KW - Mitteleuropa KW - Deutschland KW - AFLP KW - MSAP KW - räumliche Autokorrelation KW - Genom-Scan Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568844 ER - TY - THES A1 - Kuschel, Jenny T1 - Steuerung im Lehrkräftefortbildungssystem in Deutschland T1 - Governance in teacher professional development system in Germany N2 - Lehrkräftefortbildungen bieten in Deutschland im Rahmen der dritten Phase der Lehrkräftebildung eine zentrale Lerngelegenheit für die Kompetenzentwicklung der Lehr-kräfte (Avalos, 2011; Guskey & Yoon, 2009). In dieser Phase können Lehrkräfte aus einem Angebot an berufsbegleitenden Lerngelegenheiten wählen, die auf die Anpassung und Weiterentwicklung ihrer professionellen Kompetenzen abzielen. Im Rahmen dieser Professionalisierungsmaßnahmen haben Lehrkräfte Gelegenheit zur Reflexion und Weiterentwicklung ihrer Unterrichtspraxis. Deshalb sind Lehrkräftefortbildungen auch für die Entwicklung von Unterrichtsqualität und das Lernen der Schüler:innen bedeutsam (Lipowsky, 2014). Ergebnisse der Nutzungsforschung zeigen jedoch, dass das Fortbildungsangebot nicht von allen Lehrkräften im vollen Umfang genutzt wird und sich Lehrkräfte in dem Nutzungsumfang dieser beruflichen Lerngelegenheiten unterscheiden (Hoffmann & Richter, 2016). Das hat zur Folge, dass das Wirkpotenzial des Fortbildungsangebots nicht voll ausgeschöpft werden kann. Um die Nutzung von Lehrkräftefortbildungen zu fördern, werden auf unterschiedlichen Ebenen verschiedene Steuerungsinstrumente von Akteuren eingesetzt. Die Frage nach der Steuerungsmöglichkeit im Rahmen der dritten Phase der Lehrkräftebildung ist bislang jedoch weitestgehend unbearbeitet geblieben. Die vorliegende Arbeit knüpft an die bestehende Forschung zur Lehrkräftefortbildung an und nutzt die theoretische Perspektive der Educational Governance, um im Rahmen von vier Teilstudien der Frage nachzugehen, welche Instrumente und Potenziale der Steue-rung auf den unterschiedlichen Ebenen des Lehrkräftefortbildungssystems bestehen und wie diese durch die verschiedenen politischen und schulischen Akteure umgesetzt werden. Außerdem soll der Frage nachgegangen werden, wie wirksam die genutzten Steuerungsinstrumente im Hinblick auf die Nutzung von Lehrkräftefortbildungen sind. Die übergeordnete Fragestellung wird vor dem Hintergrund eines für das Lehrkräftefortbildungssystem abgelei-teten theoretischen Rahmenmodells in Form eines Mehrebenenmodells bearbeitet, welches als Grundlage für die theoretische Verortung der nachfolgenden empirischen Untersuchungen zur Fortbildungsnutzung und der Wirksamkeit verschiedener Steuerungsinstrumente dient. Studie I nimmt vor diesem Hintergrund die Ebene der politischen Akteure in den Blick und geht der Frage nach, wie bedeutsam die gesetzliche Fortbildungspflicht für die Fortbildungsbeteiligung von Lehrkräften ist. Hierzu wurde untersucht, inwiefern Zusammenhänge zwischen der Fortbildungsteilnahme von Lehrkräften und der Zugehörigkeit zu Bundesländern mit und ohne konkreter Fortbildungsverpflichtung sowie zu Bundesländern mit und ohne Nachweispflicht absolvierter Fortbildungen bestehen. Dazu wurden Daten aus dem IQB-Ländervergleich 2011 und 2012 sowie dem IQB-Bildungstrend 2015 mittels logistischer und linearer Regressionsmodelle analysiert. Studie II und Studie III widmen sich den Rahmenbedingungen für schulinterne Fortbildungen. Studie II befasst sich zunächst mit schulformspezifischen Unterschieden bei der Wahl der Fortbildungsthemen. Studie III untersucht das schulinterne Fortbildungsangebot hinsichtlich des Nutzungsumfangs und des Zusammenhangs zwischen Schulmerkmalen und der Nutzung unterschiedlicher Fortbildungsthemen. Darüber hinaus wird ein Vergleich zwi-schen den beiden Angebotsformaten hinsichtlich des jeweiligen Anteils an thematischen Fortbildungsveranstaltungen vorgenommen. Hierzu wurden Daten der Fortbildungsdatenbank des Landes Brandenburg ausgewertet. Neben der Untersuchung der Fortbildungsteilnahme im Zusammenhang mit administrativen Vorgaben und der Nutzung des schulinternen Fortbildungsangebots auf Schulebene wurde zur Bearbeitung der übergeordneten Forschungsfrage der vorliegenden Arbeit in der Studie IV darüber hinaus eine Untersuchung des Einsatzes von Professionalisierungsmaßnahmen im Rahmen schulischer Personalentwicklung durchgeführt. Durch die qualitative Studie IV wurde ein vertiefender Einblick in die schulische Praxis ermöglicht, um die Kenntnisse aus den quantitativen Studien I bis III zu ergänzen. Im Rahmen einer qualitati-ven Interviewstudie wurde der Frage nachgegangen werden, wie Schulleitungen ausgezeichneter Schulen Personalentwicklung auffassen, welche Informationsquellen sie hierbei mit einbeziehen und welche Maßnahmen sie nutzen und in diesem Sinne Personalentwicklung als ein Instrument für Organisationsentwicklung einsetzen. Im abschließenden Kapitel der vorliegenden Arbeit werden die zentralen Ergebnisse der durchgeführten Studien zusammenfassend diskutiert. Die Ergebnisse der Arbeit deuten insgesamt darauf hin, dass Akteure auf den jeweiligen Ebenen direkte und indirekete Steuerungsinstrumente mit dem Ziel einsetzen, die Nutzung des zur Verfügung stehenden Angebots zu erhöhen, allerdings erzielen sie mit den genutzten Instrumenten nicht die gewünschte Steuerungswirkung. Da sie weder mit beruflichen Sanktionen noch mit Anreizen verknüpft sind, fehlt es den bestehenden Steuerungsinstrumenten an Durchsetzungsmacht. Außerdem wird das Repertoire an möglichen Steuerungsinstrumenten von den beteiligten Akteuren nicht ausgeschöpft. Die Ergebnisse dieser Arbeit bieten somit die Grundlage für anknüpfende Forschungsarbeiten und geben Anreize für mögliche Implikationen in der Praxis des Fortbildungssystems und der Bildungspolitik. N2 - In Germany teacher professional development programs provide a key learning opportunity for teacher competence development as part of the third phase of teacher education (Avalos, 2011; Guskey & Yoon, 2009). In this phase, teachers can choose from a range of professional learning opportunities aimed at adapting and developing their professional competencies. As part of these professionalization activities, teachers have opportunities to reflect on and develop their teaching practice. Therefore, teacher professional development is also significant for the development of teaching quality and student learning (Lipowsky, 2014). However, findings from utilization research show that the professional development program is not used to the full extent by all teachers and teachers differ in the extent to which they participate in these professional learning opportunities (Hoffmann & Richter, 2016). The consequence is that the potential impact of the professional development offer cannot be fully exploited. To promote the use of teacher professional development courses, various steering instruments are used by actors at different levels. However, the question of how to steer the third phase of teacher education has remained largely unaddressed. This paper builds on the existing research on teacher education and uses the theoretical perspective of educational governance to investigate the question of which instruments and capabilities of governance exist at the different levels of the teacher professional development system and how they are implemented by the various political and school actors. In addition, the question will be addressed as to how effective the steering instruments used are regarding the use of teacher professional development courses. The overall question will be addressed against the background of a theoretical framework model derived for the teacher training system in the form of a multi-level model, which serves as the basis for the theoretical classification of the following empirical studies on the use of training and the effectiveness of various steering instruments. Against this background, the first study focuses on the level of political actors and examines the importance of existing legal requirements for teachers’ participation in professional development. Therefore, the study investigates relationships between teachers’ participation in professional development courses and two types of legal requirements: a) specification of requirement to participate in professional training; b) requirement to document completed trainings. For this purpose, data of the German National Assessment Study in 2011, 2012 and 2015, were analyzed using logistic and linear regression models. Study II and study III are concerned with the framework conditions for in-school professional development activities. Study II first looks at school-specific differences in the choice of professional development topics. Study III examines the range of professional development courses offered in schools regarding the extent of use and the relationship between school characteristics and the use of different professional development topics. In addition, a comparison is made between the in-school and school-external professional development courses regarding the to the respective proportion of thematic topics. For this purpose, data from the electronic database on teacher’s professional development activities in the state of Brandenburg were evaluated. In addition to examining professional development participation in relation to legal requirements and the use of in-school professional development activities at the school level, study IV also examined the use of personnel development measures in the context of school-based staff development to address the overarching research question of this thesis. Within a qualitative interview study, the questions were investigated as to how school administrators of excellent schools perceive personnel development, which sources of information they include in this process, and which measures they use and, in this sense, employ professional development as an instrument for organizational development. In the concluding chapter, the key findings of the conducted studies are discussed in summary. Overall, the results of the study indicate that actors at the respective levels use direct and indirect steering instruments with the aim of increasing the use of the available professional development supply, but they do not achieve the desired effect with the instruments used. Since they are neither linked to professional sanctions nor to incentives, the existing governance instruments lack enforcement power. Moreover, the repertoire of possible instruments is not exhausted by the actors involved. The results of this paper thus provide the basis for further research and stimulate possible implications in the practice of the teacher professional development system and education policy. KW - Lehrkräftebildung KW - Steuerung KW - Lehrkräftefortbildungen KW - Mehrebenensystem KW - teacher education KW - teacher professional development KW - multi-level system KW - governance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562168 ER - TY - THES A1 - Milles, Alexander T1 - Sources and consequences of intraspecific trait variation in movement behaviour T1 - Ursachen und Konsequenzen intraspezifischer Merkmalsvariation im Bewegungsverhalten N2 - Variation in traits permeates and affects all levels of biological organisation, from within individuals to between species. Yet, intraspecific trait variation (ITV) is not sufficiently represented in many ecological theories. Instead, species averages are often assumed. Especially ITV in behaviour has only recently attracted more attention as its pervasiveness and magnitude became evident. The surge in interest in ITV in behaviour was accompanied by a methodological and technological leap in the field of movement ecology. Many aspects of behaviour become visible via movement, allowing us to observe inter-individual differences in fundamental processes such as foraging, mate searching, predation or migration. ITV in movement behaviour may result from within-individual variability and consistent, repeatable among-individual differences. Yet, questions on why such among-individual differences occur in the first place and how they are integrated with life-history have remained open. Furthermore, consequences of ITV, especially of among-individual differences in movement behaviour, on populations and species communities are not sufficiently understood. In my thesis, I approach timely questions on the sources and consequences of ITV, particularly, in movement behaviour. After outlining fundamental concepts and the current state of knowledge, I approach these questions by using agent-based models to integrate concepts from behavioural and movement ecology and to develop novel perspectives. Modern coexistence theory is a central pillar of community ecology, yet, insufficiently considers ITV in behaviour. In chapter 2, I model a competitive two-species system of ground-dwelling, central-place foragers to investigate the consequences of among-individual differences in movement behaviour on species coexistence. I show that the simulated among-individual differences, which matched with empirical data, reduce fitness differences betweem species, i.e. provide an equalising coexistence mechanism. Furthermore, I explain this result mechanistically and, thus, resolve an apparent ambiguity of the consequences of ITV on species coexistence described in previous studies. In chapter 3, I turn the focus to sources of among-individual differences in movement behaviour and their potential integration with life-history. The pace-of-life syndrome (POLS) theory predicts that the covariation between among-individual differences in behaviour and life-history is mediated by a trade-off between early and late reproduction. This theory has generated attention but is also currently scrutinised. In chapter 3, I present a model which supports a recent conceptual development that suggests fluctuating density-dependent selection as a cause of the POLS. Yet, I also identified processes that may alter the association between movement behaviour and life-history across levels of biological organization. ITV can buffer populations, i.e. reduce their extinction risk. For instance, among-individual differences can mediate portfolio effects or increase evolvability and, thereby, facilitate rapid evolution which can alleviate extinction risk. In chapter 4, I review ITV, environmental heterogeneity, and density-dependent processes which constitute local buffer mechanisms. In the light of habitat isolation, which reduces connectivity between populations, local buffer mechanisms may become more relevant compared to dispersal-related regional buffer mechanisms. In this chapter, I argue that capacities, latencies, and interactions of local buffer mechanisms should motivate more process-based and holistic integration of local buffer mechanisms in theoretical and empirical studies. Recent perspectives propose to apply principles from movement and community ecology to study filamentous fungi. It is an open question whether and how the arrangement and geometry of microstructures select for certain movement traits, and, thus, facilitate coexistence-stabilising niche partitioning. As a coauthor of chapter 5, I developed an agent-based model of hyphal tips navigating in soil-like microstructures along a gradient of soil porosity. By measuring network properties, we identified changes in the optimal movement behaviours along the gradient. Our findings suggest that the soil architecture facilitates niche partitioning. The core chapters are framed by a general introduction and discussion. In the general introduction, I outline fundamental concepts of movement ecology and describe theory and open questions on sources and consequences of ITV in movement behaviour. In the general discussion, I consolidate the findings of the core chapters and critically discuss their respective value and, if applicable, their impact. Furthermore, I emphasise promising avenues for further research. N2 - Die Variation von Merkmalen durchdringt und beeinflusst alle Ebenen der biologischen Organisation, von Individuen bis hin zu Artgemeinschaften. Dennoch wird die intraspezifische Merkmalsvariation (ITV) in vielen ökologischen Theorien nicht ausreichend berücksichtigt. Stattdessen wird oft von Durchschnittswerten der Arten ausgegangen. Insbesondere ITV im Verhalten hat erst in jüngster Zeit mehr Aufmerksamkeit erfahren, als dessen Verbreitung und Ausmaß deutlich wurden. Der Anstieg des Interesses an ITV im Verhalten ging mit einem methodischen und technologischen Sprung auf dem Gebiet der Bewegungsökologie einher. Viele Aspekte des Verhaltens werden durch die Bewegung sichtbar und ermöglichen es uns, interindividuelle Unterschiede bei grundlegenden Prozessen wie Nahrungssuche, Partnersuche, Räuber-Beute-Beziehungen oder Migration zu beobachten. ITV im Bewegungsverhalten kann aus intraindividueller Variabilität und konsistenten, wiederholbaren Unterschieden zwischen einzelnen Individuen resultieren. Die Fragen, weshalb solche Unterschiede interindividuellen Unterschiede überhaupt auftreten und wie sie mit der Lebensgeschichte ("life-history") zusammenhängen, sind jedoch bislang ungeklärt. Darüber hinaus sind die Folgen von ITV, insbesondere von individuellen Unterschieden im Bewegungsverhalten, für Populationen und Artengemeinschaften nicht ausreichend bekannt. In meiner Dissertation gehe ich aktuellen Fragen zu den Quellen und Folgen von ITV, insbesondere im Bewegungsverhalten, nach. Nach einer Darstellung grundlegender Konzepte und des aktuellen Wissensstandes nähere ich mich diesen Fragen mit Hilfe agentenbasierter Modelle, um Konzepte aus der Verhaltens- und Bewegungsökologie zu integrieren und neue Perspektiven zu entwickeln. Die moderne Koexistenztheorie ist ein zentraler Pfeiler der Gemeinschaftsökologie, berücksichtigt aber ITV im Verhalten nur unzureichend. In Kapitel 2 modelliere ich ein System zweiter konkurrierender, bodenbewohnender Arten mit zentralisierten Streifgebieten, um die Folgen von Unterschieden im Bewegungsverhalten zwischen Individuen auf die Koexistenz der Arten zu untersuchen. Ich zeige, dass die simulierten interindividuellen Unterschiede, die mit empirischen Daten übereinstimmen, die Fitnessunterschiede zwischen den Arten verringern, d. h. einen ausgleichenden Koexistenzmechanismus darstellen. Darüber hinaus erkläre ich dieses Ergebnis mechanistisch und löse damit eine scheinbare Zweideutigkeit der in früheren Studien beschriebenen Folgen von ITV auf die Koexistenz von Arten auf. In Kapitel 3 richte ich den Fokus auf die Quellen individueller Unterschiede im Bewegungsverhalten und deren mögliche Integration in die Lebensgeschichte. Die Theorie des "pace-of-life" Syndroms (POLS) sagt voraus, dass die Kovariation zwischen individuellen Unterschieden im Verhalten und der Lebensgeschichte durch einen Zielkonflikt zwischen früher und später Reproduktion vermittelt wird. Diese Theorie hat viel Aufmerksamkeit erregt, wird aber derzeit auch kritisch betrachtet. In Kapitel 3 stelle ich ein Modell vor, das Hypothesen einer neuere konzeptionelle Entwicklung stützt, die eine fluktuierende, dichteabhängige Selektion als Ursache des POLS nahelegt. Ich habe jedoch auch Prozesse identifiziert, die den Zusammenhang zwischen Bewegungsverhalten und Lebensgeschichte auf verschiedenen Ebenen der biologischen Organisation verändern können. ITV kann Populationen puffern, d. h. ihr Aussterberisiko verringern. So können beispielsweise Unterschiede zwischen Individuen Portfolioeffekte vermitteln oder die Fähigkeit zur Anpassung erhöhen und damit etwa eine schnelle Evolution erleichtern, die das Aussterberisiko verringern kann. In Kapitel 4 gebe ich einen Überblick über ITV, Umweltheterogenität und dichteabhängige Prozesse, die lokale Puffermechanismen darstellen. Angesichts der Isolierung von Lebensräumen, die die Konnektivität zwischen Populationen verringert, können lokale Puffermechanismen im Vergleich zu ausbreitungsbedingten regionalen Puffermechanismen an Bedeutung gewinnen. In diesem Kapitel argumentiere ich, dass Kapazitäten, Latenzen und Interaktionen lokaler Puffermechanismen zu einer prozessbasierten und ganzheitlichen Integration lokaler Puffermechanismen in theoretischen und empirischen Studien motivieren sollten. Neuere konzeptionelle Einsichten legen nahe, dass Prinzipien aus der Bewegungs- und Gemeinschaftsökologie auf die Untersuchung filamentöser Pilze angewendet können. In diesem Zusammenhang ist es eine offene Frage, ob und wie die Anordnung und Geometrie von Mikrostrukturen für bestimmte Bewegungseigenschaften selektieren und damit eine koexistenzstabilisierende Nischenaufteilung erleichtern. Als Koautor von Kapitel 5 habe ich ein agentenbasiertes Modell der Hyphenspitzen entwickelt. In diesem Modell navigieren die Hyphenspitzen in bodenähnlichen Mikrostrukturen entlang eines Gradienten der Bodenporosität. Durch die Messung von Netzwerkeigenschaften konnten wir Veränderungen des optimalen Bewegungsverhaltens entlang des Gradienten feststellen. Unsere Ergebnisse deuten darauf hin, dass die Bodenarchitektur eine ökologische Nische mit verschiedenen Bewegungsoptima darstellt. Die Hauptkapitel werden von einer allgemeinen Einführung und einer Diskussion eingerahmt. In der allgemeinen Einführung umreiße ich die grundlegenden Konzepte der Bewegungsökologie und beschreibe die Theorie und die offenen Fragen zu den Ursachen und Folgen von ITV im Bewegungsverhalten. In der allgemeinen Diskussion fasse ich die Ergebnisse der Kernkapitel zusammen und diskutiere kritisch ihren jeweiligen Wert und gegebenenfalls ihre Auswirkungen. Darüber hinaus zeige ich vielversprechende Wege für künftige Forschungsarbeiten auf. KW - ecology KW - movement ecology KW - agent-based model KW - intraspecific variation KW - species coexistence KW - pace-of-life syndrome KW - population persistence KW - Ökologie KW - Bewegungsökologie KW - Agentenbasierte Modelle KW - Intraspezifische Variation KW - Koexistenz KW - Pace-of-Life Syndrom KW - Populationspersistenz Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565011 ER - TY - THES A1 - Villamizar, Natalia T1 - Heimat BT - mímesis y movimiento en las series autoficcionales de Thomas Bernhard y Fernando Vallejo N2 - Esta investigación propone un estudio transareal de las series autoficcionales del escritor austriaco Thomas Bernhard y el colombiano Fernando Vallejo, dos autores cuya obra se caracteriza por una dura crítica a sus países de origen, a sus Heimaten, pero también por un complejo arraigamiento. Los análisis interpretativos demuestran que en Die Autobiographie y El río del tiempo la Heimat se presenta como un constructo que abarca no solamente elementos dichosos, sino que presenta también elementos negativos, disolutivos, destructivos, con lo cual ambos autores de distancian de una concepción tradicional de Heimat como territorio necesariamente armónico al que el sujeto se siente positivamente vinculado. En cambio, ella se concibe como un conjunto disímil, frente al cual el sujeto se relaciona, necesariamente, de modo ambivalente y problemático. En ambos autores la narración literaria se configura como un acto en el que no simplemente se representa esa ambivalencia, sino en el que, sobre todo, se impugnan las formas de hostilidad que le confieren a la Heimat su carácter inhóspito. Para ello, ambos autores recurren a la implementación de dos recursos fundamentales: la mímesis y el movimiento. La investigación muestra de qué manera las obras estudiadas la Heimat se presenta como un espacio de continuos movimientos, intercambios e interacciones, en el que actúan mecanismos de opresión, pero también dispositivos de oposición, prácticas de apertura intersubjetiva y aspiraciones de integración comunitaria. N2 - This research presents a transareal study of the autofictional series of the Austrian writer Thomas Bernhard and the Colombian Fernando Vallejo, two authors whose work is marked by a fierce critique of their homelands, their Heimaten, but also by a complex rootedness. The interpretative analyses show that in Die Autobiographie and El río del tiempo the Heimat is presented as a construct that encompasses not only blissful but also negative, dissolutive, destructive elements, thus distancing both authors from a traditional conception of Heimat as a necessarily harmonic territory to which the subject feels positively attached. Instead, it is conceived as a dissimilar set, to which the subject relates, necessarily, in an ambivalent and problematic way. In both authors, literary narration is configured as an act in which this ambivalence is not simply represented, but in which, above all, the forms of hostility that give the Heimat its inhospitable character are contested. To this end, the authors resort to the implementation of two fundamental resources: mimesis and movement. The research demonstrates how their literary works present the Heimat as a space of continuous movements, exchanges and interactions, in which structures of oppression are at work, but also opposition mechanisms, practices of intersubjective openness and aspirations of community integration. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 4 KW - patria KW - Heimat KW - Fernando Vallejo KW - Thomas Bernhard KW - mímesis KW - giro espacial KW - estudios transareales KW - literatura comparada KW - Heimat KW - homeland KW - Fernando Vallejo KW - Thomas Bernhard KW - mimesis KW - spatial turn KW - transarea studies KW - comparative literature Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541086 SN - 978-3-86956-530-9 SN - 2629-2548 SN - 2629-253X IS - 4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Grüner, Andreas T1 - Towards practical and trust-enhancing attribute aggregation for self-sovereign identity N2 - Identity management is at the forefront of applications’ security posture. It separates the unauthorised user from the legitimate individual. Identity management models have evolved from the isolated to the centralised paradigm and identity federations. Within this advancement, the identity provider emerged as a trusted third party that holds a powerful position. Allen postulated the novel self-sovereign identity paradigm to establish a new balance. Thus, extensive research is required to comprehend its virtues and limitations. Analysing the new paradigm, initially, we investigate the blockchain-based self-sovereign identity concept structurally. Moreover, we examine trust requirements in this context by reference to patterns. These shapes comprise major entities linked by a decentralised identity provider. By comparison to the traditional models, we conclude that trust in credential management and authentication is removed. Trust-enhancing attribute aggregation based on multiple attribute providers provokes a further trust shift. Subsequently, we formalise attribute assurance trust modelling by a metaframework. It encompasses the attestation and trust network as well as the trust decision process, including the trust function, as central components. A secure attribute assurance trust model depends on the security of the trust function. The trust function should consider high trust values and several attribute authorities. Furthermore, we evaluate classification, conceptual study, practical analysis and simulation as assessment strategies of trust models. For realising trust-enhancing attribute aggregation, we propose a probabilistic approach. The method exerts the principle characteristics of correctness and validity. These values are combined for one provider and subsequently for multiple issuers. We embed this trust function in a model within the self-sovereign identity ecosystem. To practically apply the trust function and solve several challenges for the service provider that arise from adopting self-sovereign identity solutions, we conceptualise and implement an identity broker. The mediator applies a component-based architecture to abstract from a single solution. Standard identity and access management protocols build the interface for applications. We can conclude that the broker’s usage at the side of the service provider does not undermine self-sovereign principles, but fosters the advancement of the ecosystem. The identity broker is applied to sample web applications with distinct attribute requirements to showcase usefulness for authentication and attribute-based access control within a case study. N2 - Das Identitätsmanagement ist Kernbestandteil der Sicherheitsfunktionen von Applikationen. Es unterscheidet berechtigte Benutzung von illegitimer Verwendung. Die Modelle des Identitätsmanagements haben sich vom isolierten zum zentralisierten Paradigma und darüber hinaus zu Identitätsverbünden weiterentwickelt. Im Rahmen dieser Evolution ist der Identitätsanbieter zu einer mächtigen vertrauenswürdigen dritten Partei aufgestiegen. Zur Etablierung eines bis jetzt noch unvorstellbaren Machtgleichgewichts wurde der Grundgedanke der selbstbestimmten Identität proklamiert. Eine tiefgehende Analyse des neuen Konzepts unterstützt auf essentielle Weise das generelle Verständnis der Vorzüge und Defizite. Bei der Analyse des Modells untersuchen wir zu Beginn strukturelle Komponenten des selbstbestimmten Identitätsmanagements basierend auf der Blockchain Technologie. Anschließend erforschen wir Vertrauensanforderungen in diesem Kontext anhand von Mustern. Diese schematischen Darstellungen illustrieren das Verhältnis der Hauptakteure im Verbund mit einem dezentralisierten Identitätsanbieter. Im Vergleich zu den traditionellen Paradigmen, können wir festellen, dass kein Vertrauen mehr in das Verwalten von Anmeldeinformationen und der korrekten Authentifizierung benötigt wird. Zusätzlich bewirkt die Verwendung von vertrauensfördernder Attributaggregation eine weitere Transformation der Vertrauenssituation. Darauffolgend formalisieren wir die Darstellung von Vertrauensmodellen in Attribute Assurance mit Hilfe eines Meta-Frameworks. Als zentrale Komponenten sind das Attestierungs- und Vertrauensnetzwerk sowie der Vertrauensentscheidungsprozess, einschließlich der Vertrauensfunktion, enthalten. Ein sicheres Vertrauensmodell beruht auf der Sicherheit der Vertrauensfunktion. Hohe Vertrauenswerte sowie mehrere Attributaussteller sollten dafür berücksichtigt werden. Des Weiteren evaluieren wir Klassifikation, die konzeptionelle und praktische Analyse sowie die Simulation als Untersuchungsansätze für Vertrauensmodelle. Für die Umsetzung der vertrauensfördernden Attributaggregation schlagen wir einen wahrscheinlichkeitstheoretischen Ansatz vor. Die entwickelte Methode basiert auf den primären Charakteristiken der Korrektheit und Gültigkeit von Attributen. Diese Indikatoren werden für einen und anschließend für mehrere Merkmalsanbieter kombiniert. Zusätzlich betten wir die daraus entstehende Vertrauensfunktion in ein vollständiges Modell auf Basis des Ökosystem von selbstbestimmten Identitäten ein. Für die praktische Anwendung der Vertrauensfunktion und die Überwindung mehrerer Herausforderungen für den Dienstanbieter, bei der Einführung selbstbestimmter Identitätslösungen, konzipieren und implementieren wir einen Identitätsbroker. Dieser Vermittler besteht aus einer komponentenbasierten Architektur, um von einer dedizierten selbstbestimmten Identitätslösung zu abstrahieren. Zusätzlich bilden etablierte Identitäts- und Zugriffsverwaltungsprotokolle die Schnittstelle zu herkömmlichen Anwendungen. Der Einsatz des Brokers auf der Seite des Dienstanbieters unterminiert nicht die Grundsätze der selbstbestimmten Identität. Im Gegensatz wird die Weiterentwicklung des entsprechenden Ökosystems gefördert. Innerhalb einer Fallstudie wird die Verwendung des Identitätsbrokers bei Anwendungen mit unterschiedlichen Anforderungen an Benutzerattribute betrachtet, um die Nützlichkeit bei der Authentifizierung und Attributbasierten Zugriffskontrolle zu demonstrieren. KW - identity KW - self-sovereign identity KW - trust KW - attribute assurance KW - Identität KW - selbst-souveräne Identitäten KW - Vertrauen KW - Attributsicherung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-567450 ER - TY - THES A1 - Schuster, Valerian T1 - Mechanical and hydraulic properties of Opalinus Clay T1 - Mechanische und hydraulische Eigenschaften von Opalinuston BT - influence of compositional heterogeneity and thermodynamic boundary conditions BT - Einfluss von kompositorischer Heterogenität und thermodynamischen Randbedingungen N2 - Deep geological repositories represent a promising solution for the final disposal of nuclear waste. Due to its low permeability, high sorption capacity and self-sealing potential, Opalinus Clay (OPA) is considered a suitable host rock formation for the long-term storage of nuclear waste in Switzerland and Germany. However, the clay formation is characterized by compositional and structural variabilities including the occurrence of carbonate- and quartz-rich layers, pronounced bedding planes as well as tectonic elements such as pre-existing fault zones and fractures, suggesting heterogeneous rock mass properties. Characterizing the heterogeneity of host rock properties is therefore essential for safety predictions of future repositories. This includes a detailed understanding of the mechanical and hydraulic properties, deformation behavior and the underlying deformation processes for an improved assessment of the sealing integrity and long-term safety of a deep repository in OPA. Against this background, this thesis presents the results of deformation experiments performed on intact and artificially fractured specimens of the quartz-rich, sandy and clay-rich, shaly facies of OPA. The experiments focus on the influence of mineralogical composition on the deformation behavior as well as the reactivation and sealing properties of pre-existing faults and fractures at different boundary conditions (e.g., pressure, temperature, strain rate). The anisotropic mechanical properties of the sandy facies of OPA are presented in the first section, which were determined from triaxial deformation experiments using dried and resaturated samples loaded at 0°, 45° and 90° to the bedding plane orientation. A Paterson-type deformation apparatus was used that allowed to investigate how the deformation behavior is influenced by the variation of confining pressure (50 – 100 MPa), temperature (25 – 200 °C), and strain rate (1 × 10-3 – 5 × 10-6 s-1). Constant strain rate experiments revealed brittle to semi-brittle deformation behavior of the sandy facies at the applied conditions. Deformation behavior showed a strong dependence on confining pressure, degree of water saturation as well as bedding orientation, whereas the variation of temperature and strain rate had no significant effect on deformation. Furthermore, the sandy facies displays higher strength and stiffness compared to the clay-rich shaly facies deformed at similar conditions by Nüesch (1991). From the obtained results it can be concluded that cataclastic mechanisms dominate the short-term deformation behavior of dried samples from both facies up to elevated pressure (<200 MPa) and temperature (<200 °C) conditions. The second part presents triaxial deformation tests that were performed to investigate how structural discontinuities affect the deformation behavior of OPA and how the reactivation of preexisting faults is influenced by mineral composition and confining pressure. To this end, dried cylindrical samples of the sandy and shaly facies of OPA were used, which contained a saw-cut fracture oriented at 30° to the long axis. After hydrostatic pre-compaction at 50 MPa, constant strain rate deformation tests were performed at confining pressures of 5, 20 or 35 MPa. With increasing confinement, a gradual transition from brittle, highly localized fault slip including a stress drop at fault reactivation to semi-brittle deformation behavior, characterized by increasing delocalization and non-linear strain hardening without dynamic fault reactivation, can be observed. Brittle localization was limited by the confining pressure at which the fault strength exceeded the matrix yield strength, above which strain partitioning between localized fault slip and distributed matrix deformation occurred. The sandy facies displayed a slightly higher friction coefficient (≈0.48) compared to the shaly facies (≈0.4). In addition, slide-hold-slide tests were conducted, revealing negative or negligible frictional strengthening, which suggests stable creep and long-term weakness of faults in both facies of OPA. The conducted experiments demonstrate that dilatant brittle fault reactivation in OPA may be favored at high overconsolidation ratios and shallow depths, increasing the risk of seismic hazard and the creation of fluid pathways. The final section illustrates how the sealing capacity of fractures in OPA is affected by mineral composition. Triaxial flow-through experiments using Argon-gas were performed with dried samples from the sandy and shaly facies of OPA containing a roughened, artificial fracture. Slate, graywacke, quartzite, natural fault gouge, and granite samples were also tested to highlight the influence of normal stress, mineralogy and diagenesis on the sustainability of fracture transmissivity. With increasing normal stress, a non-linear decrease of fracture transmissivity can be observed that resulted in a permanent reduction of transmissivity after stress release. The transmissivity of rocks with a high portion of strong minerals (e.g., quartz) and high unconfined compressive strength was less sensitive to stress changes. In accordance with this, the sandy facies of OPA displayed a higher initial transmissivity that was less sensitive to stress changes compared to the shaly facies. However, transmissivity of rigid slate was less sensitive to stress changes than the sandy facies of OPA, although the slate is characterized by a higher phyllosilicate content. This demonstrates that in addition to mineral composition, other factors such as the degree of metamorphism, cementation and consolidation have to be considered when evaluating the sealing capacity of phyllosilicate-rich rocks. The results of this thesis highlighted the role of confining pressure on the failure behavior of intact and artificially fractured OPA. Although the quartz-rich sandy facies may be considered as being more favorable for underground constructions due to its higher shear strength and stiffness than the shaly facies, the results indicate that when fractures develop in the sandy facies, they are more conductive and remain more permeable compared to fractures in the clay-dominated shaly facies at a given stress. The results may provide the basis for constitutive models to predict the integrity and evolution of a future repository. Clearly, the influence of composition and consolidation, e.g., by geological burial and uplift, on the mechanical sealing behavior of OPA highlights the need for a detailed site-specific material characterization for a future repository. N2 - Geologische Tiefenlager stellen eine vielversprechende Lösung für die Endlagerung von Atommüll dar. Aufgrund seiner geringen hydraulischen Durchlässigkeit, hohen Sorptionskapazität von Schadstoffen sowie seines Selbstabdichtungspotentials von Rissen gilt Opalinuston (OPA) als geeignetes Wirtsgestein für die Langzeitlagerung von Atommüll in der Schweiz und in Deutschland. Die Tonformation weist jedoch eine lithologische und strukturelle Variabilität auf, die durch das Auftreten von karbonat- und quarzreichen Lagen, einer ausgeprägten Schichtung sowie tektonischen Elementen wie Störungszonen und Brüchen gekennzeichnet ist, was auf heterogene Gebirgseigenschaften hindeutet. Die Charakterisierung dieser Heterogenität im Hinblick auf die Eigenschaften des Wirtsgesteins ist für Sicherheitsvorhersagen zukünftiger Endlager von wesentlicher Bedeutung. Diese beinhaltet ein detailliertes Verständnis der mechanischen und hydraulischen Eigenschaften, des Deformationsverhaltens sowie der zugrunde liegenden Deformationsprozesse, die eine verbesserte Beurteilung des wirksamen Einschlusses sowie der Langzeitsicherheit eines Tiefenlagers in OPA ermöglichen. Vor diesem Hintergrund präsentiert diese Arbeit die Ergebnisse von triaxialen Verformungsexperimenten, die an intakten und künstlich gestörten Proben der quarzreichen, sandigen sowie tonigen Fazies von OPA durchgeführt worden sind. Ein besonderer Fokus ist hierbei auf den Einfluss der mineralogischen Zusammensetzung auf das Verformungsverhalten sowie die Reaktivierungs- und Abdichtungseigenschaften von bereits bestehenden Scherzonen und Rissen bei unterschiedlichen Randbedingungen (z. B. Druck, Temperatur, Dehnungsrate) gelegt worden. Im ersten Abschnitt werden die anisotropen mechanischen Eigenschaften der sandigen Fazies von OPA vorgestellt. Hierfür sind triaxiale Verformungsexperimente an getrockneten und wassergesättigten Proben durchgeführt worden, die in einem Winkel von 0°, 45° und 90° zur relativ zur vorhandenen Schichtung belastet worden sind. Mittels einer Paterson Gasdruckapparatur ist der Einfluss von Mantelspannung (50 – 100 MPa), Temperatur (25 – 200 °C) und Verformungsrate (1 × 10-3 – 5 × 10-6 s-1) auf das Deformationsverhalten untersucht worden. Die Experimente zeigen ein sprödes bis halbsprödes Verformungsverhalten der sandigen Fazies, wobei ein deutlicher Einfluss von Manteldruck, Wassersättigung sowie Schichtungsorientierung festgestellt werden konnte. Im Gegensatz dazu zeigt die Änderung von Temperatur und Verformungsrate keinen signifikanten Einfluss auf das Deformationsverhalten und die Festigkeitseigenschaften der sandigen Fazies. Verglichen mit der tonigen Fazies (Nüesch 1991) weist die sandige Fazies des OPA eine höhere Festigkeit und Steifigkeit auf. Die Ergebnisse deuten darauf hin, dass das kurzfristige Verformungsverhalten getrockneter Proben beider Faziestypen bis zu erhöhten Druck- (<200 MPa) und Temperaturbedingungen (<200 °C) von kataklastischen Deformationsmechanismen dominiert wird. Im zweiten Teil werden die Ergebnisse von triaxialen Deformationsexperimenten beschrieben, die durchgeführt worden sind, um den Einfluss von bereits bestehenden Störungen auf das Verformungsverhalten von OPA zu untersuchen und wie die Reaktivierung von Scherflächen durch die Mineralzusammensetzung und den Manteldruck beeinflusst wird. Dazu sind getrocknete zylindrische Proben der sandigen und tonigen Fazies von OPA verwendet worden, die zuvor in einem Winkel von 30° zur Längsachse halbiert worden sind. Nach einer hydrostatischen Vorkonsolidierung bei 50 MPa Druck, sind die Proben bei einer konstanten axialen Verformungsrate und Mantelspannungen von 5, 20 und 35 MPa deformiert worden. Bei niedriger Mantelspannung wird die Reaktivierung der Scherfläche durch einen Spannungsabfall eingeleitet, wobei weitere Verformung durch stark lokalisierte Scherung aufgenommen wird. Mit zunehmender Mantelspannung kann ein Übergang zu halbsprödem Verformungsverhalten beobachtet werden, das durch einen zunehmenden Anteil von Matrixdeformation ohne dynamische Verwerfungsreaktivierung gekennzeichnet ist. Dabei weist die sandige Fazies einen höheren Reibungskoeffizienten (≈0,48) als die tonige Fazies (≈0,4) auf. Die Experimente zeigen, dass spröde Reaktivierung der Scherfläche bis zu einer Mantelspannung erfolgt, ab der die Scherfestigkeit der künstlichen Störung die Fließspannung der Matrix übersteigt. Entsprechend beginnt mit weiter ansteigender Mantelspannung die Partitionierung von Deformation in Scherung und Matrixverformung. Relaxations- und Wiederbelastungstests (Slide-Hold-Slide) zeigen negative bzw. vernachlässigbare Reibungsverheilung auf, was auf eine geringe Wiederverfestigung und folglich aseismisches Kriechen als Langzeitverhalten von Scherzonen in OPA hindeutet. Die Ergebnisse zeigen, dass die spröde Reaktivierung von Scherzonen in OPA durch eine starke Überkonsolidierung und in geringen Tiefen begünstigt werden kann, was das Risiko von Seismizität und die Bildung hydraulischer Fließwege erhöht. Der letzte Abschnitt veranschaulicht, wie die Transmissivität von Rissen in OPA von der wirkenden Normalspannung und Mineralzusammensetzung beeinflusst wird. Hierfür sind triaxiale Durchströmungsexperimente an getrockneten Proben der sandigen und tonigen Fazies von OPA durchgeführt worden, die eine künstlich angeraute Rissfläche enthielten. Um den Einfluss von Normalspannung, Mineralogie und Diagenese auf die hydraulische Rissverschließung zu untersuchen, sind darüber hinaus auch Risse in Schiefer, Grauwacke, Quarzit, Proben aus natürlichen Störungszonen und Granit getestet worden. Mit zunehmender Normalspannung konnte eine nichtlineare Abnahme der Risstransmissivität beobachtet werden, die nach Entlastung zu einer irreversiblen Reduktion der Transmissivität führt. Die Transmissivität von Gesteinen, die durch einen hohen Anteil mechanisch fester Minerale (z.B. Quarz) sowie einer hohen einaxialen Druckfestigkeit charakterisiert werden, reagieren robuster auf Spannungsänderungen. Dementsprechend zeigt die sandige Fazies von OPA im Vergleich zur tonigen Fazies eine höhere initale Risstransmissivität, die weniger empfindlich auf Spannungsänderungen reagiert. Obwohl die sandige Fazies im Vergleich zu der untersuchten Schieferprobe einen niedrigeren Schichtsilikatgehalt aufweist, reagiert die Risstransmissivität des Schiefers deutlich geringer auf Spannungsänderungen. Aus den Experimenten kann abgeleitet werden, dass für die Bewertung der hydraulischen Rissverschließung in schichtsilikatreichen Gesteinen neben der mineralischen Zusammensetzung weitere Faktoren, wie der Grad der Metamorphose sowie Zementierung und Konsolidierung, berücksichtigt werden müssen. Die Ergebnisse dieser Arbeit verdeutlichten die Rolle der Mantelspannung auf das Deformationsverhalten von intaktem und künstlich gestörten OPA. Obwohl die quarzreiche sandige Fazies von OPA aufgrund ihrer höheren Scherfestigkeit und Steifigkeit als günstiger für die Konstruktion von Untertagebauwerken angesehen werden kann, weisen die präsentierten Ergebnisse darauf hin, dass diese vorteilhaften mechanischen Eigenschaften mit einer Verringerung der hydraulischen Abdichtungskapazität verbunden sind, d.h. wenn sich Risse in der sandigen Fazies entwickeln, sind diese hydraulisch leitfähiger und bleiben durchlässiger im Vergleich zu Rissen in der tonigen Fazies bei einer gegebenen Spannung. Die Ergebnisse können die Grundlage für die Entwicklung konstitutiver Modelle bilden, die zur Einschätzung der Integrität eines zukünftigen Endlagers herangezogen werden können. Der Einfluss der mineralogischen Zusammensetzung sowie der Konsolidierung auf die mechanischen und hydraulischen Eigenschaften von OPA zeigen die Notwendigkeit einer detaillierten, standortspezifischen Materialcharakterisierung für ein zukünftiges Endlager. KW - Opalinus Clay KW - triaxial deformation experiments KW - microstructural deformation mechanisms KW - fault reactivation KW - fracture transmissivity KW - Opalinuston KW - Reaktivierung von Störungszonen KW - Risstransmissivität KW - Mikrostrukturelle KW - Deformationsmechanismen KW - triaxiale Deformationsexperimente Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566786 ER - TY - THES A1 - Fischer, Eric Wolfgang T1 - Quantum vibrational dynamics in complex environments: from vibrational strong coupling in molecular cavity QED to phonon-induced adsorbate relaxation N2 - Molecules are often naturally embedded in a complex environment. As a consequence, characteristic properties of a molecular subsystem can be substantially altered or new properties emerge due to interactions between molecular and environmental degrees of freedom. The present thesis is concerned with the numerical study of quantum dynamical and stationary properties of molecular vibrational systems embedded in selected complex environments. In the first part, we discuss "strong-coupling" model scenarios for molecular vibrations interacting with few quantized electromagnetic field modes of an optical Fabry-Pérot cavity. We thoroughly elaborate on properties of emerging "vibrational polariton" light-matter hybrid states and examine the relevance of the dipole self-energy. Further, we identify cavity-induced quantum effects and an emergent dynamical resonance in a cavity-altered thermal isomerization model, which lead to significant suppression of thermal reaction rates. Moreover, for a single rovibrating diatomic molecule in an optical cavity, we observe non-adiabatic signatures in dynamics due to "vibro-polaritonic conical intersections" and discuss spectroscopically accessible "rovibro-polaritonic" light-matter hybrid states. In the second part, we study a weakly coupled but numerically challenging quantum mechanical adsorbate-surface model system comprising a few thousand surface modes. We introduce an efficient construction scheme for a "hierarchical effective mode" approach to reduce the number of surface modes in a controlled manner. In combination with the multilayer multiconfigurational time-dependent Hartree (ML-MCTDH) method, we examine the vibrational adsorbate relaxation dynamics from different excited adsorbate states by solving the full non-Markovian system-bath dynamics for the characteristic relaxation time scale. We examine half-lifetime scaling laws from vibrational populations and identify prominent non-Markovian signatures as deviations from Markovian reduced system density matrix theory in vibrational coherences, system-bath entanglement and energy transfer dynamics. In the final part of this thesis, we approach the dynamics and spectroscopy of vibronic model systems at finite temperature by formulating the ML-MCTDH method in the non-stochastic framework of thermofield dynamics. We apply our method to thermally-altered ultrafast internal conversion in the well-known vibronic coupling model of pyrazine. Numerically beneficial representations of multilayer wave functions ("ML-trees") are identified for different temperature regimes, which allow us to access thermal effects on both electronic and vibrational dynamics as well as spectroscopic properties for several pyrazine models. N2 - Moleküle sind für gewöhnlich in komplexe Umgebungen eingebettet. In Folge werden charakteristische Eigenschaften des molekularen Subsystems durch Wechselwirkung mit Umgebungsfreitheitsgraden potentiell deutlich verändert. Die vorliegende Dissertation behandelt die numerische Untersuchung von quantendynamischen und stationären Eigenschaften molekularer Schwingungen unter dem Einfluss ausgewählter komplexer Umgebungen. Im ersten Teil werden stark gekoppelte Modelsysteme betrachtet, die durch Wechselwirkung von molekulare Schwingungen mit wenigen quantisierten, elektromagnetischen Feldmoden einer Fabry-Pérot Kavität realisiert werden. Die Eigenschaften von Schwingungspolaritonen und die Relevanz der Dipolselbstenergie werden im Detail untersucht. Weiterhin werden quantenmechanische Effekte sowie ein dynamisches Resonanzphänomen in einem Modelsystem für thermische Isomerisierung unter dem Einfluss einer Kavität identifiziert, die zu signifikant reduzierten thermischen Reaktionsraten führen. Für ein frei rotierendes, schwingendes CO Molekül in einer Kavität finden sich nicht-adiabatische Signaturen in Form von schwingungspolaritonischen konischen Durchschneidungen sowie spektroskopisch identifizierbaren rovibratorischen Licht-Materie-Hybridzustände. Im zweiten Teil wird ein schwach gekoppeltes, numerisch anspruchsvolles Adsorbat-Oberflächen-Model mit einigen tausend Oberflächenmoden diskutiert. Es wird ein numerisch effizientes Verfahren zur Konstruktion einer Hierarchie effektiver Moden vorgestellt, wodurch die Anzahl an Oberflächenmoden kontrolliert reduziert wird. In Kombination mit der "multilayer multiconfigurational time-dependent Hartree" (ML-MCTDH) Methode, wird der Relaxationsprozess der Adsorbatmode für verschiedene Anfangszustände durch Lösung der nicht-Markovschen System-Bad Dynamik auf der charakteristische Relaxationszeitskala untersucht. Skalierungsgesetze von Halbwertszeiten werden aus Schwingungspopulationen erhalten und prominente nicht-markovsche Signaturen in Schwingungskohärenzen, in System-Bad-Verschränkung und in der Energietransferdynamik werden durch Vergleich mit markovscher reduzierter Dichtematrixtheorie identifiziert. Im letzten Teil wird vibronische Dynamik bei endlichen Temperaturen untersucht und die ML-MCTDH Methode im Rahmen der nicht-stochastischen "Thermofield Theory" formuliert. Der thermisch beeinflusste, ultraschnelle interne Konversionsprozess in Pyrazin wird betrachtet. Numerisch effiziente Darstellungen der ML-MCTDH Wellenfunktionen für verschiedene Temperaturen werden vorgestellt und thermische Effekte auf Dynamik und Spektroskopie werden diskutiert. KW - theoretical chemistry KW - theoretische Chemie KW - quantum dynamics KW - Quantendynamik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-567214 ER - TY - THES A1 - Buczkowski, Agnes Johanna T1 - Vergleichende Untersuchungen von Schlüsselkomponenten aus Dämpfen der E-Zigarette T1 - Comparative studies of key components from e-cigarette vapours N2 - Respiratorische Erkrankungen stellen zunehmend eine relevante globale Problematik dar. Die Erweiterung bzw. Modifizierung von Applikationswegen möglicher Arzneimittel für gezielte topische Anwendungen ist dabei von größter Bedeutung. Die Variation eines bekannten Applikationsweges durch unterschiedliche technologische Umsetzungen kann die Vielfalt der Anwendungsmöglichkeiten, aber auch die Patienten-Compliance erhöhen. Die einfache und flexible Verfahrensweise durch schnelle Verfügbarkeit und eine handliche Technologie sind heutzutage wichtige Eigenschaften im Entwicklungsprozess eines Produktes. Eine direkte topische Behandlung von Atemwegserkrankungen am Wirkort in Form einer inhalativen Applikation bietet dabei viele Vorteile gegenüber einer systemischen Therapie. Die medizinische Inhalation von Wirkstoffen über die Lunge ist jedoch eine komplexe Herausforderung. Inhalatoren gehören zu den erklärungsbedürftigen Applikationsformen, die zur Erhöhung der konsequenten Einhaltung der Verordnung so einfach, wie möglich gestaltet werden müssen. Parallel besitzen und nutzen weltweit annähernd 68 Millionen Menschen die Technologie eines inhalativen Applikators zur bewussten Schädigung ihrer Gesundheit in Form einer elektronischen Zigarette. Diese bekannte Anwendung bietet die potentielle Möglichkeit einer verfügbaren, kostengünstigen und qualitätsgeprüften Gesundheitsmaßnahme zur Kontrolle, Prävention und Heilung von Atemwegserkrankungen. Sie erzeugt ein Aerosol durch elektrothermische Erwärmung eines sogenannten Liquids, das durch Kapillarkräfte eines Trägermaterials an ein Heizelement gelangt und verdampft. Ihr Bekanntheitsgrad zeigt, dass eine beabsichtigte Wirkung in den Atemwegen eintritt. Diese Wirkung könnte jedoch auch auf potentielle pharmazeutische Einsatzgebiete übertragbar sein. Die Vorteile der pulmonalen Verabreichung sind dabei vielfältig. Im Vergleich zur peroralen Applikation gelangt der Wirkstoff gezielt zum Wirkort. Wenn eine systemische Applikation zu Arzneimittelkonzentrationen unterhalb der therapeutischen Wirksamkeit in der Lunge führt, könnte eine inhalative Darreichung bereits bei niedriger Dosierung die gewünschten höheren Konzentrationen am Wirkort hervorrufen. Aufgrund der großen Resorptionsfläche der Lunge sind eine höhere Bioverfügbarkeit und ein schnellerer Wirkungseintritt infolge des fehlenden First-Pass-Effektes möglich. Es kommt ebenfalls zu minimalen systemischen Nebenwirkungen. Die elektronische Zigarette erzeugt wie die medizinischen Inhalatoren lungengängige Partikel. Die atemzuggesteuerte Technik ermöglicht eine unkomplizierte und intuitive Anwendung. Der prinzipielle Aufbau besteht aus einer elektrisch beheizten Wendel und einem Akku. Die Heizwendel ist von einem sogenannten Liquid in einem Tank umgeben und erzeugt das Aerosol. Das Liquid beinhaltet eine Basismischung bestehend aus Propylenglycol, Glycerin und reinem Wasser in unterschiedlichen prozentualen Anteilen. Es besteht die Annahme, dass das Basisliquid auch mit pharmazeutischen Wirkstoffen für die pulmonale Applikation beladen werden kann. Aufgrund der thermischen Belastung durch die e-Zigarette müssen potentielle Wirkstoffe sowie das Vehikel eine thermische Stabilität aufweisen. Die potentielle medizinische Anwendung der Technologie einer handelsüblichen e-Zigarette wurde anhand von drei Schwerpunkten an vier Wirkstoffen untersucht. Die drei ätherischen Öle Eucalyptusöl, Minzöl und Nelkenöl wurden aufgrund ihrer leichten Flüchtigkeit und der historischen pharmazeutischen Anwendung anhand von Inhalationen bei Erkältungssymptomen bzw. im zahnmedizinischen Bereich gewählt. Das eingesetzte Cannabinoid Cannabidiol (CBD) hat einen aktuellen Bezug zu dem pharmazeutischen Markt Deutschlands zur Legalisierung von cannabishaltigen Produkten und der medizinischen Forschung zum inhalativen Konsum. Es wurden relevante wirkstoffhaltige Flüssigformulierungen entwickelt und hinsichtlich ihrer Verdampfbarkeit zu Aerosolen bewertet. In den quantitativen und qualitativen chromatographischen Untersuchungen konnten spezifische Verdampfungsprofile der Wirkstoffe erfasst und bewertet werden. Dabei stieg die verdampfte Masse der Leitsubstanzen 1,8-Cineol (Eucalyptusöl), Menthol (Minzöl) und Eugenol (Nelkenöl) zwischen 33,6 µg und 156,2 µg pro Zug proportional zur Konzentration im Liquid im Bereich zwischen 0,5% und 1,5% bei einer Leistung von 20 Watt. Die Freisetzungsrate von Cannabidiol hingegen schien unabhängig von der Konzentration im Liquid im Mittelwert bei 13,3 µg pro Zug zu liegen. Dieses konnte an fünf CBD-haltigen Liquids im Konzentrationsbereich zwischen 31 µg/g und 5120 µg/g Liquid gezeigt werden. Außerdem konnte eine Steigerung der verdampften Massen mit Zunahme der Leistung der e-Zigarette festgestellt werden. Die Interaktion der Liquids bzw. Aerosole mit den Bestandteilen des Speichels sowie weiterer gastrointestinaler Flüssigkeiten wurde über die Anwendung von zugehörigen in vitro Modellen und Einsatz von Enzymaktivitäts-Assays geprüft. In den Untersuchungen wurden Änderungen von Enzymaktivitäten anhand des oralen Schlüsselenzyms α-Amylase sowie von Proteasen ermittelt. Damit sollte exemplarisch ein möglicher Einfluss auf physiologische bzw. metabolische Prozesse im humanen Organismus geprüft werden. Das Bedampfen von biologischen Suspensionen führte bei niedriger Leistung der e-Zigarette (20 Watt) zu keiner bzw. einer leichten Änderung der Enzymaktivität. Die Anwendung einer hohen Leistung (80 Watt) bewirkte tendenziell das Herabsetzen der Enzymaktivitäten. Die Erhöhung der Enzymaktivitäten könnte zu einem enzymatischen Abbau von Schleimstoffen wie Mucinen führen, was wiederum die effektive, mechanische Abwehr gegenüber bakteriellen Infektionen zur Folge hätte. Da eine Anwendung der Applikation insbesondere bei bakteriellen Atemwegserkrankungen denkbar wäre, folgten abschließend Untersuchungen der antibakteriellen Eigenschaften der Liquids bzw. Aerosole in vitro. Es wurden sechs klinisch relevante bakterielle Krankheitserreger ausgewählt, die nach zwei Charakteristika gruppiert werden können. Die drei multiresistenten Bakterien Pseudomonas aeruginosa, Klebsiella pneumoniae und Methicillin-resistenter Staphylococcus aureus können mithilfe von üblichen Therapien mit Antibiotika nicht abgetötet werden und haben vor allem eine nosokomiale Relevanz. Die zweite Gruppe weist Eigenschaften auf, die vordergründig assoziiert sind mit respiratorischen Erkrankungen. Die Bakterien Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae sind repräsentativ beteiligt an Atemwegserkrankungen mit diverser Symptomatik. Die Bakterienarten wurden mit den jeweiligen Liquids behandelt bzw. bedampft und deren grundlegende Dosis-Wirkungsbeziehung charakterisiert. Dabei konnte eine antibakterielle Aktivität der Formulierungen ermittelt werden, die durch Zugabe eines Wirkstoffes die bereits antibakterielle Wirkung der Bestandteile Glycerin und Propylenglycol verstärkte. Die hygroskopischen Eigenschaften dieser Substanzen sind vermutlich für eine Wirkung in aerosolierter Form verantwortlich. Sie entziehen die Feuchtigkeit aus der Luft und haben einen austrocknenden Effekt auf die Bakterien. Das Bedampfen der Bakterienarten Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae hatte einen antibakteriellen Effekt, der zeitlich abhängig von der Leistung der e-Zigarette war. Die Ergebnisse der Untersuchungen führen zu dem Schluss, dass jeder Wirkstoff bzw. jede Substanzklasse individuell zu bewerten ist und somit Inhalator und Formulierung aufeinander abgestimmt werden müssen. Der Einsatz der e-Zigarette als Medizinprodukt zur Applikation von Arzneimitteln setzt stets Prüfungen nach Europäischem Arzneibuch voraus. Durch Modifizierungen könnte eine Dosierung gut kontrollierbar gemacht werden, aber auch die Partikelgrößenverteilung kann insoweit reguliert werden, dass die Wirkstoffe je nach Partikelgröße zu einem geeigneten Applikationsort wie Mund, Rachen oder Bronchien transportiert werden. Der Vergleich mit den Eigenschaften anderer medizinischer Inhalatoren führt zu dem Schluss, dass die Technologie der e-Zigarette durchaus eine gleichartige oder bessere Performance für thermisch stabile Wirkstoffe bieten könnte. Dieses fiktive Medizinprodukt könnte aus einer hersteller-unspezifisch produzierten, wieder aufladbaren Energiequelle mit Universalgewinde zum mehrfachen Gebrauch und einer hersteller- und wirkstoffspezifisch produzierten Einheit aus Verdampfer und Arzneimittel bestehen. Das Arzneimittel, ein medizinisches Liquid (Vehikel und Wirkstoff) kann in dem Tank des Verdampfers mit konstanten, nicht variablen Parametern patientenindividuell produziert werden. Inhalative Anwendungen werden perspektivisch wohl nicht zuletzt aufgrund der aktuellen COVID-19-Pandemie eine zunehmende Rolle spielen. Der Bedarf nach alternativen Therapieoptionen wird weiter ansteigen. Diese Arbeit liefert einen Beitrag zum Einsatz der Technologie der elektronischen Zigarette als electronic nicotin delivery system (ENDS) nach Modifizierung zu einem potentiellen pulmonalen Applikationssystem als electronic drug delivery system (EDDS) von inhalativen, thermisch stabilen Arzneimitteln in Form eines Medizinproduktes. N2 - Respiratory diseases increasingly represent a globally relevant problem. The extension or modification of application routes of possible drugs for targeted topical applications is thereby of utmost importance. The variation of a known application route through different technological implementations can increase the diversity of application possibilities, but also patient compliance. Simple and flexible procedures through rapid availability and a convenient technology are nowadays important characteristics in the development process of a product. Direct topical treatment of respiratory diseases at the site of action in form of inhaled application offers many advantages over systemic therapy. However, medical inhalation of active substances via lung is a complex challenge. Inhalers are one of the forms of application that require explanation and must be made as simple as possible to increase consistent adherence to the prescription. In parallel, approximately 68 million people worldwide own and use the technology of an inhaler to deliberately harm their health in form of an electronic cigarette. This well-known application offers the potential possibility of an available, cost-effective and quality-assured health measure to control, prevent and cure respiratory diseases. It produces an aerosol by electro-thermal heating of a so-called liquid, which reaches a heating element through capillary forces of a carrier material and vaporizes. Its popularity indicates that an intended effect occurs in the respiratory tract. However, this effect could also be transferable to potential pharmaceutical applications. The advantages of pulmonary administration are manifold. Compared to peroral application, the active ingredient reaches the site of action in a targeted manner. If systemic application results to drug concentrations below the therapeutic efficacy in the lung, inhalation could produce the desired higher concentrations at the site of action even at low doses. Due to the large absorption surface of the lungs, a higher bioavailability and a faster onset of action is possible as a result of the lack of first-pass effect. There are also minimal systemic side effects. Like medical inhalers, the electronic cigarette produces respirable particles. The breath-controlled technology enables uncomplicated and intuitive use. The basic construction consists of an electrically heated coil and a rechargeable battery. The heating coil is surrounded by a so-called liquid in a tank and generates the aerosol. The liquid contains a base mixture consisting of propylene glycol, glycerine and pure water in varying percentages. It is assumed that the base liquid can also be loaded with active pharmaceutical ingredients for pulmonary application. Due to thermal load of the e-cigarette, potential active ingredients as well as vehicles must exhibit thermal stability. The potential medical application of the technology of a commercially available e-cigarette was investigated on the basis of three focal investigations for four active ingredients. The three essential oils eucalyptus oil, mint oil and clove oil were chosen due to their light volatility and the historical pharmaceutical application based on inhalations for cold symptoms or in the dental field, respectively. The choice of the cannabinoid cannabidiol (CBD) used is currently related to the pharmaceutical market situation in Germany while considering the legalization of cannabis-containing products and medical research on inhaled consumption. Relevant liquid formulations containing active ingredients were developed and evaluated with regard to their evaporability to aerosols. In quantitative and qualitative chromatographic investigations, specific vaporization profiles of the active substances were recorded and evaluated. The evaporated mass of analytical markers 1,8-cineole (eucalyptus oil), menthol (mint oil) and eugenol (clove oil) increased between 33.6 µg and 156.2 µg per puff proportional to the concentration in liquids in the range between 0.5% and 1.5% at a power application of 20 watts. The release rate of cannabidiol, on the other hand, appeared to average 13.3 µg per puff regardless of the concentration in the liquid. This was demonstrated on five CBD-containing liquids in the concentration range between 31 µg/g and 5120 µg/g liquid. In addition, an increased vaporized mass with increased power of e-cigarette could be observed. The interaction of the liquids or aerosols with the components of saliva and other gastrointestinal fluids was tested by application of associated in vitro models and the use of enzyme activity assays. In the studies, changes in enzyme activities were determined using the key oral enzyme α-amylase as well as proteases. The aim was to test a possible influence on physiological or metabolic processes in the human organism as an example. Treatment of biological suspensions with aerosol resulted in no or a slight change in enzyme activity at low power of e-cigarette (20 watts). The application of high power (80 watts) tended to decrease enzyme activities. The increase in enzyme activities could lead to enzymatic degradation of mucins, which in turn could reduce effective mechanical defense against bacterial infections. Since an application would be conceivable in particular for bacterial respiratory diseases, concluding investigations of the antibacterial properties of the liquids or aerosols in vitro followed. Six clinically relevant bacterial pathogens were selected, which can be grouped according to two characteristics. The three multi-resistant bacteria Pseudomonas aeruginosa, Klebsiella pneumoniae and methicillin-resistant Staphylococcus aureus cannot be killed by standard antibiotic therapies and are primarily of nosocomial relevance. The second group exhibits characteristics that are mainly associated with respiratory diseases. The bacteria Streptococcus pneumoniae, Moraxella catarrhalis and Haemophilus influenzae are representatively involved in respiratory diseases with diverse symptoms. These bacterial species were treated with the respective liquids or aerosols and their basic dose-response relationship was characterized. Antibacterial activity of formulations could be determined, which enhanced the already antimicrobial effect of the vehicle components glycerine and propylene glycol by addition of active pharmaceutical ingredients. The hygroscopic properties of these substances are probably responsible for an effect in aerosolized form. They remove moisture from air and have a desiccating effect on bacteria. The treatment of bacterial species Streptococcus pneumoniae, Moraxella catarrhalis and Haemophilus influenzae with aerosol had an antibacterial effect that was time-dependent on the applied power of e-cigarette. The results of investigations lead to the conclusion that each active pharmaceutical ingredient or substance class must be evaluated individually and thus inhaler and formulation must be matched to each other. The use of e-cigarette as a medical device for the application of medicinal products would definitely requires tests according to the European Pharmacopoeia. Modifications could make a dosage well controllable, but also the particle size distribution can be regulated to the extent that the active ingredients are transported to a suitable application site such as mouth, throat or bronchi depending on the particle size. The comparison with properties of other medical inhalers leads to the conclusion that the technology of e-cigarette could well offer similar or better performance for thermally stable active ingredients. This fictitious medical device could consist of a manufacturer-unspecifically produced, rechargeable energy source with a universal thread for multiple use and a manufacturer- and active substance-specifically produced unit consisting of vaporizer and personalized drug content. The drug, a medical liquid (vehicle and active ingredient) can be produced in the tank of the vaporizer with constant, non-variable parameters specific to the patient. Inhaled applications will probably play an increasing role in the future, not least because of the current COVID-19 pandemic. The need for alternative therapeutic options will continue to increase. This work provides a contribution to the use of electronic nicotine delivery system (ENDS) after modification to a potential pulmonary application system as an electronic drug delivery system (EDDS) of inhaled, thermally stable drugs in form of a medical device. KW - e-Zigarette KW - Medizinprodukt KW - inhalative Applikation KW - ätherische Öle KW - Cannabidiol (CBD) KW - Atemwegserkrankungen KW - antibakterielles Aerosol KW - e-cigarette KW - electronic nicotin delivery system (ENDS) KW - electronic drug delivery system (EDDS) KW - essential oils KW - cannabidiol (CBD) KW - respiratory diseases KW - antibacterial aerosol Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565617 ER - TY - THES A1 - Chemeta, David T1 - Nation, migration, narration T1 - Nation, Migration, Narration T1 - Nation, migration, narration BT - 25 ans d'histoire allemande et française vus par les rappeurs issus de l'immigration BT - 25 Jahre deutscher und französischer Geschichte in den Augen von Rappern mit Migrationshintergrund BT - 25 years of French and German history in the eyes of rappers with migration backgrounds N2 - In France and in Germany, immigration as become one of the main issues in the past decades. In this context rose also the rap music. It has a huge popularity for young people with migration background. However rappers do write a lot about their French or German identity. The goal of this work is to explain the paradox : how can people with migration background, expressing critics against the racism they regard as omnipresent, still feel fully French/German? We divided the work between following chapters: Context, methodology and theories (I); analysis of different identity forms within the text corpus (II); analysis of the way rappers see their society in three chronological steps (III-V); case studies of Kery James in France and Samy Deluxe in Germany (VI). N2 - In Frankreich sowie in Deutschland ist die Einwanderung in den letzten Jahrzehnten zu einer der wichtigsten gesellschaftlichen Themen geworden. Zur gleichen Zeit entstand auch die Rap-Musik, welche eine große Popularität bei Jugendlichen mit Migrationshintergrund genießt. Jedoch thematisieren Rapper mit Migrationshintergrund in Frankreich wie in Deutschland ihre Nationalidentität immer öfter. Ziel dieser Arbeit ist, folgendes Paradoxon zu erklären: wie können sich Menschen mit Migrationshintergrund völlig französisch/deutsch fühlen, obwohl sie eine starke Kritik am Rassismus äußern, den sie als gesellschaftlich prägend betrachten? Diese Arbeit wurde in folgende Kapitel unterteilt: Kontext, Methodik und Theorien (I); Analyse der verschiedenen Identitätsformen im Textkorpus (II); Analyse der Art und Weise, wie Rapper die Gesellschaft sehen, in drei chronologischen Etappen (III-V); Fallstudien von Kery James in Frankreich und Samy Deluxe in Deutschland (VI). N2 - En France et en Allemagne, l’immigration est devenue dans les dernières décennies une problématique centrale. C’est dans ce contexte qu’est apparu le rap. Celui-ci connaît une popularité énorme chez les populations issues de l’immigration. Pour autant, les rappeurs ne s’en confrontent pas moins à leur identité française ou allemande. Le but de ce travail est d’expliquer cette apparente contradiction : comment des personnes issues de l’immigration, exprimant un mal-être face à un racisme qu’ils considèrent omniprésent, peuvent-elles se sentir pleinement françaises / allemandes ? On a divisé le travail entre les chapitres suivants : Contexte de l'étude, méthodologie et théories (I) ; Analyse des différentes formes d’identité nationale au prisme du corpus (II) ; Analyse en trois étapes chronologiques du rapport à la société dans les textes des rappeurs (III-V) ; étude de cas de Kery James en France et Samy Deluxe en Allemagne (VI). KW - immigration KW - national identity KW - postcolonial studies KW - identity KW - Germany KW - rap KW - hiphop KW - Einwanderung KW - Nationalidentität KW - Postkolonialismus KW - Identität KW - Deutschland KW - Frankreich KW - Rap KW - HipHop KW - immigration KW - identité nationale KW - études postcoloniales KW - idéntité KW - Allemagne KW - rap KW - hiphop Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-518308 ER - TY - THES A1 - Heinsohn, Natascha T1 - Development of a fiber-based sensor for the molecular detection of pathogens using Legionella as an example T1 - Entwicklung eines Faser-basierten Sensors zur molekularen Detektion von Pathogenen am Beispiel von Legionellen N2 - Fiber-based microfluidics has undergone many innovative developments in recent years, with exciting examples of portable, cost-effective and easy-to-use detection systems already being used in diagnostic and analytical applications. In water samples, Legionella are a serious risk as human pathogens. Infection occurs through inhalation of aerosols containing Legionella cells and can cause severe pneumonia and may even be fatal. In case of Legionella contamination of water-bearing systems or Legionella infection, it is essential to find the source of the contamination as quickly as possible to prevent further infections. In drinking, industrial and wastewater monitoring, the culture-based method is still the most commonly used technique to detect Legionella contamination. In order to improve the laboratory-dependent determination, the long analysis times of 10-14 days as well as the inaccuracy of the measured values in colony forming units (CFU), new innovative ideas are needed. In all areas of application, for example in public, commercial or private facilities, rapid and precise analysis is required, ideally on site. In this PhD thesis, all necessary single steps for a rapid DNA-based detection of Legionella were developed and characterized on a fiber-based miniaturized platform. In the first step, a fast, simple and device-independent chemical lysis of the bacteria and extraction of genomic DNA was established. Subsequently, different materials were investigated with respect to their non-specific DNA retention. Glass fiber filters proved to be particularly suitable, as they allow recovery of the DNA sample from the fiber material in combination with dedicated buffers and exhibit low autofluorescence, which was important for fluorescence-based readout. A fiber-based electrophoresis unit was developed to migrate different oligonucleotides within a fiber matrix by application of an electric field. A particular advantage over lateral flow assays is the targeted movement, even after the fiber is saturated with liquid. For this purpose, the entire process of fiber selection, fiber chip patterning, combination with printed electrodes, and testing of retention and migration of different DNA samples (single-stranded, double-stranded and genomic DNA) was performed. DNA could be pulled across the fiber chip in an electric field of 24 V/cm within 5 minutes, remained intact and could be used for subsequent detection assays e.g., polymerase chain reaction (PCR) or fluorescence in situ hybridization (FISH). Fiber electrophoresis could also be used to separate DNA from other components e.g., proteins or cell lysates or to pull DNA through multiple layers of the glass microfiber. In this way, different fragments experienced a moderate, size-dependent separation. Furthermore, this arrangement offers the possibility that different detection reactions could take place in different layers at a later time. Electric current and potential measurements were collected to investigate the local distribution of the sample during migration. While an increase in current signal at high concentrations indicated the presence of DNA samples, initial experiments with methylene blue stained DNA showed a temporal sequence of signals, indicating sample migration along the chip. For the specific detection of a Legionella DNA, a FISH-based detection with a molecular beacon probe was tested on the glass microfiber. A specific region within the 16S rRNA gene of Legionella spp. served as a target. For this detection, suitable reaction conditions and a readout unit had to be set up first. Subsequently, the sensitivity of the probe was tested with the reverse complementary target sequence and the specificity with several DNA fragments that differed from the target sequence. Compared to other DNA sequences of similar length also found in Legionella pneumophila, only the target DNA was specifically detected on the glass microfiber. If a single base exchange is present or if two bases are changed, the probe can no longer distinguish between the DNA targets and non-targets. An analysis with this specificity can be achieved with other methods such as melting point determination, as was also briefly indicated here. The molecular beacon probe could be dried on the glass microfiber and stored at room temperature for more than three months, after which it was still capable of detecting the target sequence. Finally, the feasibility of fiber-based FISH detection for genomic Legionella DNA was tested. Without further processing, the probe was unable to detect its target sequence in the complex genomic DNA. However, after selecting and application of appropriate restriction enzymes, specific detection of Legionella DNA against other aquatic pathogens with similar fragment patterns as Acinetobacter haemolyticus was possible. N2 - Die faserbasierte Mikrofluidik hat in den letzten Jahren viele innovative Entwicklungen erfahren, mit spannenden Beispielen für portable, kostengünstige und einfach zu bedienende Nachweissysteme die bereits in diagnostischen und analytischen Fragestellungen Anwendung finden. In Wasserproben sind Legionellen als Humanpathogene ein ernstzunehmendes Risiko. Eine Infektion erfolgt über das Einatmen legionellenhaltiger Aerosole und kann schwerwiegende Pneumonien hervorrufen oder sogar tödlich verlaufen. Im Falle einer Legionellenkontamination von Wasserführenden Systemen beziehungsweise einer Legionellen-assoziierten Infektion ist es maßbeglich die Quelle der Kontamination möglichst schnell zu finden, um weitere Infektionen zu vermeiden. In der Überwachung von Trink- Prozess- und Abwasser ist die kulturbasierte Methode immer noch die am häufigsten verwendete Technik, um einen Legionellenbefall nachzuweisen. Um Alternativen zu einer laborabhängigen Bestimmung mit ihren langen Analysezeiten von 10-14 Tagen und der ungenauen Messwertausgabe in koloniebildenden Einheiten (KBE) zu finden, bedarf es neuer innovativer Ideen. In allen Anwendungsbereichen, zum Beispiel in öffentlichen, gewerblichen oder privaten Einrichtungen, ist eine schnelle und präzise Analyse erforderlich, idealerweise vor Ort. Im Rahmen dieser Doktorarbeit wurden alle notwendigen Einzelschritte für einen schnellen DNA-basierten Nachweis von Legionellen auf einer faserbasierten, miniaturisierten Plattform entwickelt und charakterisiert. Im ersten Schritt wurde eine schnelle, einfache und geräteunabhängige chemische Lyse der Bakterien und Extraktion der genomischen DNA etabliert. Daraufhin wurden verschiedene Materialien hinsichtlich Ihres unspezifischen DNA-Rückhalts untersucht. Glasfaserfilter erwiesen sich als besonders geeignet, da sie in Kombination mit den geeigneten Puffern eine Rückgewinnung der DNA-Probe aus dem Fasermaterial ermöglichen und für eine fluoreszenzbasierte Auslese eine geringe Autofluoreszenz aufweisen. Eine faserbasierte Elektrophoreseeinheit wurde entwickelt, um durch Anlegen eines elektrischen Feldes verschiedene Oligonukleotide innerhalb einer Fasermatrix zu bewegen. Ein besonderer Vorteil gegenüber Lateral-Flow-Tests ist die Möglichkeit der gezielten Bewegung, auch nachdem die Faser mit Flüssigkeit gesättigt ist. Hierfür wurde der gesamte Prozess der Faserauswahl, der Strukturierung der Faserchips, der Kombination mit gedruckten Elektroden und der Prüfung der Retention und Migration verschiedener DNA-Proben (einzelsträngige, doppelsträngige und genomische DNA) bearbeitet. Die DNA konnte in einem elektrischen Feld von 24 V/cm innerhalb von 5 Minuten über den Faserchip gezogen werden, blieb dabei intakt und konnte für nachfolgende Detektionsnachweise z.B. Polymerase-Ketten-Reaktion (PCR) oder Fluoreszenz in situ Hybridisierung (FISH) genutzt werden. Die Faserelektrophorese konnte außerdem zur Separation der DNA von anderen Komponenten z.B. Proteinen oder Zelllysaten verwendet werden oder um DNA durch mehrere Lagen der Glasfaser zu steuern. Dabei erfuhren verschiedene Fragmente einen moderaten, größenabhängigen Trenneffekt. Außerdem bietet diese Anordnung die Möglichkeit, dass unterschiedliche Nachweisreaktionen zu einem späteren Zeitpunkt in verschiedenen Schichten stattfinden könnten. Strom- und Potentialmessungen wurden erhoben, um die lokale Verteilung der Probe während der Migration zu untersuchen. Während ein Anstieg des Stromsignals bei hohen Konzentrationen die Anwesenheit von DNA-Proben anzeigte, konnten nach ersten Experimenten mit Methylenblau-gefärbter DNA zeitlich aufeinanderfolgende Signale detektiert werden und somit prinzipiell eine Probenmigration nachgewiesen werden. Für den spezifischen Nachweis der Legionellen-DNA wurde ein FISH-basierter Nachweis mit einer molekularen Sonde auf der Glasmikrofaser getestet. Als Ziel für die Sonde diente eine bestimmte Region innerhalb des 16S rRNA-Gens von Legionellen. Für diesen Nachweis mussten zunächst geeignete Reaktionsbedingungen und eine Ausleseeinheit bestimmt werden. Anschließend wurde die Sensitivität der Sonde mit der umgekehrt komplementären Zielsequenz und die Spezifität mit verschiedenen DNA-Fragmenten, die sich von der Zielsequenz unterschieden, getestet. Im Vergleich zu abweichenden DNA-Sequenzen ähnlicher Länge, die auch in Legionella pneumophila vorkommen, wurde nur die Ziel-DNA spezifisch auf der Glasmikrofaser erkannt. Liegt ein einzelner Basenaustausch vor oder werden zwei Basen geändert, so kann die Sonde nicht mehr zwischen der Ziel-DNA und den abweichenden DNA-Fragmenten unterscheiden. Eine Detektion mit dieser Genauigkeit ist mit anderen Methoden wie z.B. der Schmelzpunktbestimmung möglich, wie hier prinzipiell demonstriert wurde. Es wurde ferner gezeigt, dass die Sonde auf der Glasmikrofaser eingetrocknet und über drei Monate bei Raumtemperatur gelagert werden kann und danach immer noch in der Lage ist, die Zielsequenz nachzuweisen. Schließlich wurde die Anwendbarkeit des faserbasierten FISH-Nachweises auch für genomische Legionellen-DNA getestet. Ohne weitere Prozessierung war die Sonde nicht in der Lage ihre Zielsequenz in der komplexen genomischen DNA zu erkennen. Nach der Auswahl und Anwendung geeigneter Restriktionsenzyme war eine spezifische Detektion der Legionellen-DNA gegenüber anderen Wasserkeimen mit ähnlichem Fragmentmuster wie Acinetobacter haemolyticus möglich. KW - Sensor KW - paper-based KW - Legionellen KW - Legionella KW - papier-basiert KW - sensor KW - Detektionssystem KW - detection system KW - Glasfaser KW - glass fiber Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566833 ER - TY - THES A1 - Hesse, Günter T1 - A benchmark for enterprise stream processing architectures T1 - Ein Benchmark für Architekturen zur Datenstromverarbeitung im Unternehmenskontext N2 - Data stream processing systems (DSPSs) are a key enabler to integrate continuously generated data, such as sensor measurements, into enterprise applications. DSPSs allow to steadily analyze information from data streams, e.g., to monitor manufacturing processes and enable fast reactions to anomalous behavior. Moreover, DSPSs continuously filter, sample, and aggregate incoming streams of data, which reduces the data size, and thus data storage costs. The growing volumes of generated data have increased the demand for high-performance DSPSs, leading to a higher interest in these systems and to the development of new DSPSs. While having more DSPSs is favorable for users as it allows choosing the system that satisfies their requirements the most, it also introduces the challenge of identifying the most suitable DSPS regarding current needs as well as future demands. Having a solution to this challenge is important because replacements of DSPSs require the costly re-writing of applications if no abstraction layer is used for application development. However, quantifying performance differences between DSPSs is a difficult task. Existing benchmarks fail to integrate all core functionalities of DSPSs and lack tool support, which hinders objective result comparisons. Moreover, no current benchmark covers the combination of streaming data with existing structured business data, which is particularly relevant for companies. This thesis proposes a performance benchmark for enterprise stream processing called ESPBench. With enterprise stream processing, we refer to the combination of streaming and structured business data. Our benchmark design represents real-world scenarios and allows for an objective result comparison as well as scaling of data. The defined benchmark query set covers all core functionalities of DSPSs. The benchmark toolkit automates the entire benchmark process and provides important features, such as query result validation and a configurable data ingestion rate. To validate ESPBench and to ease the use of the benchmark, we propose an example implementation of the ESPBench queries leveraging the Apache Beam software development kit (SDK). The Apache Beam SDK is an abstraction layer designed for developing stream processing applications that is applied in academia as well as enterprise contexts. It allows to run the defined applications on any of the supported DSPSs. The performance impact of Apache Beam is studied in this dissertation as well. The results show that there is a significant influence that differs among DSPSs and stream processing applications. For validating ESPBench, we use the example implementation of the ESPBench queries developed using the Apache Beam SDK. We benchmark the implemented queries executed on three modern DSPSs: Apache Flink, Apache Spark Streaming, and Hazelcast Jet. The results of the study prove the functioning of ESPBench and its toolkit. ESPBench is capable of quantifying performance characteristics of DSPSs and of unveiling differences among systems. The benchmark proposed in this thesis covers all requirements to be applied in enterprise stream processing settings, and thus represents an improvement over the current state-of-the-art. N2 - Data Stream Processing Systems (DSPSs) sind eine Schlüsseltechnologie, um kontinuierlich generierte Daten, wie beispielsweise Sensormessungen, in Unternehmensanwendungen zu integrieren. Die durch DSPSs ermöglichte permanente Analyse von Datenströmen kann dabei zur Überwachung von Produktionsprozessen genutzt werden, um möglichst zeitnah auf ungewollte Veränderungen zu reagieren. Darüber hinaus filtern, sampeln und aggregieren DSPSs einkommende Daten, was die Datengröße reduziert und so auch etwaige Kosten für die Datenspeicherung. Steigende Datenvolumen haben in den letzten Jahren den Bedarf für performante DSPSs steigen lassen, was zur Entwicklung neuer DSPSs führte. Während eine große Auswahl an verfügbaren Systemen generell gut für Nutzer ist, stellt es potentielle Anwender auch vor die Herausforderung, das für aktuelle und zukünftige Anforderungen passendste DSPS zu identifizieren. Es ist wichtig, eine Lösung für diese Herausforderung zu haben, da das Austauschen von einem DSPS zu teuren Anpassungen oder Neuentwicklungen der darauf laufenden Anwendungen erfordert, falls für deren Entwicklung keine Abstraktionsschicht verwendet wurde. Das quantitative Vergleichen von DSPSs ist allerdings eine schwierige Aufgabe. Existierende Benchmarks decken nicht alle Kernfunktionalitäten von DSPSs ab und haben keinen oder unzureichenden Tool-Support, was eine objektive Ergebnisberechnung hinsichtlich der Performanz erschwert. Zudem beinhaltet kein Benchmark die Integration von Streamingdaten und strukturierten Geschäftsdaten, was ein besonders für Unternehmen relevantes Szenario ist. Diese Dissertation stellt ESPBench vor, einen neuen Benchmark für Stream Processing-Szenarien im Unternehmenskontext. Der geschäftliche Kontext wird dabei durch die Verbindung von Streamingdaten und Geschäftsdaten dargestellt. Das Design von ESPBench repräsentiert Szenarien der realen Welt, stellt die objektive Berechnung von Benchmarkergebnissen sicher und erlaubt das Skalieren über Datencharakteristiken. Das entwickelte Toolkit des Benchmarks stellt wichtige Funktionalitäten bereit, wie beispielsweise die Automatisierung den kompletten Benchmarkprozesses sowie die Überprüfung der Abfrageergebnisse hinsichtlich ihrer Korrektheit. Um ESPBench zu validieren und die Anwendung weiter zu vereinfachen, haben wir eine Beispielimplementierung der Queries veröffentlicht. Die Implementierung haben wir mithilfe des in Industrie und Wissenschaft eingesetzten Softwareentwicklungsbaukastens Apache Beam durchgeführt, der es ermöglicht, entwickelte Anwendungen auf allen unterstützten DSPSs auszuführen. Den Einfluss auf die Performanz des Verwendens von Apache Beam wird dabei ebenfalls in dieser Arbeit untersucht. Weiterhin nutzen wir die veröffentlichte Beispielimplementierung der Queries um drei moderne DSPSs mit ESPBench zu untersuchen: Apache Flink, Apache Spark Streaming und Hazelcast Jet. Der Ergebnisse der Studie verdeutlichen die Funktionsfähigkeit von ESPBench und dessen Toolkit. ESPBench befähigt Performanzcharakteristiken von DSPSs zu quantifizieren und Unterschiede zwischen Systemen aufzuzeigen. Der in dieser Dissertation vorgestellte Benchmark erfüllt alle Anforderungen, um in Stream Processing-Szenarien im Unternehmenskontext eingesetzt zu werden und stellt somit eine Verbesserung der aktuellen Situation dar. KW - stream processing KW - performance KW - benchmarking KW - dsps KW - espbench KW - benchmark KW - Performanz KW - Datenstromverarbeitung KW - Benchmark Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566000 ER - TY - THES A1 - Jiang, Lan T1 - Discovering metadata in data files N2 - It is estimated that data scientists spend up to 80% of the time exploring, cleaning, and transforming their data. A major reason for that expenditure is the lack of knowledge about the used data, which are often from different sources and have heterogeneous structures. As a means to describe various properties of data, metadata can help data scientists understand and prepare their data, saving time for innovative and valuable data analytics. However, metadata do not always exist: some data file formats are not capable of storing them; metadata were deleted for privacy concerns; legacy data may have been produced by systems that were not designed to store and handle meta- data. As data are being produced at an unprecedentedly fast pace and stored in diverse formats, manually creating metadata is not only impractical but also error-prone, demanding automatic approaches for metadata detection. In this thesis, we are focused on detecting metadata in CSV files – a type of plain-text file that, similar to spreadsheets, may contain different types of content at arbitrary positions. We propose a taxonomy of metadata in CSV files and specifically address the discovery of three different metadata: line and cell type, aggregations, and primary keys and foreign keys. Data are organized in an ad-hoc manner in CSV files, and do not follow a fixed structure, which is assumed by common data processing tools. Detecting the structure of such files is a prerequisite of extracting information from them, which can be addressed by detecting the semantic type, such as header, data, derived, or footnote, of each line or each cell. We propose the supervised- learning approach Strudel to detect the type of lines and cells. CSV files may also include aggregations. An aggregation represents the arithmetic relationship between a numeric cell and a set of other numeric cells. Our proposed AggreCol algorithm is capable of detecting aggregations of five arithmetic functions in CSV files. Note that stylistic features, such as font style and cell background color, do not exist in CSV files. Our proposed algorithms address the respective problems by using only content, contextual, and computational features. Storing a relational table is also a common usage of CSV files. Primary keys and foreign keys are important metadata for relational databases, which are usually not present for database instances dumped as plain-text files. We propose the HoPF algorithm to holistically detect both constraints in relational databases. Our approach is capable of distinguishing true primary and foreign keys from a great amount of spurious unique column combinations and inclusion dependencies, which can be detected by state-of-the-art data profiling algorithms. N2 - Schätzungen zufolge verbringen Datenwissenschaftler bis zu 80% ihrer Zeit mit der Erkundung, Bereinigung und Umwandlung ihrer Daten. Ein Hauptgrund für diesen Aufwand ist das fehlende Wissen über die verwendeten Daten, die oft aus unterschiedlichen Quellen stammen und heterogene Strukturen aufweisen. Als Mittel zur Beschreibung verschiedener Dateneigenschaften können Metadaten Datenwissenschaftlern dabei helfen, ihre Daten zu verstehen und aufzubereiten, und so wertvolle Zeit die Datenanalysen selbst sparen. Metadaten sind jedoch nicht immer vorhanden: Zum Beispiel sind einige Dateiformate nicht in der Lage, sie zu speichern; Metadaten können aus Datenschutzgründen gelöscht worden sein; oder ältere Daten wurden möglicherweise von Systemen erzeugt, die nicht für die Speicherung und Verarbeitung von Metadaten konzipiert waren. Da Daten in einem noch nie dagewesenen Tempo produziert und in verschiedenen Formaten gespeichert werden, ist die manuelle Erstellung von Metadaten nicht nur unpraktisch, sondern auch fehleranfällig, so dass automatische Ansätze zur Metadatenerkennung erforderlich sind. In dieser Arbeit konzentrieren wir uns auf die Erkennung von Metadaten in CSV-Dateien - einer Art von Klartextdateien, die, ähnlich wie Tabellenkalkulationen, verschiedene Arten von Inhalten an beliebigen Positionen enthalten können. Wir schlagen eine Taxonomie der Metadaten in CSV-Dateien vor und befassen uns speziell mit der Erkennung von drei verschiedenen Metadaten: Zeile und Zellensemantischer Typ, Aggregationen sowie Primärschlüssel und Fremdschlüssel. Die Daten sind in CSV-Dateien ad-hoc organisiert und folgen keiner festen Struktur, wie sie von gängigen Datenverarbeitungsprogrammen angenommen wird. Die Erkennung der Struktur solcher Dateien ist eine Voraussetzung für die Extraktion von Informationen aus ihnen, die durch die Erkennung des semantischen Typs jeder Zeile oder jeder Zelle, wie z. B. Kopfzeile, Daten, abgeleitete Daten oder Fußnote, angegangen werden kann. Wir schlagen den Ansatz des überwachten Lernens, genannt „Strudel“ vor, um den strukturellen Typ von Zeilen und Zellen zu klassifizieren. CSV-Dateien können auch Aggregationen enthalten. Eine Aggregation stellt die arithmetische Beziehung zwischen einer numerischen Zelle und einer Reihe anderer numerischer Zellen dar. Der von uns vorgeschlagene „Aggrecol“-Algorithmus ist in der Lage, Aggregationen von fünf arithmetischen Funktionen in CSV-Dateien zu erkennen. Da stilistische Merkmale wie Schriftart und Zellhintergrundfarbe in CSV-Dateien nicht vorhanden sind, die von uns vorgeschlagenen Algorithmen die entsprechenden Probleme, indem sie nur die Merkmale Inhalt, Kontext und Berechnungen verwenden. Die Speicherung einer relationalen Tabelle ist ebenfalls eine häufige Verwendung von CSV-Dateien. Primär- und Fremdschlüssel sind wichtige Metadaten für relationale Datenbanken, die bei Datenbankinstanzen, die als reine Textdateien gespeichert werden, normalerweise nicht vorhanden sind. Wir schlagen den „HoPF“-Algorithmus vor, um beide Constraints in relationalen Datenbanken ganzheitlich zu erkennen. Unser Ansatz ist in der Lage, echte Primär- und Fremdschlüssel von einer großen Menge an falschen eindeutigen Spaltenkombinationen und Einschlussabhängigkeiten zu unterscheiden, die von modernen Data-Profiling-Algorithmen erkannt werden können. KW - data preparation KW - metadata detection KW - data wrangling KW - Datenaufbereitung KW - Datentransformation KW - Erkennung von Metadaten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566204 ER - TY - THES A1 - Brinkmann, Maik T1 - Towards a joint public service delivery? The effects of blockchain on the relationship of public administrations with external stakeholders T1 - Auf dem Weg zu gemeinsam erbrachten Verwaltungsleistungen? Die Auswirkungen von Blockchain auf die Beziehungen zwischen öffentlichen Verwaltungen und externen Akteuren N2 - Public administrations confront fundamental challenges, including globalization, digitalization, and an eroding level of trust from society. By developing joint public service delivery with other stakeholders, public administrations can respond to these challenges. This increases the importance of inter-organizational governance—a development often referred to as New Public Governance, which to date has not been realized because public administrations focus on intra-organizational practices and follow the traditional “governmental chain.” E-government initiatives, which can lead to high levels of interconnected public services, are currently perceived as insufficient to meet this goal. They are not designed holistically and merely affect the interactions of public and non-public stakeholders. A fundamental shift toward a joint public service delivery would require scrutiny of established processes, roles, and interactions between stakeholders. Various scientists and practitioners within the public sector assume that the use of blockchain institutional technology could fundamentally change the relationship between public and non-public stakeholders. At first glance, inter-organizational, joint public service delivery could benefit from the use of blockchain. This dissertation aims to shed light on this widespread assumption. Hence, the objective of this dissertation is to substantiate the effect of blockchain on the relationship between public administrations and non-public stakeholders. This objective is pursued by defining three major areas of interest. First, this dissertation strives to answer the question of whether or not blockchain is suited to enable New Public Governance and to identify instances where blockchain may not be the proper solution. The second area aims to understand empirically the status quo of existing blockchain implementations in the public sector and whether they comply with the major theoretical conclusions. The third area investigates the changing role of public administrations, as the blockchain ecosystem can significantly increase the number of stakeholders. Corresponding research is conducted to provide insights into these areas, for example, combining theoretical concepts with empirical actualities, conducting interviews with subject matter experts and key stakeholders of leading blockchain implementations, and performing a comprehensive stakeholder analysis, followed by visualization of its results. The results of this dissertation demonstrate that blockchain can support New Public Governance in many ways while having a minor impact on certain aspects (e.g., decentralized control), which account for this public service paradigm. Furthermore, the existing projects indicate changes to relationships between public administrations and non-public stakeholders, although not necessarily the fundamental shift proposed by New Public Governance. Lastly, the results suggest that power relations are shifting, including the decreasing influence of public administrations within the blockchain ecosystem. The results raise questions about the governance models and regulations required to support mature solutions and the further diffusion of blockchain for public service delivery. N2 - Öffentliche Verwaltungen stehen vor grundlegenden Herausforderungen, darunter Globalisierung, Digitalisierung und ein schwindendes Vertrauen der Gesellschaft. Durch die gemeinsame Erbringung von Verwaltungsleistungen mit anderen Akteuren können öffentliche Verwaltungen auf diese Herausforderungen reagieren. Dies erhöht die Bedeutung der interorganisatorischen Governance – eine Entwicklung, die oft als New Public Governance bezeichnet wird und die bisher nicht realisiert wurde, weil sich die öffentlichen Verwaltungen auf organisationsinterne Praktiken konzentrieren und der traditionellen "Governmental chain" folgen. E-Government-Initiativen, die zu einem hohen Maß an vernetzten Verwaltungsleistungen führen können, werden derzeit als unzureichend angesehen, um dieses Ziel zu erreichen. Sie sind nicht ganzheitlich konzipiert und betreffen lediglich die Interaktionen zwischen öffentlichen und nicht-öffentlichen Akteuren. Ein grundlegender Wandel hin zu einer gemeinsamen Erbringung von Verwaltungsleistungen würde eine Überprüfung der etablierten Prozesse, Rollen und Interaktionen zwischen den Beteiligten erfordern. Verschiedene Wissenschaftler und Praktiker im öffentlichen Sektor gehen davon aus, dass der Einsatz der institutionellen Blockchain-Technologie die Beziehungen zwischen öffentlichen und nicht-öffentlichen Akteuren grundlegend verändern könnte. Auf den ersten Blick könnte die interorganisationale, gemeinsame Erbringung von Verwaltungsleistungen von der Nutzung der Blockchain profitieren. Diese Dissertation soll diese weit verbreitete Annahme beleuchten. Ziel dieser Arbeit ist es daher, die Auswirkungen von Blockchain auf die Beziehungen zwischen öffentlichen Verwaltungen und nicht-öffentlichen Akteuren zu belegen. Dieses Ziel wird durch die Definition von drei wesentlichen Erkenntnisbereichen verfolgt. Erstens soll in dieser Dissertation die Frage beantwortet werden, ob Blockchain geeignet ist, um New Public Governance zu ermöglichen, und es sollen Fälle ermittelt werden, in denen Blockchain möglicherweise nicht die richtige Lösung ist. Der zweite Bereich zielt darauf ab, den Status quo der bestehenden Blockchain-Implementierungen im öffentlichen Sektor empirisch zu verstehen und zu prüfen, ob sie den wichtigsten theoretischen Schlussfolgerungen entsprechen. Der dritte Bereich untersucht die sich verändernde Rolle der öffentlichen Verwaltungen, da das Blockchain-Ökosystem die Zahl der Beteiligten erheblich erhöhen kann. Entsprechende Forschungsarbeiten werden durchgeführt, um Einblicke in diese Bereiche zu gewinnen, z. B. durch die Kombination von theoretischen Konzepten mit empirischen Befunden, die Durchführung von Interviews mit Fachleuten und wichtigen Akteuren führender Blockchain-Implementierungen und die Durchführung einer umfassenden Stakeholder-Analyse mit anschließender Visualisierung der Ergebnisse. Die Ergebnisse dieser Dissertation zeigen, dass Blockchain New Public Governance in vielerlei Hinsicht unterstützen kann, während sie sich auf bestimmte Aspekte (z. B. dezentrale Steuerung), die dieses Verwaltungsparadigma ausmachen, nur wenig auswirkt. Darüber hinaus deuten die bestehenden Projekte auf Veränderungen in den Beziehungen zwischen öffentlichen Verwaltungen und nicht-öffentlichen Akteuren hin, wenn auch nicht unbedingt auf die von der New Public Governance vorgeschlagene grundlegende Veränderung. Schließlich deuten die Ergebnisse darauf hin, dass sich die Machtverhältnisse verschieben, einschließlich des abnehmenden Einflusses der öffentlichen Verwaltungen innerhalb des Blockchain-Ökosystems. Die Ergebnisse werfen Fragen zu den Governance-Modellen und zur Regulierung auf, die zur Unterstützung ausgereifter Lösungen und der weiteren Verbreitung von Blockchain für die Erbringung öffentlicher Verwaltungsleistungen erforderlich sind. KW - blockchain KW - new public governance KW - blockchain governance KW - digital sovereignty KW - public service delivery KW - Blockchain KW - Blockchain Governance KW - digitale Souveränität KW - New Public Governance KW - Erbringung von Verwaltungsleistungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564499 ER - TY - THES A1 - Jongejans, Loeka Laura T1 - Organic matter stored in ice-rich permafrost T1 - Ablagerung von organischem Kohlenstoff in eisreichem Permafrost BT - future permafrost thaw and greenhouse gas release BT - zukünftige Permafrosttauen und Treibhausgasemissionen N2 - The Arctic is changing rapidly and permafrost is thawing. Especially ice-rich permafrost, such as the late Pleistocene Yedoma, is vulnerable to rapid and deep thaw processes such as surface subsidence after the melting of ground ice. Due to permafrost thaw, the permafrost carbon pool is becoming increasingly accessible to microbes, leading to increased greenhouse gas emissions, which enhances the climate warming. The assessment of the molecular structure and biodegradability of permafrost organic matter (OM) is highly needed. My research revolves around the question “how does permafrost thaw affect its OM storage?” More specifically, I assessed (1) how molecular biomarkers can be applied to characterize permafrost OM, (2) greenhouse gas production rates from thawing permafrost, and (3) the quality of OM of frozen and (previously) thawed sediments. I studied deep (max. 55 m) Yedoma and thawed Yedoma permafrost sediments from Yakutia (Sakha Republic). I analyzed sediment cores taken below thermokarst lakes on the Bykovsky Peninsula (southeast of the Lena Delta) and in the Yukechi Alas (Central Yakutia), and headwall samples from the permafrost cliff Sobo-Sise (Lena Delta) and the retrogressive thaw slump Batagay (Yana Uplands). I measured biomarker concentrations of all sediment samples. Furthermore, I carried out incubation experiments to quantify greenhouse gas production in thawing permafrost. I showed that the biomarker proxies are useful to assess the source of the OM and to distinguish between OM derived from terrestrial higher plants, aquatic plants and microbial activity. In addition, I showed that some proxies help to assess the degree of degradation of permafrost OM, especially when combined with sedimentological data in a multi-proxy approach. The OM of Yedoma is generally better preserved than that of thawed Yedoma sediments. The greenhouse gas production was highest in the permafrost sediments that thawed for the first time, meaning that the frozen Yedoma sediments contained most labile OM. Furthermore, I showed that the methanogenic communities had established in the recently thawed sediments, but not yet in the still-frozen sediments. My research provided the first molecular biomarker distributions and organic carbon turnover data as well as insights in the state and processes in deep frozen and thawed Yedoma sediments. These findings show the relevance of studying OM in deep permafrost sediments. N2 - Die Arktis ist eine der sich am schnellsten verändernden Regionen der Erde, was zum tauen des dortigen Permafrosts führt. Eisreicher Permafrost, wie der spätpleistozäne Yedoma, ist besonders anfällig für schnelle und tiefe Auftauprozesse infolge von Absenkungen der Oberfläche nach dem Schmelzen des Grundeises. Durch das Auftauen des Permafrosts wird der im Permafrost gespeicherte Kohlenstoff für Mikroben zunehmend zugänglich, was zu erhöhten Treibhausgasemissionen führt und die Klimaerwärmung verstärkt. Die Untersuchung der molekularen Struktur und der biologischen Abbaubarkeit von organischem Material (OM) im Permafrost ist dringend erforderlich. In meiner Forschung geht es um die zentrale Frage inwieweit das Auftauen des Permafrost die Speicherfähigkeit von OM beeinflusst. Insbesondere untersuchte ich (1) wie molekulare Biomarker bei der Charakterisierung von Permafrost-OM verwendet werden können, (2) Treibhausgasproduktionsraten in auftauendem Permafrost und (3) die Qualität von OM in gefrorenen und (vorher) aufgetauten Sedimenten. Dazu habe ich tiefe (bis zu 55 m) Yedoma und aufgetaute Yedoma Permafrostsedimente aus Jakutien (Republik Sacha) untersucht. Es wurden Sedimentkerne unter Thermokarstseen auf der Bykovsky-Halbinsel (südöstlich des Lenadeltas) und im Yukechi-Alas (Zentraljakutien) entnommen, und deren Biomarkerkonzentrationen gemessen. Desweiteren wurden Bodenproben von der Permafrostklippe Sobo-Sise (Lenadelta) und der Taurutschung Batagai (Jana-Hochland) genommen und untersucht. Darüber hinaus habe ich Inkubationsexperimente durchgeführt, um die Treibhausgasproduktion in auftauenden Permafrost zu quantifizieren. Ich habe gezeigt, dass Biomarker-Proxies nützlich sind, um die Quelle des OM zu ermitteln und zwischen OM aus Landpflanzen, Wasserpflanzen und mikrobieller Aktivität zu unterscheiden. Außerdem sind einige Proxies hilfreich, den Abbaugrad von Permafrost-OM zu beurteilen. Dies trifft insbesondere in Kombination mit sedimentologischen Daten in einem Multi-Proxy-Ansatz. Ich zeigte dass der OM von Yedoma im Allgemeinen besser erhalten ist als der von aufgetauten Yedoma-Sedimenten. Die Treibhausgasproduktion in den erstmalig auftauenden Permafrostsedimenten war am höchsten. Dies bedeutet, dass die gefrorenen Yedoma-Sedimente das meiste labile OM enthielten. Außerdem zeigte ich, dass sich die methanproduzierenden Gemeinschaften in den frisch aufgetauten Sedimenten etabliert hatten, jedoch nicht in den noch gefrorenen Sedimenten. Meiner Forschung hat die ersten molekularen Biomarkerverteilungen und Kohlenstoffumsatzdaten geliefert und Einsichten in den Zustand und Prozesse von gefrorenen und aufgetauten Yedoma-Sedimenten geschaffen. Diese Ergebnisse demonstrieren die Relevanz der Untersuchung von OM in tiefen Permafrostsedimenten. N2 - Het Noordpoolgebied verandert snel en permafrost ontdooit. Met name ijsrijke permafrost, zoals Yedoma uit het laat Pleistoceen, is gevoelig voor snelle en diepe dooiprocessen als gevolg van bodemdaling na het smelten van bodemijs. Door het ontdooien van permafrost wordt het permafrostkoolstofreservoir beter toegankelijk voor microben, wat tot verhoogde broeikasgasemissies leidt en de klimaatopwarming versterkt. Het is van groot belang om de moleculaire structuur en de biologische afbreekbaarheid van organisch materiaal (OM) in permafrost vast te leggen. Mijn onderzoek draait om de vraag "hoe beinvloedt permafrostdooi de OM-opslag?" Specifiek heb ik onderzocht (1) hoe moleculaire biomarkers kunnen worden gebruikt om permafrost-OM te karakteriseren, (2) wat broeikasgasproductiesnelheden in ontdooiende permafrost zijn en (3) wat de kwaliteit is van het OM in bevroren en (eerder) ontdooide sedimenten. Ik heb diepe (max. 55 m) Yedoma en ontdooide Yedoma permafrostsedimenten uit Jakoetië (republiek Sacha) onderzocht. Sedimentkernen zijn genomen onder thermokarstmeren op het Bykovsky schiereiland (ten zuidoosten van de Lenadelta) en in de Yukechi Alas (centraal Jakoetië). Ook zijn bodemmonsters genomen van de permafrostklif Sobo-Sise (Lenadelta) en de zogenaamde thaw slump Batagai (Jana-hoogvlakte). In alle monsters heb ik de biomarkerconcentraties gemeten. Ook heb ik incubatie-experimenten uitgevoerd om de broeikasgasproductie in ontdooiende permafrost te kwantificeren. Mijn onderzoek wijst uit dat de biomarkerproxies nuttig zijn bij het vaststellen van de bron van het OM en om onderscheid te kunnen maken tussen OM van landplanten, waterplanten en OM afkomstig van microbiële activiteit. Daarnaast heb ik aangetoond dat sommige proxies nuttig zijn om de mate van degradatie van het OM vast te stellen, vooral in combinatie met sedimentologische data in een multi-proxy-benadering. Het blijkt dat het OM in Yedoma over het algemeen beter bewaard gebleven is dan het OM in ontdooide Yedoma-sedimenten. De broeikasgasproductie bleek het hoogst in de voor het eerst ontdooide permafrostsedimenten, wat betekent dat de bevroren Yedoma-sedimenten het meeste labiele OM bevatten. Bovendien heb ik aangetoond dat de methaan-producerende gemeenschappen zich wel in de recentelijk ontdooide sedimenten hebben gevestigd, maar nog niet in de nog bevroren sedimenten. Mijn onderzoek heeft de eerste moleculaire biomarker- en koolstofomzetdata en inzichten opgeleverd in de toestand en processen van diepe, bevroren en ontdooide Yedoma-sedimenten. Deze resultaten tonen de relevantie van het bestuderen van OM in diepe permafrostsedimenten. KW - permafrost sediments KW - organic matter KW - molecular biomarkers KW - anaerobic incubation experiments KW - Russian Arctic KW - Permafrostsedimente KW - organisches Material KW - molekulare Biomarker KW - anaerobe Inkubationensexperimente KW - russische Arktis Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564911 ER - TY - THES A1 - Trautmann, Tina T1 - Understanding global water storage variations using model-data integration T1 - Verständnis der Variabilität globaler Wasserspeicher mittels Modell-Daten Integration N2 - Climate change is one of the greatest challenges to humanity in this century, and most noticeable consequences are expected to be impacts on the water cycle – in particular the distribution and availability of water, which is fundamental for all life on Earth. In this context, it is essential to better understand where and when water is available and what processes influence variations in water storages. While estimates of the overall terrestrial water storage (TWS) variations are available from the GRACE satellites, these represent the vertically integrated signal over all water stored in ice, snow, soil moisture, groundwater and surface water bodies. Therefore, complementary observational data and hydrological models are still required to determine the partitioning of the measured signal among different water storages and to understand the underlying processes. However, the application of large-scale observational data is limited by their specific uncertainties and the incapacity to measure certain water fluxes and storages. Hydrological models, on the other hand, vary widely in their structure and process-representation, and rarely incorporate additional observational data to minimize uncertainties that arise from their simplified representation of the complex hydrologic cycle. In this context, this thesis aims to contribute to improving the understanding of global water storage variability by combining simple hydrological models with a variety of complementary Earth observation-based data. To this end, a model-data integration approach is developed, in which the parameters of a parsimonious hydrological model are calibrated against several observational constraints, inducing GRACE TWS, simultaneously, while taking into account each data’s specific strengths and uncertainties. This approach is used to investigate 3 specific aspects that are relevant for modelling and understanding the composition of large-scale TWS variations. The first study focusses on Northern latitudes, where snow and cold-region processes define the hydrological cycle. While the study confirms previous findings that seasonal dynamics of TWS are dominated by the cyclic accumulation and melt of snow, it reveals that inter-annual TWS variations on the contrary, are determined by variations in liquid water storages. Additionally, it is found to be important to consider the impact of compensatory effects of spatially heterogeneous hydrological variables when aggregating the contribution of different storage components over large areas. Hence, the determinants of TWS variations are scale-dependent and underlying driving mechanism cannot be simply transferred between spatial and temporal scales. These findings are supported by the second study for the global land areas beyond the Northern latitudes as well. This second study further identifies the considerable impact of how vegetation is represented in hydrological models on the partitioning of TWS variations. Using spatio-temporal varying fields of Earth observation-based data to parameterize vegetation activity not only significantly improves model performance, but also reduces parameter equifinality and process uncertainties. Moreover, the representation of vegetation drastically changes the contribution of different water storages to overall TWS variability, emphasizing the key role of vegetation for water allocation, especially between sub-surface and delayed water storages. However, the study also identifies parameter equifinality regarding the decay of sub-surface and delayed water storages by either evapotranspiration or runoff, and thus emphasizes the need for further constraints hereof. The third study focuses on the role of river water storage, in particular whether it is necessary to include computationally expensive river routing for model calibration and validation against the integrated GRACE TWS. The results suggest that river routing is not required for model calibration in such a global model-data integration approach, due to the larger influence other observational constraints, and the determinability of certain model parameters and associated processes are identified as issues of greater relevance. In contrast to model calibration, considering river water storage derived from routing schemes can already significantly improve modelled TWS compared to GRACE observations, and thus should be considered for model evaluation against GRACE data. Beyond these specific findings that contribute to improved understanding and modelling of large-scale TWS variations, this thesis demonstrates the potential of combining simple modeling approaches with diverse Earth observational data to improve model simulations, overcome inconsistencies of different observational data sets, and identify areas that require further research. These findings encourage future efforts to take advantage of the increasing number of diverse global observational data. N2 - Der Klimawandel stellt mit Abstand eine der größten Herausforderungen für die Menschheit in diesem Jahrhundert da, und die spürbarsten Folgen werden voraussichtlich die Auswirkungen auf den Wasserkreislauf sein - insbesondere auf die Verteilung und Verfügbarkeit von Wasser, welches Grundlage allen Lebens dieser Erde ist. In diesem Zusammenhang ist es von entscheidender Bedeutung, besser zu verstehen, wo und wann Wasser verfügbar ist und welche Prozesse natürliche Schwankungen der Wasserspeicher beeinflussen. Obwohl Schätzungen der Gesamtschwankungen der terrestrischen Wasserspeicher (TWS) basierend auf Daten der GRACE-Satelliten vorliegen, stellen diese nur das vertikal integrierte Signal über alles in Eis, Schnee, Bodenfeuchtigkeit, Grundwasser und Oberflächengewässern gespeicherte Wasser dar. Daher sind ergänzende Beobachtungsdaten und hydrologische Modelle notwendig, um die Aufteilung des gemessenen Signals auf verschiedenen Wasserspeicher zu bestimmen und die zugrunde liegenden Prozesse zu verstehen. Die Verwendung von großmaßstäblichen Beobachtungsdaten ist jedoch durch ihre spezifischen Unsicherheiten und die Unfähigkeit, bestimmte Wasserflüsse und -speicher zu messen, eingeschränkt. Hydrologische Modelle hingegen unterscheiden sich stark in ihrer Struktur und Prozessdarstellung und beziehen nur selten zusätzliche Beobachtungsdaten ein, um Unsicherheiten zu minimieren, die sich aus ihrer vereinfachten Darstellung des komplexen Wasserkreislaufs ergeben. In diesem Zusammenhang gibt diese Arbeit einen Beitrag zum besseren Verständnis der Schwankungen globaler Wasserspeicher, indem einfache hydrologische Modelle mit einer Vielzahl sich ergänzender Erdbeobachtungsdaten kombiniert werden. Dafür wird ein Ansatz zur Integration von Modellen und Daten entwickelt, bei dem die Parameter eines einfachen hydrologischen Modells gleichzeitig gegen mehrere Beobachtungsdaten, inklusive GRACE TWS, kalibriert werden, wobei deren spezifischen Stärken und Unsicherheiten berücksichtigt werden. Dieser Ansatz wird genutzt, um drei spezifische Aspekte, die für die Modellierung und das Verständnis der Zusammensetzung großskaliger TWS-Schwankungen relevant sind, zu untersuchen. Die erste Studie konzentriert sich auf die nördlichen Breiten, wo Schnee und Prozesse kalter Regionen den hydrologischen Kreislauf bestimmen. Während die Studie frühere Erkenntnisse darin bestätigt, dass die saisonale Dynamik des TWS von der zyklischen Akkumulation und Schmelze von Schnee dominiert wird, zeigt sie, dass die zwischenjährlichen TWS-Schwankungen im Gegenteil durch Variationen der Flüssigwasserspeicher bestimmt werden. Darüber hinaus wird festgestellt, dass es wichtig ist, die Auswirkungen kompensatorischer Effekte räumlich heterogener hydrologischer Variablen zu berücksichtigen, wenn der Beitrag verschiedener Speicherkomponenten über große Gebiete aggregiert wird. Die Determinanten der TWS-Schwankungen sind skalenabhängig, und die zugrunde liegenden Antriebsmechanismen lassen sich nicht einfach zwischen räumlichen und zeitlichen Skalen übertragen. Diese Ergebnisse werden durch die zweite Studie auch auf globaler Skale bestätigt. Diese zweite Studie zeigt außerdem, dass die Art und Weise, wie Vegetation in hydrologischen Modellen dargestellt wird, einen erheblichen Einfluss auf die Aufteilung der TWS-Variationen hat. Die Verwendung von raum-zeitlich variierenden Erdbeobachtungsdaten zur Parametrisierung der Vegetationsaktivität verbessert nicht nur die Modellleistung erheblich, sondern verringert auch die Parameterequifinalität und somit die Prozessunsicherheiten. Darüber hinaus beeinflusst die Repräsentation der Vegetation drastisch den Einfluss verschiedener Wasserspeicher zur Gesamtvariabilität des TWS und unterstreicht damit die Schlüsselrolle der Vegetation für die Wasserverteilung, insbesondere zwischen unterirdischen und verzögerten Wasserspeichern. Die Studie zeigt jedoch auch, dass die Parameter für den Verringerung der unterirdischen und verzögerten Wasserspeichern, entweder via Evapotranspiration oder via Abfluss, äquivalent sind, und unterstreicht damit die Notwendigkeit weiterer Eingrenzung durch Beobachtungsdaten. Die dritte Studie befasst sich mit der Rolle der Wasserspeicherung in Flüssen, insbesondere mit der Frage, ob es notwendig ist, das rechenintensive Abfluss-Routing für die Kalibrierung und Validierung des Modells gegen GRACE TWS Daten zu berücksichtigen. Die Ergebnisse deuten darauf hin, dass das Abfluss-Routing für die Modellkalibrierung in einem solchen globalen Modell-Daten-Integrationsansatz nicht erforderlich ist, da andere Beobachtungsdaten einen größeren Einfluss haben und die Definierbarkeit bestimmter Modellparameter und damit zusammenhängender Prozesse relevantere Probleme darstellen. Im Gegensatz zur Modellkalibrierung kann die Berücksichtigung von Flusswasserspeichern jedoch den modellierten TWS im Vergleich zu GRACE-Beobachtungen bereits erheblich verbessern und sollte daher bei der Modellevaluierung gegen GRACE-Daten berücksichtigt werden. Über diese spezifischen Ergebnisse hinaus, die zum besseren Verständnis und Modellierung großskaliger TWS-Variationen beitragen, zeigt diese Arbeit das Potenzial der Kombination einfacher Modellierungsansätze mit verschiedenen Erdbeobachtungsdaten zur Verbesserung von Modellsimulationen, zur Überwindung von Inkonsistenzen zwischen verschiedenen Beobachtungsdatensätzen und zur Identifizierung von Themen, die weitere Forschung erfordern. Diese Ergebnisse ermutigen künftige Forschungen, die zunehmende Zahl unterschiedlicher globaler Beobachtungsdaten zu nutzen. KW - global hydrological modeling KW - model-data integration KW - terrestrial water storage variation KW - model calibration KW - globale hydrologische Modellierung KW - Modellkalibrierung KW - Model-Daten Integration KW - Variationen terrestrischer Wasserspeicher Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565954 ER - TY - THES A1 - Ilin, Ekaterina T1 - High lights: stellar flares as probes of magnetism in stars and star-planet systems T1 - Highlights: Sterneruptionen als Sonden des Magnetismus in Sternen und Stern-Planeten Systemen N2 - Flares are magnetically driven explosions that occur in the atmospheres of all main sequence stars that possess an outer convection zone. Flaring activity is rooted in the magnetic dynamo that operates deep in the stellar interior, propagates through all layers of the atmosphere from the corona to the photosphere, and emits electromagnetic radiation from radio bands to X-ray. Eventually, this radiation, and associated eruptions of energetic particles, are ejected out into interplanetary space, where they impact planetary atmospheres, and dominate the space weather environments of young star-planet systems. Thanks to the Kepler and the Transit Exoplanet Survey Satellite (TESS) missions, flare observations have become accessible for millions of stars and star-planet systems. The goal of this thesis is to use these flares as multifaceted messengers to understand stellar magnetism across the main sequence, investigate planetary habitability, and explore how close-in planets can affect the host star. Using space based observations obtained by the Kepler/K2 mission, I found that flaring activity declines with stellar age, but this decline crucially depends on stellar mass and rotation. I calibrated the age of the stars in my sample using their membership in open clusters from zero age main sequence to solar age. This allowed me to reveal the rapid transition from an active, saturated flaring state to a more quiescent, inactive flaring behavior in early M dwarfs at about 600-800 Myr. This result is an important observational constraint on stellar activity evolution that I was able to de-bias using open clusters as an activity-independent age indicator. The TESS mission quickly superseded Kepler and K2 as the main source of flares in low mass M dwarfs. Using TESS 2-minute cadence light curves, I developed a new technique for flare localization and discovered, against the commonly held belief, that flares do not occur uniformly across their stellar surface: In fast rotating fully convective stars, giant flares are preferably located at high latitudes. This bears implications for both our understanding of magnetic field emergence in these stars, and the impact on the exoplanet atmospheres: A planet that orbits in the equatorial plane of its host may be spared from the destructive effects of these poleward emitting flares. AU Mic is an early M dwarf, and the most actively flaring planet host detected to date. Its innermost companion, AU Mic b is one of the most promising targets for a first observation of flaring star-planet interactions. In these interactions, the planet influences the star, as opposed to space weather, where the planet is always on the receiving side. The effect reflects the properties of the magnetosphere shared by planet and star, as well as the so far inaccessible magnetic properties of planets. In the about 50 days of TESS monitoring data of AU Mic, I searched for statistically robust signs of flaring interactions with AU Mic b as flares that occur in surplus of the star's intrinsic activity. I found the strongest yet still marginal signal in recurring excess flaring in phase with the orbital period of AU Mic b. If it reflects true signal, I estimate that extending the observing time by a factor of 2-3 will yield a statistically significant detection. Well within the reach of future TESS observations, this additional data may bring us closer to robustly detecting this effect than we have ever been. This thesis demonstrates the immense scientific value of space based, long baseline flare monitoring, and the versatility of flares as a carrier of information about the magnetism of star-planet systems. Many discoveries still lay in wait in the vast archives that Kepler and TESS have produced over the years. Flares are intense spotlights into the magnetic structures in star-planet systems that are otherwise far below our resolution limits. The ongoing TESS mission, and soon PLATO, will further open the door to in-depth understanding of small and dynamic scale magnetic fields on low mass stars, and the space weather environment they effect. N2 - Flares sind magnetisch getriebene Explosionen. Sie treten in den Atmosphären aller Hauptreihensterne mit einer äußeren Konvektionszone auf, und sind auf den magnetischen Dynamo zurückzuführen, der tief im Sterninneren arbeitet. Das entstehende Magnetfeld durchdringt alle Schichten der Atmosphäre von der Korona bis zur Photosphäre und sendet elektromagnetische Strahlung vom Radio- bis in den Röntgenbereich aus. Diese Strahlung und die damit verbundenen Eruptionen energiereicher Teilchen werden anschließend in den interplanetaren Raum geschleudert, wo sie auf die Planetenatmosphären treffen und das Weltraumwetter junger Stern-Planeten-Systeme bestimmen. Die Kepler und die Transiting Exoplanet Survey Satellite (TESS) Missionen haben in den letzten Jahren die systematische Beobachtung von Flares auf Millionen von Sternen ermöglicht. Das Ziel dieser Dissertation ist es, Flares in jungen Sternen und Stern-Planeten-Systemen als vielseitige Werkzeuge zur Sondierung des stellaren Magnetismus auf der Hauptreihe zu etablierten, ihre Rolle bei der Bewohnbarkeit von Planeten zu untersuchen und zu erforschen, wie die Wechselwirkung mit nahen Planeten die magnetische Aktivität des Wirtssterns beeinflusst. Anhand von weltraumgestützten Beobachtungen der Kepler/K2-Mission habe ich herausgefunden, dass die Flare-Aktivität mit dem Alter des Sterns abnimmt, wobei dieser Rückgang entscheidend von der Masse und der Rotation des Sterns abhängt. Ich kalibrierte das Alter der Sterne in meiner Stichprobe anhand ihrer Zugehörigkeit zu offenen Sternhaufen von der Nullalter-Hauptreihe bis zum Zustand der heutigen Sonne. Auf diese Weise konnte ich den schnellen Übergang von einer aktiven, gesättigten Flare-Aktivität zu einem ruhigeren, inaktiven Zustand bei frühen M-Zwergen bei etwa 600-800 Millionen Jahren aufdecken. Dieser Zeitpunkt ist eine wichtige Randbedingung für die Entwicklung der Sternaktivität, die ich Dank der offenen Sternhaufen als aktivitätsunabhängigem Altersindikator eindeutig bestimmen konnte. Die TESS-Mission hat Kepler und K2 bereits als Hauptquelle von Flares in M-Zwergen abgelöst. Anhand der zeitlich hochaufgelösten Lichtkurven von TESS entwickelte ich eine neue Technik zur Lokalisierung von Flares und entdeckte, dass -- entgegen der allgemeinen Annahme -- Flares nicht gleichmäßig über die Sternoberfläche verteilt sind: Bei schnell rotierenden, vollkonvektiven Sternen sind die energiereichsten Flares bevorzugt bei hohen Breitengraden zu finden. Das Ergebnis hat Auswirkungen sowohl auf unser Verständnis der Magnetfeldentstehung in diesen Sternen als auch auf die Auswirkungen auf die Atmosphären von Planeten, die in deren Äquatorebene kreisen. Die jungen Welten könnten durch die Lage ihrer Orbits den zerstörerischen Auswirkungen dieser polwärts strahlenden Flares entkommen. AU Mic ist ein früher M-Zwerg und der bisher magnetisch aktivste Stern mit bekannten Planeten. Sein innerster Begleiter, AU Mic b, ist eines der vielversprechendsten Ziele für eine erste Beobachtung der Wechselwirkungen zwischen Stern und Planet. Dabei beeinflusst der Planet den Stern, und nicht, wie bei Weltraumwetter, andersherum. In diesem Effekt spiegeln sich die Eigenschaften der von beiden geteilten Magnetosphäre, sowie beispielsweise die bisher unzugänglichen magnetischen Eigenschaften von Planeten. In den vorhandenen etwa 50 Tagen von TESS-Beobachtungsdaten von AU Mic suchte ich nach statistisch robusten Anzeichen für magnetische Wechselwirkungen mit AU Mic b, die sich als Flares offenbaren, die im Überschuss zur Eigenaktivität des Sterns auftreten. Das stärkste, aber doch vorläufige Signal fand ich in mit der Umlaufperiode von AU Mic b wiederkehrenden, überzähligen Flares. Wenn es sich hierbei um ein wahres Signal handelt, schätze ich anhand der Daten, dass eine Verlängerung der Beobachtungszeit um einen Faktor 2-3 einen statistisch signifikanten Nachweis erbringen wird. Die Anforderung liegt in Bereich zukünftiger TESS-Beobachtungen, und bringt uns somit womöglich näher an eine robuste Detektion dieses Effekts heran, als wir es jemals waren. Die Untersuchungen in dieser Arbeit sind nur durch das Eintreten ins Zeitalter der Flare-Statistik möglich geworden. Diese Arbeit demonstriert den immensen wissenschaftlichen Wert der weltraumgestützten, wochen- und monatelangen Beobachtung von Flares, als auch die Vielseitigkeit von Flares als Informationsträger über den dynamischen Magnetismus in Stern-Planeten-Systemen. In den riesigen Archiven, die Kepler und TESS im Laufe der Jahre angelegt haben, schlummern noch viele Entdeckungen. Flares werfen kontrastreiche Schlaglichter auf magnetische Strukturen in Stern-Planeten-Systemen, die sonst weit unterhalb der modernen Auflösungsgrenze liegen. Die laufenden Beobachtungen von TESS, und bald PLATO, werden die Tür zu einem tiefen Verständnis der kleinen und dynamischen Magnetfelder in diesen Systemen weiter öffnen. KW - stars KW - exoplanets KW - flares KW - Exoplaneten KW - Flares KW - Sterne Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563565 ER - TY - THES A1 - Pérez Chaparro, Camilo Germán Alberto T1 - Non-HIV comorbidities and exercise in German people living with HIV T1 - Nicht-HIV-Komorbiditäten und Bewegung bei deutschen Menschen, die mit HIV leben N2 - The post-antiretroviral therapy era has transformed HIV into a chronic disease and non-HIV comorbidities (i.e., cardiovascular and mental diseases) are more prevalent in PLWH. The source of these non-HIV comorbidities aside from traditional risk factor include HIV infection, inflammation, distorted immune activation, burden of chronic diseases, and unhealthy lifestyle like sedentarism. Exercise is known for its beneficial effects in mental and physical health; reasons why exercise is recommended to prevent and treat difference cardiovascular and mental diseases in the general population. This cumulative thesis aimed to comprehend the relation exercise has to non-HIV comorbidities in German PLWH. Four studies were conducted to 1) understand exercise effects in cardiorespiratory fitness and muscle strength on PLWH through a systematic review and meta-analyses and 2) determine the likelihood of German PLWH developing non-HIV comorbidities, in a cross-sectional study. Meta-analytic examination indicates PLWH cardiorespiratory fitness (VO2max SMD = 0.61 ml·kg·min-1, 95% CI: 0.35-0.88, z = 4.47, p < 0.001, I2 = 50%) and strength (of remark lowerbody strength by 16.8 kg, 95% CI: 13–20.6, p< 0.001) improves after an exercise intervention in comparison to a control group. Cross-sectional data suggest exercise has a positive effect on German PLWH mental health (less anxiety and depressive symptoms) and protects against the development of anxiety (PR: 0.57, 95%IC: 0.36 – 0.91, p = 0.01) and depression (PR: 0.62, 95%IC: 0.41 – 0.94, p = 0.01). Likewise, exercise duration is related to a lower likelihood of reporting heart arrhythmias (PR: 0.20, 95%IC: 0.10 – 0.60, p < 0.01) and exercise frequency to a lower likelihood of reporting diabetes mellitus (PR: 0.40, 95%IC: 0.10 – 1, p < 0.01) in German PLWH. A preliminary recommendation for German PLWH who want to engage in exercise can be to exercise ≥ 1 time per week, at an intensity of 5 METs per session or > 103 MET·min·day-1, with a duration ≥ 150 minutes per week. Nevertheless, further research is needed to comprehend exercise dose response and protective effect for cardiovascular diseases, anxiety, and depression in German PLWH. N2 - In der Zeit seit der antiretroviralen Therapie hat sich HIV zu einer chronischen Erkrankung entwickelt und Nicht-HIV-Komorbiditäten, z.B. Herz-Kreislauf-Erkrankungen und psychische Erkrankungen, treten bei Menschen, die mit HIV leben, häufiger auf. Die Herkunft dieser Nicht-HIV-Komorbiditäten, neben den traditionellen Risikofaktoren, sind HIV-Infektion, chronische Entzündung, eine gestörte Immunaktivierung, chronische Erkrankungen und eine ungesunde Lebensweise wie Bewegungsmangel. Bewegung ist bekannt für seine positive Wirkung auf die mentale und körperliche Gesundheit; das ist der Grund, warum Bewegung in der Prävention und der Behandlung verschiedener Herz-Kreislauf- und psychischer Erkrankungen in der Allgemeinbevölkerung empfohlen wird. Ziel dieser kumulativen Arbeit war es, den Zusammenhang zwischen körperlicher Bewegung und nicht-HIV-Komorbiditäten bei deutschen Menschen, die mit HIV leben zu untersuchen. Vier Studien wurden durchgeführt, um 1) die Auswirkungen von Bewegung auf die kardiorespiratorische Fitness und die Muskelkraft von HIV-Infizierten durch eine systematische Übersichtsarbeit und Meta-Analysen zu verstehen und 2) zu bestimmen, ob HIV-positive Menschen, die Bewegung treiben, entwickeln einen Nicht-HIV-Komorbiditäten. Die metaanalytische Untersuchung zeigt, dass sich die kardiorespiratorische Fitness (VO2max SMD = 0.61 mlkgmin-1, 95 % CI: 0.35-0.88, z = 4.47, p < 0.001, I2 = 50 %) und Kraft (Besonders in den unteren Extremitäten 16.8 kg, 95 % CI: 13–20.6, p< 0.001) nach einer Trainingsintervention im Vergleich zu einer Kontrollgruppe verbessert. Querschnittdaten deuten darauf hin, dass Bewegung eine positive Wirkung auf die psychische Gesundheit den deutschen Menschen, die mit HIV leben hat (weniger Angst und depressive Symptome) und vor der Entwicklung von Angst (PR: 0,57, 95 % IC: 0,36 - 0,91, p = 0,01) und Depression (PR: 0,62, 95 % IC: 0,41 - 0,94, p = 0,01) schützt. Ebenso geht die Dauer der Bewegung mit einer geringeren Wahrscheinlichkeit für Herzrhythmusstörungen einher, (PR: 0,20, 95 % IC: 0,10 - 0,60, p < 0,01). Eine vorläufige Empfehlung für deutsche Menschen, die mit HIV leben und die sich sportlich betätigen wollen, kann sein, ³ 1-mal pro Woche mit einer Intensität von 5 METs und einer Dauer von ³ 60 Minuten zu trainieren. Dennoch sind weitere Forschungen erforderlich, um die Dosiswirkung und die schützende Wirkung von Bewegung auf Herz-Kreislauf-Erkrankungen, Angst und Depression bei deutschen Menschen, die mit HIV leben zu verstehen. KW - HIV KW - cardiovascular disease KW - anxiety KW - depression KW - exercise KW - Menschen, die mit HIV leben KW - Angst KW - Depression KW - kardiovaskuläre Erkrankungen KW - Bewegung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560842 ER - TY - THES A1 - Thomas, Timon T1 - Cosmic-ray hydrodynamics: theory, numerics, applications T1 - Hydrodynamik der kosmischen Strahlung: Theorie, Numerik, Anwendungen N2 - Cosmic rays (CRs) are a ubiquitous and an important component of astrophysical environments such as the interstellar medium (ISM) and intracluster medium (ICM). Their plasma physical interactions with electromagnetic fields strongly influence their transport properties. Effective models which incorporate the microphysics of CR transport are needed to study the effects of CRs on their surrounding macrophysical media. Developing such models is challenging because of the conceptional, length-scale, and time-scale separation between the microscales of plasma physics and the macroscales of the environment. Hydrodynamical theories of CR transport achieve this by capturing the evolution of CR population in terms of statistical moments. In the well-established one-moment hydrodynamical model for CR transport, the dynamics of the entire CR population are described by a single statistical quantity such as the commonly used CR energy density. In this work, I develop a new hydrodynamical two-moment theory for CR transport that expands the well-established hydrodynamical model by including the CR energy flux as a second independent hydrodynamical quantity. I detail how this model accounts for the interaction between CRs and gyroresonant Alfvén waves. The small-scale magnetic fields associated with these Alfvén waves scatter CRs which fundamentally alters CR transport along large-scale magnetic field lines. This leads to the effects of CR streaming and diffusion which are both captured within the presented hydrodynamical theory. I use an Eddington-like approximation to close the hydrodynamical equations and investigate the accuracy of this closure-relation by comparing it to high-order approximations of CR transport. In addition, I develop a finite-volume scheme for the new hydrodynamical model and adapt it to the moving-mesh code Arepo. This scheme is applied using a simulation of a CR-driven galactic wind. I investigate how CRs launch the wind and perform a statistical analysis of CR transport properties inside the simulated circumgalactic medium (CGM). I show that the new hydrodynamical model can be used to explain the morphological appearance of a particular type of radio filamentary structures found inside the central molecular zone (CMZ). I argue that these harp-like features are synchrotron-radiating CRs which are injected into braided magnetic field lines by a point-like source such as a stellar wind of a massive star or a pulsar. Lastly, I present the finite-volume code Blinc that uses adaptive mesh refinement (AMR) techniques to perform simulations of radiation and magnetohydrodynamics (MHD). The mesh of Blinc is block-structured and represented in computer memory using a graph-based approach. I describe the implementation of the mesh graph and how a diffusion process is employed to achieve load balancing in parallel computing environments. Various test problems are used to verify the accuracy and robustness of the employed numerical algorithms. N2 - Kosmische Strahlung (CR) ist ein allgegenwärtiger und wichtiger Bestandteil astrophysikalischer Umgebungen wie des interstellaren Mediums (ISM) und des Intracluster-Mediums (ICM). Ihre plasmaphysikalischen Wechselwirkungen mit elektromagnetischen Feldern beeinflussen ihre Transporteigenschaften weitgehend. Effektive Modelle, die die Mikrophysik des CR-Transports einbeziehen, sind erforderlich, um die Auswirkungen von CRs auf die sie umgebenden makrophysikalischen Medien zu untersuchen. Die Entwicklung solcher Modelle ist eine Herausforderung, aufgrund der konzeptionellen, Längenskalen-, und Zeitskalen-Unterschiede zwischen den Mikroskalen der Plasmaphysik und den Makroskalen der Umgebung. Hydrodynamische Theorien des CR-Transports erreichen dies, indem sie die Entwicklung der CR-Population in Form von statistischen Momenten erfassen. Im etablierten hydrodynamischen Ein-Moment Modell für den CR-Transport wird die Dynamik der gesamten CR-Population durch eine einzige statistische Größe wie der häufig verwendeten CR-Energiedichte beschrieben. In dieser Arbeit entwickle ich eine neue hydrodynamische Zwei-Momenten Theorie für den CR-Transport, die das etablierte hydrodynamische Modell um den CR-Energiefluss als zweite unabhängige hydrodynamische Größe erweitert. Ich erläutere, wie dieses Modell die Wechselwirkung zwischen CRs und gyroresonanten Alfvén-Wellen berücksichtigt. Die mit diesen Alfvén-Wellen verbundenen kleinskaligen Magnetfelder streuen die CRs, was den CR-Transport entlang großskaligen Magnetfeldlinien grundlegend verändert. Dies führt zu den CR-Strömungs-und Diffusioneffekten, welche beide in der neu vorgestellten hydrodynamischen Theorie erfasst werden. Ich verwende eine adaptierte Eddington Näherung, um die hydrodynamischen Gleichungen zu schließen und untersuche die Genauigkeit dieser Näherung, indem ich sie mit Näherungen höherer Ordnung für den CR-Transport vergleiche. Darüber hinaus entwickle ich ein Finite-Volumen-Schema für das neue hydrodynamische Modell und passe es an den mitbewegten Gitter Code Arepo an. Dieses Schema wird mittels einer Simulation eines CR-getriebenen galaktischen Windes angewendet. Ich untersuche, wie CRs den Wind beschleunigen und führe eine statistische Analyse der CR-Transporteigenschaften innerhalb des simulierten zirkumgalaktischen Mediums (CGM) durch. Ich zeige, dass das neue hydrodynamische Modell das morphologische Erscheinungsbild eines neu-entdeckten bestimmten Typs von filamentartigen Radiostrukturen, welcher in der zentralen molekularen Zone (CMZ) auffindbar ist, erklären kann. Ich schlage vor, dass es sich bei diesen harfenartigen Strukturen um synchrotronstrahlende CRs handelt, die zuvor von einer punktförmigen Quelle wie dem stellaren Wind eines massereichen Sterns oder eines Pulsars in geflochtene Magnetfeldlinien injiziert wurden. Schließlich stelle ich den Finite-Volumen-Code Blinc vor, der adaptive Gitterverfeinerungstechniken (AMR) verwendet, um Simulationen von Strahlungs-und Magnetohydrodynamik (MHD) durchzuführen. Das Gitter von Blinc ist blockstrukturiert und wird im Computerspe-icher mittels eines graphbasierten Ansatzes dargestellt. Ich beschreibe die Implementierung des Gittergraphen und wie ein Diffusionsprozess eingesetzt wird, um einen Lastausgleich in parallelen Rechenumgebungen zu erreichen. Verschiedene Testprobleme werden verwendet, um die Genauigkeit und Robustheit der verwendeten numerischen Algorithmen zu überprüfen. KW - cosmic rays KW - hydrodynamics KW - radiative transfer KW - methods: analytical KW - methods: numerical KW - Galactic center KW - Non-thermal radiation sources KW - galaktisches Zentrum KW - Quellen nichtthermischer Strahlung KW - kosmische Strahlung KW - Hydrodynamik KW - Methoden: analytisch KW - Methoden: numerisch KW - Strahlungstransport Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563843 ER - TY - THES A1 - Ziege, Ricardo T1 - Growth dynamics and mechanical properties of E. coli biofilms T1 - Wachstumsdynamik und mechanische Eigenschaften von E. coli Biofilmen N2 - Biofilms are complex living materials that form as bacteria get embedded in a matrix of self-produced protein and polysaccharide fibres. The formation of a network of extracellular biopolymer fibres contributes to the cohesion of the biofilm by promoting cell-cell attachment and by mediating biofilm-substrate interactions. This sessile mode of bacteria growth has been well studied by microbiologists to prevent the detrimental effects of biofilms in medical and industrial settings. Indeed, biofilms are associated with increased antibiotic resistance in bacterial infections, and they can also cause clogging of pipelines or promote bio-corrosion. However, biofilms also gained interest from biophysics due to their ability to form complex morphological patterns during growth. Recently, the emerging field of engineered living materials investigates biofilm mechanical properties at multiple length scales and leverages the tools of synthetic biology to tune the functions of their constitutive biopolymers. This doctoral thesis aims at clarifying how the morphogenesis of Escherichia coli (E. coli) biofilms is influenced by their growth dynamics and mechanical properties. To address this question, I used methods from cell mechanics and materials science. I first studied how biological activity in biofilms gives rise to non-uniform growth patterns. In a second study, I investigated how E. coli biofilm morphogenesis and its mechanical properties adapt to an environmental stimulus, namely the water content of their substrate. Finally, I estimated how the mechanical properties of E. coli biofilms are altered when the bacteria express different extracellular biopolymers. On nutritive hydrogels, micron-sized E. coli cells can build centimetre-large biofilms. During this process, bacterial proliferation and matrix production introduce mechanical stresses in the biofilm, which release through the formation of macroscopic wrinkles and delaminated buckles. To relate these biological and mechanical phenomena, I used time-lapse fluorescence imaging to track cell and matrix surface densities through the early and late stages of E. coli biofilm growth. Colocalization of high cell and matrix densities at the periphery precede the onset of mechanical instabilities at this annular region. Early growth is detected at this outer annulus, which was analysed by adding fluorescent microspheres to the bacterial inoculum. But only when high rates of matrix production are present in the biofilm centre, does overall biofilm spreading initiate along the solid-air interface. By tracking larger fluorescent particles for a long time, I could distinguish several kinematic stages of E. coli biofilm expansion and observed a transition from non-linear to linear velocity profiles, which precedes the emergence of wrinkles at the biofilm periphery. Decomposing particle velocities to their radial and circumferential components revealed a last kinematic stage, where biofilm movement is mostly directed towards the radial delaminated buckles, which verticalize. The resulting compressive strains computed in these regions were observed to substantially deform the underlying agar substrates. The co-localization of higher cell and matrix densities towards an annular region and the succession of several kinematic stages are thus expected to promote the emergence of mechanical instabilities at the biofilm periphery. These experimental findings are predicted to advance future modelling approaches of biofilm morphogenesis. E. coli biofilm morphogenesis is further anticipated to depend on external stimuli from the environment. To clarify how the water could be used to tune biofilm material properties, we quantified E. coli biofilm growth, wrinkling dynamics and rigidity as a function of the water content of the nutritive substrates. Time-lapse microscopy and computational image analysis revealed that substrates with high water content promote biofilm spreading kinetics, while substrates with low water content promote biofilm wrinkling. The wrinkles observed on biofilm cross-sections appeared more bent on substrates with high water content, while they tended to be more vertical on substrates with low water content. Both wet and dry biomass, accumulated over 4 days of culture, were larger in biofilms cultured on substrates with high water content, despite extra porosity within the matrix layer. Finally, the micro-indentation analysis revealed that substrates with low water content supported the formation of stiffer biofilms. This study shows that E. coli biofilms respond to the water content of their substrate, which might be used for tuning their material properties in view of further applications. Biofilm material properties further depend on the composition and structure of the matrix of extracellular proteins and polysaccharides. In particular, E. coli biofilms were suggested to present tissue-like elasticity due to a dense fibre network consisting of amyloid curli and phosphoethanolamine-modified cellulose. To understand the contribution of these components to the emergent mechanical properties of E. coli biofilms, we performed micro-indentation on biofilms grown from bacteria of several strains. Besides showing higher dry masses, larger spreading diameters and slightly reduced water contents, biofilms expressing both main matrix components also presented high rigidities in the range of several hundred kPa, similar to biofilms containing only curli fibres. In contrast, a lack of amyloid curli fibres provides much higher adhesive energies and more viscoelastic fluid-like material behaviour. Therefore, the combination of amyloid curli and phosphoethanolamine-modified cellulose fibres implies the formation of a composite material whereby the amyloid curli fibres provide rigidity to E. coli biofilms, whereas the phosphoethanolamine-modified cellulose rather acts as a glue. These findings motivate further studies involving purified versions of these protein and polysaccharide components to better understand how their interactions benefit biofilm functions. All three studies depict different aspects of biofilm morphogenesis, which are interrelated. The first work reveals the correlation between non-uniform biological activities and the emergence of mechanical instabilities in the biofilm. The second work acknowledges the adaptive nature of E. coli biofilm morphogenesis and its mechanical properties to an environmental stimulus, namely water. Finally, the last study reveals the complementary role of the individual matrix components in the formation of a stable biofilm material, which not only forms complex morphologies but also functions as a protective shield for the bacteria it contains. Our experimental findings on E. coli biofilm morphogenesis and their mechanical properties can have further implications for fundamental and applied biofilm research fields. N2 - Biofilme sind komplexe lebende Materialien, die sich bilden, wenn Bakterien in eine Matrix aus selbstproduzierten Protein- und Polysaccharidfasern eingebettet werden. Die Bildung eines Netzwerks aus extrazellulären Biopolymerfasern trägt zum Zusammenhalt des Biofilms bei, indem sie die Zell-Zell-Anhaftung fördert und die Wechselwirkungen zwischen Biofilm und Substrat vermittelt. Diese sessile Form des Bakterienwachstums wurde von Mikrobiologen eingehend untersucht, um die schädlichen Auswirkungen von Biofilmen in der Medizin und Industrie zu verhindern. Biofilme werden nämlich mit einer erhöhten Antibiotikaresistenz bei bakteriellen Infektionen in Verbindung gebracht, und sie können auch zur Verstopfung von Rohrleitungen führen oder Biokorrosion fördern. Biofilme sind jedoch auch für die Biophysik von Interesse, da sie während ihres Wachstums komplexe morphologische Muster bilden können. In jüngster Zeit werden auf dem aufstrebenden Gebiet der künstlich hergestellten lebenden Materialien die mechanischen Eigenschaften von Biofilmen auf verschiedenen Längenskalen untersucht und die Werkzeuge der synthetischen Biologie genutzt, um die Funktionen ihrer konstitutiven Biopolymere zu beeinflussen. In dieser Doktorarbeit soll geklärt werden, wie die Morphogenese von Escherichia coli (E. coli)-Biofilmen durch deren Wachstumsdynamik und mechanische Eigenschaften beeinflusst wird. Um dieser Frage nachzugehen, habe ich Methoden aus der Zellmechanik und der Materialwissenschaft verwendet. Zunächst habe ich untersucht, wie die biologische Aktivität in Biofilmen zu ungleichmäßigen Wachstumsmustern führt. In einer zweiten Studie untersuchte ich, wie sich die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften an einen Umweltstimulus, nämlich den Wassergehalt des Substrats, anpassen. Schließlich habe ich abgeschätzt, wie sich die mechanischen Eigenschaften von E. coli-Biofilmen verändern, wenn die Bakterien verschiedene extrazelluläre Biopolymere exprimieren. Auf nährstoffhaltigen Hydrogelen können mikrometergroße E. coli-Zellen zentimetergroße Biofilme bilden. Während dieses Prozesses führen die bakterielle Vermehrung und die Matrixproduktion zu mechanischen Spannungen im Biofilm, die sich durch die Bildung von makroskopischen Falten und delaminierten Knicken entladen. Um diese biologischen und mechanischen Phänomene miteinander in Beziehung zu setzen, habe ich mit Hilfe von Zeitraffer-Fluoreszenzaufnahmen die Zell- und Matrixoberflächendichte in den frühen und späten Phasen des E. coli-Biofilmwachstums verfolgt. Die Kolokalisierung hoher Zell- und Matrixdichten an der Peripherie geht dem Auftreten mechanischer Instabilitäten in diesem ringförmigen Bereich voraus. An diesem äußeren Ring wird ein frühes Wachstum festgestellt, das durch Zugabe von fluoreszierenden Mikrokugeln zum bakteriellen Inokulum analysiert wurde. Aber nur wenn im Zentrum des Biofilms hohe Raten der Matrixproduktion vorhanden sind, beginnt die Ausbreitung des gesamten Biofilms entlang der Feststoff-Luft-Grenzfläche. Indem ich größere fluoreszierende Partikel über einen längeren Zeitraum verfolgte, konnte ich mehrere kinematische Stadien der E. coli-Biofilmexpansion unterscheiden und einen Übergang von nichtlinearen zu linearen Geschwindigkeitsprofilen beobachten, der dem Auftreten von Falten an der Biofilmperipherie vorausgeht. Die Zerlegung der Partikelgeschwindigkeiten in ihre radialen und umlaufenden Komponenten ergab ein letztes kinematisches Stadium, in dem die Bewegung des Biofilms hauptsächlich auf die radialen delaminierten Knicke gerichtet ist, die sich vertikalisieren. Die in diesen Regionen berechneten Druckspannungen verformen die darunter liegenden Agarsubstrate erheblich. Die gleichzeitige Ansammlung höherer Zell- und Matrixdichten in einer ringförmigen Region und die Abfolge mehrerer kinematischer Stadien dürften somit das Entstehen mechanischer Instabilitäten an der Biofilm-Peripherie fördern. Diese experimentellen Ergebnisse werden voraussichtlich zukünftige Modellierungsansätze der Biofilmmorphogenese voranbringen. Die Morphogenese des E. coli-Biofilms wird voraussichtlich auch von externen Stimuli aus der Umwelt abhängen. Um zu klären, wie das Wasser zur Einstellung der Materialeigenschaften von Biofilmen genutzt werden könnte, haben wir das Wachstum, die Faltenbildung und die Steifigkeit von E. coli-Biofilmen in Abhängigkeit vom Wassergehalt der Nährsubstrate quantifiziert. Zeitraffermikroskopie und computergestützte Bildanalyse zeigten, dass Substrate mit hohem Wassergehalt die Ausbreitungskinetik des Biofilms fördern, während Substrate mit niedrigem Wassergehalt die Faltenbildung des Biofilms begünstigen. Die auf Biofilm-Querschnitten beobachteten Falten erschienen auf Substraten mit hohem Wassergehalt stärker gebogen, während sie auf Substraten mit niedrigem Wassergehalt eher vertikal verliefen. Sowohl die feuchte als auch die trockene Biomasse, die während der 4-tägigen Kultur akkumuliert wurde, war in Biofilmen, die auf Substraten mit hohem Wassergehalt gezüchtet wurden, größer, trotz der zusätzlichen Porosität innerhalb der Matrixschicht. Schließlich ergab die Mikroindentationsanalyse, dass Substrate mit niedrigem Wassergehalt die Bildung von steiferen Biofilmen begünstigten. Diese Studie zeigt, dass E. coli-Biofilme auf den Wassergehalt ihres Substrats reagieren, was für die Abstimmung ihrer Materialeigenschaften im Hinblick auf weitere Anwendungen genutzt werden könnte. Die Materialeigenschaften von Biofilmen hängen außerdem von der Zusammensetzung und Struktur der Matrix aus extrazellulären Proteinen und Polysacchariden ab. Insbesondere wurde vermutet, dass E. coli-Biofilme aufgrund eines dichten Fasernetzwerks aus Amyloid-Curli und Phosphoethanolamin-modifizierter Cellulose eine gewebeähnliche Elastizität aufweisen. Um den Beitrag dieser Komponenten zu den entstehenden mechanischen Eigenschaften von E. coli-Biofilmen zu verstehen, führten wir an Biofilmen, die aus Bakterien verschiedener Stämme gewachsen waren, Mikroeindrücke durch. Biofilme, die beide Hauptmatrixkomponenten enthalten, wiesen nicht nur eine höhere Trockenmasse, einen größeren Ausbreitungsdurchmesser und einen leicht verringerten Wassergehalt auf, sondern auch eine hohe Steifigkeit im Bereich von mehreren hundert kPa, ähnlich wie Biofilme, die nur Curli-Fasern enthalten. Das Fehlen von Amyloid-Curli-Fasern führt dagegen zu deutlich höheren Adhäsionsenergien und einem viskoelastischeren, flüssigkeitsähnlichen Materialverhalten. Die Kombination von Amyloid-Curli-Fasern und Phosphoethanolamin-modifizierten Cellulosefasern impliziert daher die Bildung eines Verbundmaterials, bei dem die Amyloid-Curli-Fasern den E. coli-Biofilmen Steifigkeit verleihen, während die Phosphoethanolamin-modifizierte Cellulose eher als Klebstoff wirkt. Diese Ergebnisse motivieren zu weiteren Studien mit gereinigten Versionen dieser Protein- und Polysaccharidkomponenten, um besser zu verstehen, wie ihre Interaktionen die Funktionen des Biofilms unterstützen. Alle drei Studien zeigen verschiedene Aspekte der Biofilm-Morphogenese, die miteinander verbunden sind. Die erste Arbeit zeigt den Zusammenhang zwischen ungleichmäßigen biologischen Aktivitäten und dem Auftreten mechanischer Instabilitäten im Biofilm auf. Die zweite Arbeit bestätigt die Anpassungsfähigkeit der Morphogenese des E. coli-Biofilms und seiner mechanischen Eigenschaften an einen Umweltreiz, nämlich Wasser. Die letzte Studie schließlich zeigt die komplementäre Rolle der einzelnen Matrixkomponenten bei der Bildung eines stabilen Biofilmmaterials, das nicht nur komplexe Morphologien bildet, sondern auch als Schutzschild für die darin enthaltenen Bakterien fungiert. Unsere experimentellen Erkenntnisse über die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften können weitere Auswirkungen auf grundlegende und angewandte Biofilm-Forschungsbereiche haben. KW - biofilm KW - E. coli KW - living materials KW - mechanobiology KW - E. coli KW - Biofilm KW - lebende Materialien KW - Mechanobiologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559869 ER - TY - THES A1 - Kürschner, Tobias T1 - Disease transmission and persistence in dynamic landscapes T1 - Krankheitsübertragung und Persistenz in dynamischen Landschaft N2 - Infectious diseases are an increasing threat to biodiversity and human health. Therefore, developing a general understanding of the drivers shaping host-pathogen dynamics is of key importance in both ecological and epidemiological research. Disease dynamics are driven by a variety of interacting processes such as individual host behaviour, spatiotemporal resource availability or pathogen traits like virulence and transmission. External drivers such as global change may modify the system conditions and, thus, the disease dynamics. Despite their importance, many of these drivers are often simplified and aggregated in epidemiological models and the interactions among multiple drivers are neglected. In my thesis, I investigate disease dynamics using a mechanistic approach that includes both bottom-up effects - from landscape dynamics to individual movement behaviour - as well as top-down effects - from pathogen virulence on host density and contact rates. To this end, I extended an established spatially explicit individual-based model that simulates epidemiological and ecological processes stochastically, to incorporate a dynamic resource landscape that can be shifted away from the timing of host population-dynamics (chapter 2). I also added the evolution of pathogen virulence along a theoretical virulence-transmission trade-off (chapter 3). In chapter 2, I focus on bottom-up effects, specifically how a temporal shift of resource availability away from the timing of biological events of host-species - as expected under global change - scales up to host-pathogen interactions and disease dynamics. My results show that the formation of temporary disease hotspots in combination with directed individual movement acted as key drivers for pathogen persistence even under highly unfavourable conditions for the host. Even with drivers like global change further increasing the likelihood of unfavourable interactions between host species and their environment, pathogens can continue to persist with heir hosts. In chapter 3, I demonstrate that the top-down effect caused by pathogen-associated mortality on its host population can be mitigated by selection for lower virulent pathogen strains when host densities are reduced through mismatches between seasonal resource availability and host life-history events. I chapter 4, I combined parts of both theoretical models into a new model that includes individual host movement decisions and the evolution of pathogenic virulence to simulate pathogen outbreaks in realistic landscapes. I was able to match simulated patterns of pathogen spread to observed patterns from long-term outbreak data of classical swine fever in wild boar in Northern Germany. The observed disease course was best explained by a simulated high virulent strain, whereas sampling schemes and vaccination campaigns could explain differences in the age-distribution of infected hosts. My model helps to understand and disentangle how the combination of individual decision making and evolution of virulence can act as important drivers of pathogen spread and persistence. As I show across the chapters of this thesis, the interplay of both bottom-up and top-down processes is a key driver of disease dynamics in spatially structured host populations, as they ultimately shape host densities and contact rates among moving individuals. My findings are an important step towards a paradigm shift in disease ecology away from simplified assumptions towards the inclusion of mechanisms, such as complex multi-trophic interactions, and their feedbacks on pathogen spread and disease persistence. The mechanisms presented here should be at the core of realistic predictive and preventive epidemiological models. N2 - Infektionskrankheiten stellen eine zunehmende Bedrohung für die biologische Vielfalt und die menschliche Gesundheit dar. Daher ist es sowohl für die epidemiologische als auch für die ökologische Forschung von zentraler Bedeutung, ein allgemeines Verständnis der Mechanismen, die die Wirts-Pathogen-Dynamik beeinflussen, zu entwickeln. Die Krankheitsausbrüche werden durch eine Vielzahl von interagierenden Prozessen angetrieben, wie unter anderem individuellem Wirtsverhalten, Ressourcenverfügbarkeit oder Erregermerkmale wie Virulenz. Externe Faktoren wie der globale Wandel können grundlegende Veränderungen dieser Prozesse verursachen und sich damit auch auf Krankheitsdynamiken auswirken. Trotz ihrer Bedeutung für Krankheitsausbrüche werden viele dieser Faktoren in epidemiologischen Modellen oft vereinfacht und die Wechselwirkungen zwischen den Faktoren vernachlässigt. In Anbetracht dessen, ist es sowohl für die ökologische als auch für die epidemiologische Forschung von zentraler Bedeutung, ein allgemeines Verständnis dafür zu entwickeln, wie mehrere interagierende Prozesse Wirts-Pathogen-Interaktionen beeinflussen können. In meiner Dissertation untersuche ich die Krankheitsdynamik mittels eines mechanistischen Ansatzes, der sowohl Bottom-up-Effekte - von der Landschaftsdynamik bis zum individuellen Bewegungsverhalten - als auch Top-down-Effekte - von der Virulenz des Erregers auf die Wirtsdichte und die Kontaktraten - berücksichtigt. Zu diesem Zweck habe ich ein etabliertes, räumlich explizites, Individuen basiertes Modell, das epidemiologische und ökologische Prozesse stochastisch simuliert, um eine dynamische Ressourcenlandschaft erweitert, die zeitlich mit der Populationsdynamik der Wirte verschoben werden kann (Kapitel 2). Zusätzlich habe ich die Evolution der Virulenz von Krankheitserregern entlang eines theoretischen Verhältnisses zwischen Virulenz und Übertragung hinzugefügt (Kapitel 3). In Kapitel 2 konzentriere ich mich auf Bottom-up-Effekte, insbesondere auf die Frage, wie sich eine zeitliche Verschiebung der Ressourcenverfügbarkeit weg vom Zeitpunkt biologischer Ereignisse der Wirtsarten - wie sie im Rahmen des globalen Wandels erwartet wird - auf die Wirt-Pathogen-Interaktionen und Krankheitsdynamiken auswirkt. Meine Ergebnisse zeigen, dass die Bildung vorübergehender Krankheitsherde in Kombination mit gezielter individueller Wirtsbewegung als Schlüsselfaktoren für die Persistenz von Krankheitserregern selbst unter äußerst ungünstigen Bedingungen für den Wirt fungieren. Selbst wenn Faktoren wie der globale Wandel die Wahrscheinlichkeit ungünstiger Wechselwirkungen zwischen Wirtsarten und ihrer Umwelt weiter erhöhen, können Krankheitserreger weiterhin in ihren Wirten persistieren. In Kapitel 3 zeige ich, dass der Top-Down-Effekt, der durch die pathogen-assoziierte Mortalität verursacht wird, durch eine evolutionäre Selektion auf weniger virulente Erregerstämme abgeschwächt werden kann, wenn die Wirtsdichte durch eine zeitliche Verschiebung von saisonaler Ressourcenverfügbarkeit und dem Zeitpunkt von biologischen Ereignissen der Wirtsarten reduziert wird. In Kapitel 4 habe ich Teile der beiden theoretischen Modelle zu einem neuen Modell kombiniert, das individuelle Wirtsbewegungen und die Entwicklung der Virulenz von Krankheitserregern einbezieht, um Ausbrüche von Krankheitserregern in realistischen Landschaften zu simulieren. Es gelang mir, die simulierten Muster der Krankheitsausbreitung mit beobachteten Mustern von Langzeitausbrüchen der klassischen Schweinepest in Wildschweinen in Norddeutschland abzugleichen. Der beobachtete Krankheitsverlauf ließ sich am besten durch einen simulierten hochvirulenten Stamm erklären, während das Design der Probenentnahmen und Impfkampagnen Unterschiede in der Altersverteilung der infizierten Wirte erklären könnten. Mein Modell trägt dazu bei, zu verstehen, wie die Kombination aus individueller Bewegung und der Evolution von Virulenz als wichtige Treiber für die Ausbreitung und Persistenz des Erregers wirken können. Wie ich in den Kapiteln dieser Arbeit zeige, ist das Zusammenspiel von Bottom-up- und Top-down-Prozessen ein entscheidender Faktor für die Krankheitsdynamik in Wirtspopulationen, da sie letztlich die Wirtsdichte und den Kontakt zwischen sich bewegenden Individuen bestimmen. Meine Ergebnisse sind ein wichtiger Schritt auf dem Weg zu einem Paradigmenwechsel in der Krankheitsökologie, weg von vereinfachten Annahmen hin zur Einbeziehung von komplexen Interaktionen und deren Rückkopplungen auf die Ausbreitung und Persistenz von Krankheitserregern. Die hier vorgestellten Mechanismen sollten den Kern realistischer Vorhersage- und Präventivmodelle für die Epidemiologie bilden. KW - disease ecology KW - movement ecology KW - Krankheitsökologie KW - Bewegungsökologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564689 ER - TY - THES A1 - Obst, Cosima T1 - Essays in labor economics T1 - Aufsätze zur Arbeitsmarktökonomie N2 - This thesis offers insights into the process of workers decisions to invest into work-related training. Specifically, the role of personality traits and attitudes is analysed. The aim is to understand whether such traits contribute to an under-investment into training. Importantly, general and specific training are distinguished, where the worker’s productivity increases in many firms in the former and only in the current firm in the latter case. Additionally, this thesis contributes to the evaluation of the German minimum wage introduction in 2015, identifying causal effects on wages and working hours. Chapters two to four focus on the work-related training decision. First, individuals with an internal locus of control see a direct link between their own actions and their labor market success, while external individuals connect their outcomes to fate, luck, and other people. Consequently, it can be expected that internal individuals expect higher returns to training and are, thus, more willing to participate. The results reflect this hypothesis with internal individuals being more likely to participate in general (but not specific) training. Second, training can be viewed either as a risky investment or as an insurance against negative labor income shocks. In both cases, risk attitudes are expected to play a role in the decision process. The data point towards risk seeking individuals being more likely to participate in general (but not specific) training, and thus, training being viewed on average as a risky investment. Third, job satisfaction influences behavioral decisions in the job context, where dissatisfied workers may react by neglecting their duties, improving the situation or quitting the job. In the first case, dissatisfied workers are expected to invest less in training, while the latter two reactions could lead to higher participation rates amongst dissatisfied workers. The results suggest that on average dissatisfied workers are less likely to invest into training than satisfied workers. However, closer inspections of quit intentions and different sources of dissatisfaction paint less clear pictures, pointing towards the complexity of the job satisfaction construct. Chapters five and six evaluate the introduction of the minimum wage in Germany in 2015. First, in 2015 an increase in the growth of hourly wages can be identified as a causal effect of the minimum wage introduction. However, at the same time, a reduction in the weekly working hours results in an overall unchanged growth in monthly earnings. When considering the effects in 2016, the decrease in weekly working hours disappears, resulting in a significant increase in the growth of monthly earnings due to the minimum wage. Importantly, the analysis suggests that the increase in hourly wages was not sufficient to ensure all workers receiving the minimum wage. This points to non-compliance being an issue in the first years after the minimum wage introduction. N2 - Diese Dissertation bietet Einblicke in den Prozess der Entscheidung von Arbeitnehmer*Innen, in arbeitsbezogene Weiterbildung zu investieren. Insbesondere wird die Rolle von Persönlichkeitsmerkmalen und Einstellungen analysiert. Ziel ist es, zu verstehen, ob solche Eigenschaften zu einer Unterinvestition in Weiterbildung beitragen. Wichtig ist, dass zwischen allgemeiner und spezifischer Weiterbildung unterschieden wird, wobei im ersten Fall die Produktivität des Arbeitnehmers in vielen Unternehmen steigt und im zweiten Fall nur im aktuellen Unternehmen. Darüber hinaus leistet diese Dissertation einen Beitrag zur Evaluation der Einführung des Mindestlohns in Deutschland im Jahr 2015, indem sie kausale Effekte auf Löhne und Arbeitszeiten identifiziert. Die Kapitel zwei bis vier befassen sich mit der Entscheidung für eine berufsbezogene Weiterbildung. Erstens sehen Personen mit einem internale Locus of Control einen direkten Zusammenhang zwischen ihren eigenen Handlungen und ihrem Arbeitsmarkterfolg, während externale Personen ihre Ergebnisse mit dem Schicksal, dem Glück und anderen Personen in Verbindung bringen. Folglich ist zu erwarten, dass interne Personen höhere Erträge aus der Weiterbildung erwarten und daher eher bereit sind, teilzunehmen. Die Ergebnisse spiegeln diese Hypothese wider: Internale Personen nehmen mit größerer Wahrscheinlichkeit an allgemeinen (aber nicht an spezifischen) Weiterbildungsmaßnahmen teil. Zweitens können Weiterbildungen entweder als riskante Investition oder als Versicherung gegen negative Arbeitseinkommensschocks betrachtet werden. In beiden Fällen ist davon auszugehen, dass die Risikobereitschaft eine Rolle im Entscheidungsprozess spielt. Die Daten deuten darauf hin, dass risikofreudige Personen mit größerer Wahrscheinlichkeit an einer allgemeinen (aber nicht an einer spezifischen) Fortbildung teilnehmen und somit eine Fortbildung im Durchschnitt als riskante Investition angesehen wird. Drittens beeinflusst die Arbeitszufriedenheit die Verhaltensentscheidungen im Arbeitskontext, wobei unzufriedene Arbeitnehmer*Innen darauf reagieren können, indem sie ihre Pflichten vernachlässigen, die Situation verbessern oder den Arbeitsplatz kündigen. Im ersten Fall ist davon auszugehen, dass unzufriedene Arbeitnehmer*Innen weniger in die Weiterbildung investieren, während die beiden letztgenannten Reaktionen zu einer höheren Teilnahmequote bei unzufriedenen Arbeitnehmer*Innen führen könnten. Die Ergebnisse deuten darauf hin, dass unzufriedene Arbeitnehmer*Innen im Durchschnitt weniger in Weiterbildungen investieren als zufriedene Arbeitnehmer*Innen. Bei näherer Betrachtung der Kündigungsabsichten und der verschiedenen Ursachen der Unzufriedenheit ergibt sich jedoch ein weniger klares Bild, das auf die Komplexität des Konstrukts der Arbeitszufriedenheit hinweist. In den Kapiteln fünf und sechs wird die Einführung des Mindestlohns in Deutschland im Jahr 2015 evaluiert. Zunächst lässt sich für 2015 ein Anstieg des Wachstums der Stundenlöhne als kausaler Effekt der Mindestlohneinführung identifizieren. Gleichzeitig führt jedoch eine Verringerung der Wochenarbeitszeit zu einem insgesamt unveränderten Wachstum der Monatsverdienste. Betrachtet man die Auswirkungen im Jahr 2016, so verschwindet der Rückgang der Wochenarbeitszeit, was zu einem signifikanten Anstieg des Wachstums der Monatsverdienste aufgrund des Mindestlohns führt. Die Analyse legt nahe, dass der Anstieg der Stundenlöhne nicht ausreichte, um sicherzustellen, dass alle Arbeitnehmer*Innen den Mindestlohn erhalten. Dies deutet darauf hin, dass die Nichteinhaltung in den ersten Jahren nach der Einführung des Mindestlohns ein Problem darstellt. KW - work-related training KW - personality traits KW - locus of control KW - risk attitudes KW - job satisfaction KW - minimum wage KW - hourly wages and monthly earnings KW - weekly working hours KW - Stundenlöhne und Monatseinkommen KW - Arbeitszufriedenheit KW - Kontrollüberzeugung KW - Mindestlohn KW - Persönlichkeitsmerkmale KW - Risikobereitschaft KW - wöchentliche Arbeitszeiten KW - Weiterbildungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563794 ER - TY - THES A1 - Nwosu, Ebuka Canisius T1 - Sedimentary DNA-based reconstruction of cyanobacterial communities from Lake Tiefer See, NE Germany, for the last 11,000 years N2 - Climate change and human-driven eutrophication promote the spread of harmful cyanobacteria blooms in lakes worldwide, which affects water quality and impairs the aquatic food chain. In recent times, sedimentary ancient DNA-based (sedaDNA) studies were used to probe how centuries of climate and environmental changes have affected cyanobacterial assemblages in temperate lakes. However, there is a lack of information on the consistency between sediment-deposited cyanobacteria communities versus those of the water column, and on the individual role of natural climatic changes versus human pressure on cyanobacteria community dynamics over multi-millennia time scales. Therefore, this thesis uses sedimentary ancient DNA of Lake Tiefer See in northeastern Germany to trace the deposition of cyanobacteria along the water column into the sediment, and to reconstruct cyanobacteria communities spanning the last 11,000 years using a set of molecular techniques including quantitative PCR, biomarkers, metabarcoding, and metagenome sequence analyses. The results of this thesis proved that cyanobacterial composition and species richness did not significantly differ among different water depths, sediment traps, and surface sediments. This means that the cyanobacterial community composition from the sediments reflects the water column communities. However, there is a skewed sediment deposition of different cyanobacteria groups because of DNA alteration and/or deterioration during transport along the water column to the sediment. Specifically, single filament taxa, such as Planktothrix, are poorly represented in sediments despite being abundant in the water column as shown by an additional study of the thesis on cyanobacteria seasonality. In contrast, aggregate-forming taxa, like Aphanizomenon, are relatively overrepresented in sediment although they are not abundant in the water column. These different deposition patterns of cyanobacteria taxa should be considered in future DNA-based paleolimnological investigations. The thesis also reveals a substantial increase in total cyanobacteria abundance during the Bronze Age which is not apparent in prior phases of the early to middle Holocene and is suggested to be caused by human farming, deforestation, and excessive nutrient addition to the lake. Not only cyanobacterial abundance was influenced by human activity but also cyanobacteria community composition differed significantly between phases of no, moderate, and intense human impact. The data presented in this thesis are the first on sedimentary cyanobacteria DNA since the early Holocene in a temperate lake. The results bring together archaeological, historical climatic, and limnological data with deep DNA-sequencing and paleoecology to reveal a legacy impact of human pressure on lake cyanobacteria populations dating back to approximately 4000 years. N2 - Der Klimawandel und die vom Menschen verursachte Eutrophierung fördern die Ausbreitung schädlicher Cyanobakterienblüten in Seen weltweit, was die Wasserqualität und die aquatische Nahrungskette beeinträchtigt. In jüngster Zeit wurden sedimentäre DNA (sedaDNA)-Studien verwendet, um zu untersuchen, wie sich klimatische- und menschliche Umweltveränderungen von Jahrhunderten auf Cyanobakteriengemeinschaften in Seen ausgewirkt haben. Jedoch fehlen bislang Informationen, wie repräsentativ die im Sediment abgelagerten Cyanobakterien und deren DNA für die Gemeinschaften der Wassersäule sind, sowie zur individuellen Rolle natürlicher klimatischer Veränderungen gegenüber dem menschlichen Einflusses auf die Dynamik von Cyanobakterien über Zeitskalen von Jahrtausenden. Daher wurde in dieser Arbeit sedimentäre alte DNA (sedaDNA) des Tiefen Sees in Nordostdeutschland verwendet, um die Ablagerung von Cyanobakterien entlang der Wassersäule in das Sediment zu verfolgen. Ein Hauptteil dieser Arbeit bildete jedoch die Rekonstruktion von Cyanobakteriengemeinschaften der letzten 11.000 Jahre, unter Verwendung einer Reihe von molekularen Techniken, darunter quantitative PCR, Biomarker, Metabarcoding und Metagenom-Sequenzanalysen. Die Ergebnisse dieser Arbeit beweisen, dass die Cyanobakterien-Zusammensetzung und der Artenreichtum zwischen verschiedenen Wassertiefen, Sedimentfallen und Oberflächensedimenten nicht signifikant unterschiedlich ist. Das bedeutet, dass die Zusammensetzung der Cyanobakteriengemeinschaften aus den Sedimenten die Gemeinschaften der Wassersäule widerspiegelt. Aufgrund von DNA-Veränderungen und/oder -Abbau während des Transports entlang der Wassersäule zum Sediment kommt es jedoch zu einer verzerrten Sedimentablagerung verschiedener Cyanobakterien Arten. Insbesondere sind filamentose Arten wie Planktothrix in Sedimenten schlecht vertreten, obwohl sie, laut Ergebnissen einer zusätzlichen Studie dieser Arbeit zur Saisonalität von Cyanobakterien, in der Wassersäule reichlich vorhanden sind. Im Gegensatz dazu sind aggregatbildende Arten wie Aphanizomenon in Sedimenten relativ gesehen überrepräsentiert, obwohl sie in der Wassersäule relativ selten vorkommen. Diese unterschiedlichen Muster zur Sedimentablagerung verschiedener Cyanobakterien Arten sollten in zukünftigen DNA-basierten paläolimnologischen Untersuchungen berücksichtigt werden. Die Dissertation zeigt auch eine deutliche Zunahme der Cyanobakterien Abundanz während der Bronzezeit, die in vorhergehenden Phasen des frühen und mittleren Holozäns nicht erkennbar war. Dies ist wahrscheinlich durch menschliche Landwirtschaft, Entwaldung und übermäßige Nährstoffzufuhr in den See verursacht worden. Nicht nur die Abundanz von Cyanobakterien wurde durch menschliche Aktivitäten beeinflusst, sondern auch die Zusammensetzung von deren Gemeinschaften, die sich signifikant zwischen Phasen unterscheidet, die durch keinen, moderaten, und intensiven menschlichen Einfluss gekennzeichnet sind. Die in dieser Dissertation präsentierten Daten sind die ersten zu sedimentärer Cyanobakterien-DNA seit dem frühen Holozän eines Sees der gemäßigte Klimazone. Die Ergebnisse vereinen archäologische, historische, klimatische und limnologische Daten mit hochaufgelöster und Hochdurchsatz-DNA-Sequenzierung und belegen, dass der menschliche Einfluss auf Cyanobakteriengemeinschaften in Seen etwa 4000 Jahre zurückreicht. KW - anthropogenic impact KW - paleoecology KW - high throughput sequencing KW - cyanobacteria biomarker KW - microbial diversity KW - microbial ecology KW - 7-methylheptadecane KW - 7-Methylheptadecan KW - anthropogene Einwirkung KW - Cyanobakterien-Biomarker KW - hoher Durchsatz Sequenzierung KW - mikrobielle Vielfalt KW - mikrobielle Ökologie KW - Paläoökologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563590 ER - TY - THES A1 - Tang, Jo Sing Julia T1 - Biofunctional polymers for medical applications T1 - Biofunktionale Polymere für medizinische Anwendungen N2 - Carbohydrates are found in every living organism, where they are responsible for numerous, essential biological functions and processes. Synthetic polymers with pendant saccharides, called glycopolymers, mimic natural glycoconjugates in their special properties and functions. Employing such biomimetics furthers the understanding and controlling of biological processes. Hence, glycopolymers are valuable and interesting for applications in the medical and biological field. However, the synthesis of carbohydrate-based materials can be very challenging. In this thesis, the synthesis of biofunctional glycopolymers is presented, with the focus on aqueous-based, protecting group free and short synthesis routes to further advance in the field of glycopolymer synthesis. A practical and versatile precursor for glycopolymers are glycosylamines. To maintain biofunctionality of the saccharides after their amination, regioselective functionalization was performed. This frequently performed synthesis was optimized for different sugars. The optimization was facilitated using a design of experiment (DoE) approach to enable a reduced number of necessary experiments and efficient procedure. Here, the utility of using DoE for optimizing the synthesis of glycosylamines is discussed. The glycosylamines were converted to glycomonomers which were then polymerized to yield biofunctional glycopolymers. Here, the glycopolymers were aimed to be applicable as layer-by-layer (LbL) thin film coatings for drug delivery systems. To enable the LbL technique, complimentary glycopolymer electrolytes were synthesized by polymerization of the glycomonomers and subsequent modification or by post-polymerization modification. For drug delivery, liposomes were embedded into the glycopolymer coating as potential cargo carriers. The stability as well as the integrity of the glycopolymer layers and liposomes were investigated at physiological pH range. Different glycopolymers were also synthesized to be applicable as anti-adhesion therapeutics by providing advanced architectures with multivalent presentations of saccharides, which can inhibit the binding of pathogene lectins. Here, the synthesis of glycopolymer hydrogel particles based on biocompatible poly(N-isopropylacrylamide) (NiPAm) was established using the free-radical precipitation polymerization technique. The influence of synthesis parameters on the sugar content in the gels and on the hydrogel morphology is discussed. The accessibility of the saccharides to model lectins and their enhanced, multivalent interaction were investigated. At the end of this work, the synthesis strategies for the glycopolymers are generally discussed as well as their potential application in medicine. N2 - Kohlenhydrate sind in jedem Lebewesen zu finden, wo sie für zahlreiche, essenzielle biologische Funktionen und Prozesse verantwortlich sind. Synthetische Polymere, die Saccharide tragen, werden Glykopolymere genannt und können natürliche Glykokonjugate in ihren besonderen Eigenschaften und Funktionen nachahmen. Der Einsatz solcher Biomimetika fördert das Verständnis und die Kontrolle biologischer Prozesse. Daher sind Glykopolymere besonders interessant für Anwendungen im medizinischen und biologischen Bereich. Die Synthese von Materialien auf Kohlenhydratbasis kann jedoch eine große Herausforderung darstellen. In dieser Arbeit wird die Synthese biofunktioneller Glykopolymere vorgestellt, wobei der Schwerpunkt auf wässrigen, schutzgruppenfreien und kurzen Synthesewegen liegt, um weitere Fortschritte auf dem Gebiet der Glykopolymersynthese zu erzielen. Ein praktisches und vielseitiges Ausgangsmaterial für Glykopolymere sind Glykosylamine. Um die Biofunktionalität der Saccharide nach deren Aminierung zu erhalten, wurde eine regioselektive Funktionalisierung durchgeführt. Diese häufig durchgeführte Synthese wurde für verschiedene Zucker optimiert. Die Optimierung wurde durch die Anwendung von statistischer Versuchsplanung (Design of Experiments, DoE) vereinfacht, um die Anzahl der erforderlichen Experimente zu reduzieren und ein effizientes Verfahren zu ermöglichen. Hier wird der Nutzen des DoE-Ansatzes für die Optimierung der Synthese von Glykosylaminen diskutiert. Die Glykosylamine wurden in Glykomonomere umgewandelt, die daraufhin polymerisiert wurden, um biofunktionelle Glykopolymere zu erhalten. Die Glykopolymere sollten als Layer-by-Layer (LbL)-Beschichtungen für Drug-Delivery-Systeme anwendbar sein. Um die LbL-Technik zu ermöglichen, wurden komplementäre Glykopolymerelektrolyte durch Polymerisation der Glykomonomere mit anschließender Modifkation oder durch Postpolymerisationsglykosylierung hergestellt. Für die Verabreichung von Arzneimitteln wurden Liposomen als potenzielle Wirkstoffcarrier in die Glykopolymerbeschichtung eingebettet. Die Stabilität sowie die Unversehrtheit der Glykopolymerschichten und Liposomen wurden im physiologischen pH-Bereich nachgewiesen. Abschließend wurden verschiedene Glykopolymere synthetisiert, die als Anti-Adhäsions-Therapeutika anwendbar sein könnten, indem sie komplexe Architekturen mit multivalenter Präsentation von Sacchariden bereitstellen, welche die Bindung von Pathogenenlektinen hemmen können. Hier wurde die Synthese von Glykopolymer-Hydrogelpartikeln auf der Basis von biokompatiblem Poly(N-isopropylacrylamid) (NiPAm) mit Hilfe einer radikalischen Fällungspolymerisation etabliert. Der Einfluss der Syntheseparameter auf den Zuckergehalt in den Gelen und auf die Hydrogelmorphologie wurde diskutiert. Die Zugänglichkeit der Saccharide für Modell-Lektine und ihre verstärkte, multivalente Interaktion wurden untersucht. Zum Abschluss dieser Arbeit werden die Synthesestrategien für die Glykopolymere sowie deren mögliche Anwendung in der Medizin allgemein diskutiert. KW - glycopolymers KW - Glykopolymere KW - glycoconjugates KW - Glykokonjugate KW - glycogels KW - Glykogele KW - layer-by-layer glycopolymer coating KW - Layer-by-Layer Glykopolymerbeschichtung KW - design of experiments KW - statistische Versuchsplanung (Design of Experiments) KW - glycopolymer electrolytes KW - Glykopolymer-Elektrolyt Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563639 ER - TY - THES A1 - Neuendorf, Claudia T1 - Leistungsstarke Schülerinnen und Schüler in Deutschland T1 - High-achieving students in Germany BT - Definition, Entwicklung, soziale Integration BT - definition, development, social integration N2 - Die vorliegende kumulative Promotionsarbeit beschäftigt sich mit leistungsstarken Schülerinnen und Schülern, die seit 2015 in der deutschen Bildungspolitik, zum Beispiel im Rahmen von Förderprogrammen wieder mehr Raum einnehmen, nachdem in Folge des „PISA-Schocks“ im Jahr 2000 zunächst der Fokus stärker auf den Risikogruppen lag. Während leistungsstärkere Schülerinnen und Schüler in der öffentlichen Wahrnehmung häufig mit „(Hoch-)Begabten“ identifiziert werden, geht die Arbeit über die traditionelle Begabungsforschung, die eine generelle Intelligenz als Grundlage für Leistungsfähigkeit von Schülerinnen und Schülern begreift und beforscht, hinaus. Stattdessen lässt sich eher in den Bereich der Talentforschung einordnen, die den Fokus weg von allgemeinen Begabungen auf spezifische Prädiktoren und Outcomes im individuellen Entwicklungsverlauf legt. Der Fokus der Arbeit liegt daher nicht auf Intelligenz als Potenzial, sondern auf der aktuellen schulischen Leistung, die als Ergebnis und Ausgangspunkt von Entwicklungsprozessen in einer Leistungsdomäne doppelte Bedeutung erhält. Die Arbeit erkennt die Vielgestaltigkeit des Leistungsbegriffs an und ist bestrebt, neue Anlässe zu schaffen, über den Leistungsbegriff und seine Operationalisierung in der Forschung zu diskutieren. Hierfür wird im ersten Teil ein systematisches Review zur Operationalisierung von Leistungsstärke durchgeführt (Artikel I). Es werden Faktoren herausgearbeitet, auf welchen sich die Operationalisierungen unterscheiden können. Weiterhin wird ein Überblick gegeben, wie Studien zu Leistungsstarken sich seit dem Jahr 2000 auf diesen Dimensionen verorten lassen. Es zeigt sich, dass eindeutige Konventionen zur Definition schulischer Leistungsstärke noch nicht existieren, woraus folgt, dass Ergebnisse aus Studien, die sich mit leistungsstarken Schülerinnen und Schülern beschäftigen, nur bedingt miteinander vergleichbar sind. Im zweiten Teil der Arbeit wird im Rahmen zwei weiterer Artikel, welche sich mit der Leistungsentwicklung (Artikel II) und der sozialen Einbindung (Artikel III) von leistungsstarken Schülerinnen und Schülern befassen, darauf aufbauend der Ansatz verfolgt, die Variabilität von Ergebnissen über verschiedene Operationalisierungen von Leistungsstärke deutlich zu machen. Damit wird unter anderem auch die künftige Vergleichbarkeit mit anderen Studien erleichtert. Genutzt wird dabei das Konzept der Multiversumsanalyse (Steegen et al., 2016), bei welcher viele parallele Spezifikationen, die zugleich sinnvolle Alternativen für die Operationalisierung darstellen, nebeneinandergestellt und in ihrem Effekt verglichen werden (Jansen et al., 2021). Die Multiversumsanalyse knüpft konzeptuell an das bereits vor längerem entwickelte Forschungsprogramm des kritischen Multiplismus an (Patry, 2013; Shadish, 1986, 1993), erhält aber als spezifische Methode aktuell im Rahmen der Replizierbarkeitskrise in der Psychologie eine besondere Bedeutung. Dabei stützt sich die vorliegende Arbeit auf die Sekundäranalyse großangelegter Schulleistungsstudien, welche den Vorteil besitzen, dass eine große Zahl an Datenpunkten (Variablen und Personen) zur Verfügung steht, um Effekte unterschiedlicher Operationalisierungen zu vergleichen. Inhaltlich greifen Artikel II und III Themen auf, die in der wissenschaftlichen und gesellschaftlichen Diskussion zu Leistungsstarken und ihrer Wahrnehmung in der Öffentlichkeit immer wieder aufscheinen: In Artikel II wird zunächst die Frage gestellt, ob Leistungsstarke bereits im aktuellen Regelunterricht einen kumulativen Vorteil gegenüber ihren weniger leistungsstarken Mitschülerinnen und Mitschülern haben (Matthäus-Effekt). Die Ergebnisse zeigen, dass an Gymnasien keineswegs von sich vergrößernden Unterschieden gesprochen werden kann. Im Gegenteil, es verringerte sich im Laufe der Sekundarstufe der Abstand zwischen den Gruppen, indem die Lernraten bei leistungsschwächeren Schülerinnen und Schülern höher waren. Artikel III hingegen betrifft die soziale Wahrnehmung von leistungsstarken Schülerinnen und Schülern. Auch hier hält sich in der öffentlichen Diskussion die Annahme, dass höhere Leistungen mit Nachteilen in der sozialen Integration einhergehen könnten, was sich auch in Studien widerspiegelt, die sich mit Geschlechterstereotypen Jugendlicher in Bezug auf Schulleistung beschäftigen. In Artikel III wird unter anderem erneut das Potenzial der Multiversumsanalyse genutzt, um die Variation des Zusammenhangs über Operationalisierungen von Leistungsstärke zu beschreiben. Es zeigt sich unter unterschiedlichen Operationalisierungen von Leistungsstärke und über verschiedene Facetten sozialer Integration hinweg, dass die Zusammenhänge zwischen Leistung und sozialer Integration insgesamt leicht positiv ausfallen. Annahmen, die auf differenzielle Effekte für Jungen und Mädchen oder für unterschiedliche Fächer abzielen, finden in diesen Analysen keine Bestätigung. Die Dissertation zeigt, dass der Vergleich unterschiedlicher Ansätze zur Operationalisierung von Leistungsstärke — eingesetzt im Rahmen eines kritischen Multiplismus — das Verständnis von Phänomenen vertiefen kann und auch das Potenzial hat, Theorieentwicklung voranzubringen. N2 - This cumulative doctoral thesis deals with high-achieving students. Since 2015, this group has regained attention in German education policy, which had focused more on at-risk groups in the wake of the German "PISA shock" in 2000. In public perception, high-achieving students are often equated with "(highly) gifted" individuals. However, this work goes beyond traditional giftedness research, which understands and researches general intelligence as the basis for students' performance. Instead, it can rather be placed in the field of talent research, which shifts the focus away from general giftedness to specific predictors and outcomes in individual developmental trajectories. Therefore, the work focuses not on intelligence as a potential but on current academic performance, which takes on a double meaning as the result and starting point of developmental processes in a performance domain. This work recognises the multifaceted nature of the concept of performance and strives to create new occasions to discuss the concept of performance and its operationalisation in research. To this end, a systematic review of the operationalisation of high achievement in studies since the year 2000 was conducted in the first part (Article I). First, we identified factors on which operationalisations can differ. Following that, studies were located on these dimensions. Results showed that clear conventions for defining academic achievement do not yet exist, which means that results from studies dealing with high-achieving students can only be compared to a limited extent. In the second part of the thesis, two further articles dealing with the development of performance (Article II) and the social integration (Article III) of high-achieving secondary school students built on the results of the first article and examined the variability of results by applying different operationalisations of achievement. Among other things, this facilitates future comparability with other studies. The concept of multiverse analysis (Steegen, Tuerlinckx, Gelman & Vanpaemel, 2016) was used for this purpose. In a multiverse analysis, many parallel specifications, which at the same time represent sensible alternatives for an operationalisation, are juxtaposed and compared in terms of their effect (Jansen, Neuendorf & Kocaj, 2021). Conceptually, multiverse analysis is linked to the research programme of Critical Multiplism, which was developed some time ago (Patry, 2013; Shadish, 1986, 1993). However, as a specific method, multiverse analysis is currently gaining special significance in the context of the replicability crisis in psychology. The present studies are based on the secondary analysis of large-scale school performance studies, which have the advantage that many data points (variables and persons) are available to compare the effects of different operationalisations. In terms of content, Articles II and III take up topics that repeatedly come up in the academic and public discussion on high achievers and their public perception: Article II begins by asking whether high-achievers already have a cumulative advantage over their lower-achieving classmates in the current regular classroom (Matthew effect). The results show that at grammar schools, one can by no means speak of widening differences. On the contrary, the gap between the groups narrowed in the course of secondary school, in that learning rates were higher among lower-performing students. Article III, on the other hand, concerns the social perception of high-achieving pupils. Here, the assumption persists in the public debate that higher performance might be associated with disadvantages in social integration, which is also reflected in studies dealing with gender stereotypes of young people in relation to school performance. In Article III, among other things, the potential of multiverse analysis was used to describe the variation in the relationship between achievement and social integration across operationalisations of achievement. Overall, across different facets of social integration and different operationalisations of achievement, the correlations between both were slightly positive. These analyses did not confirm assumptions aimed at differential effects for boys and girls or for different subjects. The dissertation shows that the comparison of different approaches to the operationalisation of achievement - used in the context of critical multiplism - can deepen the understanding of phenomena and also has the potential to advance theory development. KW - leistungsstarke Schüler KW - Begabung KW - Leistungsentwicklung KW - Integration KW - Operationalisierung KW - giftedness KW - integration KW - achievement trajectory KW - operationalisation; operationalization KW - high-achieving students; high-performing students; high-achievers Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564702 ER - TY - THES A1 - Foster, Mary Grace T1 - X-Ray studies of exoplanet systems N2 - X-rays are integral to furthering our knowledge of exoplanetary systems. In this work we discuss the use of X-ray observations to understand star-planet interac- tions, mass-loss rates of an exoplanet’s atmosphere and the study of an exoplanet’s atmospheric components using future X-ray spectroscopy. The low-mass star GJ 1151 was reported to display variable low-frequency radio emission, which is an indication of coronal star-planet interactions with an unseen exoplanet. In chapter 5 we report the first X-ray detection of GJ 1151’s corona based on XMM-Newton data. Averaged over the observation, we detect the star with a low coronal temperature of 1.6 MK and an X-ray luminosity of LX = 5.5 × 1026 erg/s. This is compatible with the coronal assumptions for a sub-Alfvénic star- planet interaction origin of the observed radio signals from this star. In chapter 6, we aim to characterise the high-energy environment of known ex- oplanets and estimate their mass-loss rates. This work is based on the soft X-ray instrument on board the Spectrum Roentgen Gamma (SRG) mission, eROSITA, along with archival data from ROSAT, XMM-Newton, and Chandra. We use these four X-ray source catalogues to derive X-ray luminosities of exoplanet host stars in the 0.2-2 keV energy band. A catalogue of the mass-loss rates of 287 exoplan- ets is presented, with 96 of these planets characterised for the first time using new eROSITA detections. Of these first time detections, 14 are of transiting exoplanets that undergo irradiation from their host stars that is of a level known to cause ob- servable evaporation signals in other systems, making them suitable for follow-up observations. In the next generation of space observatories, X-ray transmission spectroscopy of an exoplanet’s atmosphere will be possible, allowing for a detailed look into the atmospheric composition of these planets. In chapter 7, we model sample spectra using a toy model of an exoplanetary atmosphere to predict what exoplanet transit observations with future X-ray missions such as Athena will look like. We then estimate the observable X-ray transmission spectrum for a typical Hot Jupiter-type exoplanet, giving us insights into the advances in X-ray observations of exoplanets in the decades to come. N2 - Röntgenstrahlen sind ein wesentlicher Bestandteil, um unser Wissen über extrasolare Planetensysteme zu vertiefen und zu erweitern. In dieser Arbeit erörtern wir den Einsatz von Röntgenbeobachtungen zum Verständnis von Stern-Planeten-Interaktionen, der Abschätzung von Massenverlustraten von Exoplanetenatmosphären und die Untersuchung der atmosphärischen Komponenten eines Exoplaneten mithilfe zukünftiger Röntgenspektroskopie. Beobachtungen des massearmen Sterns GJ 1151 deuten auf eine variable Emission niederfrequenter Radiostrahlung hin, was als Indiz für koronale Stern-Planeten-Wechselwirkungen mit einem unsichtbaren Exoplaneten angesehen wird. In Kapitel 5 berichten wir über den ersten Röntgennachweis der Korona von GJ 1151, basierend auf XMM-Newton Daten. Über die gesamte Beobachtungsdauer gemittelt, weisen wir den Stern mit einer niedrigen koronalen Temperatur von 1,6 MK und einer Röntgenluminosität von LX = 5, 5 ◊ 1026 erg/s nach. Dieser Nachweis im Röntgenlicht ist kompatibel mit der Annahme, dass sub-Alfvénische Wechselwirkungen zwischen stellarer Corona und Exoplanet die Ursache für die beobachteten Radiosignale des Sterns sind. Kapitel 6 zielt darauf ab, die hochenergetische Umgebung bekannter Exoplaneten zu charakterisieren und die Massenverlustraten der Planetenatmosphären abzuschätzen. Diese Arbeit basiert auf neu gewonnenen Daten des Instruments für weiche Röntgenstrahlung an Bord der Spectrum Roentgen Gamma (SRG) Mission, eROSITA, und wird komplementiert von Archivdaten von ROSAT, XMM-Newton und Chandra. Mithilfe dieser vier Röntgenquellenkataloge vermessen wir die Röntgenhelligkeit der Zentralsterne von bekannten Exoplanetensytemen im Energiebereich von 0,2-2 keV. Die Ergebnisse sind zusammen mit den errechneten Massenverlustraten von 287 Exoplaneten in einem Katalog zusammengefasst, darunter 96 Planeten, die zum ersten Mal durch neue eROSITA-Nachweise charakterisiert wurden. Bei 14 dieser Erstnachweise handelt es sich um transitierende Exoplaneten, die von ihrem Heimatstern so stark bestrahlt werden, dass beobachtbare Signale, ausgelöst durch die Verdampfung ihrer Atmosphäre, zu erwarten sind. Speziell diese Systeme eignen sich besonders für Folgebeobachtungen. Mit der nächsten Generation von Weltraumobservatorien wird die Röntgentransmissionsspektroskopie von extrasolaren Planetenatmosphären möglich sein, was nie dagewesene Details über die atmosphärische Zusammensetzung dieser Planeten ans Licht bringen wird. In Kapitel 7 modellieren wir Transmissionsspektren mithilfe eines vereinfachten Modells einer Exoplanetenatmosphäre um vorherzusagen, wie Transitbeobachtungen von Exoplaneten mit zukünftigen Röntgenmissionen wie Athena aussehen werden. Wir schätzen dann das beobachtbare Röntgentransmissionsspektrum für einen typischen Exoplaneten vom Typ Hot Jupiter ab, was uns einen Einblick in die zu erwartenden Fortschritte bei der Röntgenbeobachtung von Exoplaneten in den kommenden Jahrzehnten gibt. KW - exoplanets KW - x-rays KW - stellar physics KW - Exoplaneten KW - Röntgenstrahlen KW - stellare Physik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562152 PB - xiii, 92 ER - TY - THES A1 - Heuberger, Moritz T1 - Coordinating digital government T1 - Die Koordination der digitalen Verwaltung BT - explaining coordination challenges regarding the digital transformation of public administration in a federal context BT - Erläuterung der Koordinationsherausforderungen bei der digitalen Transformation der öffentlichen Verwaltung im föderalen Kontext N2 - This thesis is analyzing multiple coordination challenges which arise with the digital transformation of public administration in federal systems, illustrated by four case studies in Germany. I make various observations within a multi-level system and provide an in-depth analysis. Theoretical explanations from both federalism research and neo-institutionalism are utilized to explain the findings of the empirical driven work. The four articles evince a holistic picture of the German case and elucidate its role as a digital government laggard. Their foci range from macro, over meso to micro level of public administration, differentiating between the governance and the tool dimension of digital government. The first article shows how multi-level negotiations lead to expensive but eventually satisfying solutions for the involved actors, creating a subtle balance between centralization and decentralization. The second article identifies legal, technical, and organizational barriers for cross-organizational service provision, highlighting the importance of inter-organizational and inter-disciplinary exchange and both a common language and trust. Institutional change and its effects on the micro level, on citizens and the employees in local one-stop shops, mark the focus of the third article, bridging the gap between reforms and the administrative reality on the local level. The fourth article looks at the citizens’ perspective on digital government reforms, their expectations, use and satisfaction. In this vein, this thesis provides a detailed account of the importance of understanding the digital divide and therefore the necessity of reaching out to different recipients of digital government reforms. I draw conclusions from the factors identified as causes for Germany’s shortcomings for other federal systems where feasible and derive reform potential therefrom. This allows to gain a new perspective on digital government and its coordination challenges in federal contexts. N2 - Die vorliegende Arbeit analysiert die vielfältigen Koordinationsherausforderungen, vor welchen die öffentliche Verwaltung im Zuge der digitalen Transformation steht. Dabei werden im Speziellen Herausforderungen in föderalen Systemen anhand von vier Fallstudien in Deutschland betrachtet. Theoretische Erklärungen, sowohl aus der Föderalismusforschung als auch aus dem Neo-Institutionalismus, werden herangezogen, um die Ergebnisse der empirisch getriebenen Arbeit zu erklären. Die vier Artikel zeichnen ein umfassendes Bild des deutschen Falls und beleuchten Gründe für Deutschlands Nachholbedarf im Bereich der digitalen Verwaltung. Die Schwerpunkte der Untersuchungen sind dabei verteilt: Von Makro- über die Meso- bis zur Mikroebene der öffentlichen Verwaltung, wobei zwischen der Governance- und der instrumentellen Dimension von digitaler Verwaltung unterschieden wird. Der erste Artikel zeigt, wie Verhandlungen im Mehrebenensystem zu kostspieligen, aber letztendlich zufriedenstellenden Lösungen für die beteiligten Akteure führen und ein subtiles Gleichgewicht zwischen Zentralisierung und Dezentralisierung geschaffen wird. Im zweiten Artikel werden rechtliche, technische und organisatorische Hindernisse für die organisationsübergreifende Erbringung von Dienstleistungen diskutiert und die Bedeutung des interorganisatorischen und interdisziplinären Austauschs betont. Vor allem wird dabei die Notwendigkeit eines gemeinsamen Verständnisses und von gegenseitigem Vertrauen herausgearbeitet. Der institutionelle Wandel und seine Auswirkungen auf die Mikroebene, auf die Bürger*innen und die Mitarbeitenden in Bürgerämtern, stehen im Mittelpunkt des dritten Artikels, der die Kluft zwischen den Reformen und der Verwaltungsrealität auf kommunaler Ebene aufzeigt. Der vierte Artikel befasst sich mit der Sicht der Bürger*innen auf die digitalen Reformen der öffentlichen Verwaltung, ihren Erwartungen, ihrer Nutzung und ihrer Zufriedenheit. Im Zuge dessen wird in dieser Arbeit ausführlich dargelegt, wie wichtig das Bewusstsein für den Digital Divide ist, um die verschiedenen Adressat*innen von digitalen Verwaltungsreformen zu erreichen. Die identifizierten Faktoren für die Defizite in Deutschland lassen sich bis zu einem gewissen Grad auf andere föderale Systeme generalisieren und aus den Ergebnissen können Reformpotenziale abgeleitet werden - was eine neue Perspektive auf die Debatte rund um die digitale Verwaltung und die damit zusammenhängenden Herausforderungen für die Koordination in föderalen Kontexten ermöglicht. KW - digital government KW - e-government KW - federalism KW - institutional reform KW - multi-level governance KW - public management KW - e-services KW - digitale Verwaltung KW - e-government KW - e-services KW - Föderalismus KW - institutional reform KW - Mehrebenen-System KW - Public Management Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562691 ER - TY - THES A1 - Repke, Tim T1 - Machine-learning-assisted corpus exploration and visualisation N2 - Text collections, such as corpora of books, research articles, news, or business documents are an important resource for knowledge discovery. Exploring large document collections by hand is a cumbersome but necessary task to gain new insights and find relevant information. Our digitised society allows us to utilise algorithms to support the information seeking process, for example with the help of retrieval or recommender systems. However, these systems only provide selective views of the data and require some prior knowledge to issue meaningful queries and asses a system’s response. The advancements of machine learning allow us to reduce this gap and better assist the information seeking process. For example, instead of sighting countless business documents by hand, journalists and investigator scan employ natural language processing techniques, such as named entity recognition. Al-though this greatly improves the capabilities of a data exploration platform, the wealth of information is still overwhelming. An overview of the entirety of a dataset in the form of a two-dimensional map-like visualisation may help to circumvent this issue. Such overviews enable novel interaction paradigms for users, which are similar to the exploration of digital geographical maps. In particular, they can provide valuable context by indicating how apiece of information fits into the bigger picture.This thesis proposes algorithms that appropriately pre-process heterogeneous documents and compute the layout for datasets of all kinds. Traditionally, given high-dimensional semantic representations of the data, so-called dimensionality reduction algorithms are usedto compute a layout of the data on a two-dimensional canvas. In this thesis, we focus on text corpora and go beyond only projecting the inherent semantic structure itself. Therefore,we propose three dimensionality reduction approaches that incorporate additional information into the layout process: (1) a multi-objective dimensionality reduction algorithm to jointly visualise semantic information with inherent network information derived from the underlying data; (2) a comparison of initialisation strategies for different dimensionality reduction algorithms to generate a series of layouts for corpora that grow and evolve overtime; (3) and an algorithm that updates existing layouts by incorporating user feedback provided by pointwise drag-and-drop edits. This thesis also contains system prototypes to demonstrate the proposed technologies, including pre-processing and layout of the data and presentation in interactive user interfaces. N2 - Der Großteil unseres Wissens steckt in Textsammlungen, wie etwa Korpora von Büchern, Forschungsartikeln, Nachrichten, sowie Geschäftsunterlagen. Sie bieten somit eine wertvolle Grundlage um neue Erkennisse zu gewinnen oder relevante Informationen zu finden, allerdings sind manuelle Recherchen aufgrund stetig wachsender Datenmengen schier unmöglich. Dank der Digitalisierung können Suchmaschinen Recherchen erheblich unterstützten. Sie bieten jedoch lediglich eine selektive Sicht auf die darunterliegenden Daten und erfordern ein gewisses Vorwissen um aussagekräftige Anfragen zu stellen und die Ergebnisse richtig einzuordnen. Die Fortschritte im Bereich des maschinellen Lernens eröffnen völlig neue Möglichkeiten zur Interaktion mit Daten. Anstatt zahllose Geschäftsdokumente von Hand zu sichten, können Journalisten und Ermittler beispielsweise Techniken aus der Computerlinguistik einsetzen um automatisch Personen oder Orte im Text erkennen. Ein daraus gebildeter sogenannter Knowledge Graph kann Suchmaschinen deutlich verbessern, allerdings ist die Fülle an Informationen weiterhin überwältigend. Eine Übersicht eines gesamten Datensatzes, ähnlich einer geographischen Landkarte, ermöglicht innovative Interaktionsparadigmen und ermöglicht es Nutzern zu erkennen, wie sich bestimmte Informationen in Kontext des Gesamtbilds einfügen. In dieser Arbeit werden Algorithmen entwickelt um heterogene Daten vorzuverarbeiten und sie auf zweidimensionalen kartenähnlichen Ansichten zu verorten. Traditionell werden zur Verortung hochdimensionale semantische Vektorrepräsentationen der Daten verwendet, die anschließend mit Dimensionsreduktionsalgorithmen auf eine zweidimensionale Ebene projiziert werden. Wir fokussieren uns auf die Visualisierung von Textkorpora und gehen dabei über die Projektion der reinen inhärenten semantischen Struktur hinaus. Hierzu wurden drei Ansätze zur Dimensionsreduktion entwickelt, die zusätzliche Informationen bei der Berechnung der Positionen einbeziehen: (1) Dimensionsreduktion mit mehren Kriterien, bei der sowohl semantische Informationen, als auch inhärente Netzwerkinformationen, die aus den zugrundeliegenden Daten abgeleitet werden, zur Positionsberechnung verwendet werden; (2) Analyse des Einflusses von Initialisierungsstrategien für verschiedene Dimensionsreduktionsalgorithmen, um eine zeitlich kohärente Serie an Projektionen zu erzeugen um Korpora abzubilden, welche im Laufe der Zeit wachsen; (3) Anpassung bereits vorhandener Projektionen auf der Basis einzelner, händisch verschobener Datenpunkte. Diese Arbeit beschreibt darüber hinaus Prototypen für Benutzeroberflächen, die zur Demonstration der beschriebenen Technologien entwickelt wurden. KW - dimensionality reduction KW - corpus exploration KW - data visualisation KW - Korpusexploration KW - Datenvisualisierung KW - Dimensionsreduktion Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562636 ER - TY - THES A1 - Spallanzani, Roberta T1 - Li and B in ascending magmas: an experimental study on their mobility and isotopic fractionation T1 - Li und B in aufsteigenden Magmen: eine experimentelle Studie über ihre Mobilität und Isotopenfraktionierung N2 - This research study focuses on the behaviour of Li and B during magmatic ascent, and decompression-driven degassing related to volcanic systems. The main objective of this dissertation is to determine whether it is possible to use the diffusion properties of the two trace elements as a tool to trace magmatic ascent rate. With this objective, diffusion-couple and decompression experiments have been performed in order to study Li and B mobility in intra-melt conditions first, and then in an evolving system during decompression-driven degassing. Synthetic glasses were prepared with rhyolitic composition and an initial water content of 4.2 wt%, and all the experiments were performed using an internally heated pressure vessel, in order to ensure a precise control on the experimental parameters such as temperature and pressure. Diffusion-couple experiments were performed with a fix pressure 300 MPa. The temperature was varied in the range of 700-1250 °C with durations between 0 seconds and 24 hours. The diffusion-couple results show that Li diffusivity is very fast and starts already at very low temperature. Significant isotopic fractionation occurs due to the faster mobility of 6Li compared to 7Li. Boron diffusion is also accelerated by the presence of water, but the results of the isotopic ratios are unclear, and further investigation would be necessary to well constrain the isotopic fractionation process of boron in hydrous silicate melts. The isotopic ratios results show that boron isotopic fractionation might be affected by the speciation of boron in the silicate melt structure, as 10B and 11B tend to have tetrahedral and trigonal coordination, respectively. Several decompression experiments were performed at 900 °C and 1000 °C, with pressures going from 300 MPa to 71-77 MPa and durations of 30 minutes, two, five and ten hours, in order to trigger water exsolution and the formation of vesicles in the sample. Textural observations and the calculation of the bubble number density confirmed that the bubble size and distribution after decompression is directly proportional to the decompression rate. The overall SIMS results of Li and B show that the two trace elements tend to progressively decrease their concentration with decreasing decompression rates. This is explained because for longer decompression times, the diffusion of Li and B into the bubbles has more time to progress and the melt continuously loses volatiles as the bubbles expand their volumes. For fast decompression, Li and B results show a concentration increase with a δ7Li and δ11B decrease close to the bubble interface, related to the sudden formation of the gas bubble, and the occurrence of a diffusion process in the opposite direction, from the bubble meniscus to the unaltered melt. When the bubble growth becomes dominant and Li and B start to exsolve into the gas phase, the silicate melt close to the bubble gets depleted in Li and B, because of a stronger diffusion of the trace elements into the bubble. Our data are being applied to different models, aiming to combine the dynamics of bubble nucleation and growth with the evolution of trace elements concentration and isotopic ratios. Here, first considerations on these models will be presented, giving concluding remarks on this research study. All in all, the final remarks constitute a good starting point for further investigations. These results are a promising base to continue to study this process, and Li and B can indeed show clear dependences on decompression-related magma ascent rates in volcanic systems. N2 - Diese Forschungsstudie konzentriert sich auf das Verhalten von Li und B während des magmatischen Aufstiegs und der Druckentlastungsbedingten Entgasung im Zusammenhang mit vulkanischen Systemen. Das Hauptziel dieser Dissertation besteht darin, festzustellen, ob es möglich ist, die Diffusionseigenschaften der beiden Spurenelemente als Instrument zur Verfolgung der magmatischen Aufstiegsgeschwindigkeit zu nutzen. Unter Verwendung von synthetischen Gläsern mit rhyolitischer Zusammensetzung und einem Wassergehalt von 4,2 Gew.-% wurden Diffusionspaar- und Druckentlastungsexperimente durchgeführt, um die Mobilität von Li und B zunächst in der Schmelze und dann in einem sich entwickelnden System während der Druckentlastungsgetriebenen Entgasung zu untersuchen. Diffusionspaar wurden mit einem festen Druck von 300 MPa durchgeführt. Die Temperatur wurde im Bereich von 700-1250 °C variiert, wobei die Dauer zwischen 0 Sekunden und 24 Stunden lag. Unsere Ergebnisse zeigen, dass die Diffusionsfähigkeit von Li sehr schnell ist und bei sehr niedrigen Temperaturen auftritt. Eine Isotopenfraktionierung findet aufgrund der schnelleren Mobilität von 6Li im Vergleich zu 7Li statt. Die Diffusion von Bor wird durch die Anwesenheit von Wasser ebenfalls beschleunigt, bleibt aber langsamer als die von Li. Die Ergebnisse der Isotopenverhältnisse zeigen, dass die Bor-Isotopenfraktionierung durch die Speziation von Bor in der Silikatschmelze beeinflusst werden könnte, da 10B und 11B tendenziell eine tetraedrische bzw. trigonale Koordination aufweisen. Druckentlastungsversuche wurden bei 900 °C und 1000 °C mit Drücken von 300 MPa bis 71-77 MPa und einer Dauer von 30 Minuten, zwei, fünf und zehn Stunden durchgeführt, um die Wasserauflösung und die Bildung von Gasblasen in der Probe auszulösen. Texturbeobachtungen und die Berechnung der Blasenanzahldichte bestätigten, dass die Blasengröße und -verteilung nach der Druckentlastung direkt proportional zur Druckentlastungsrate ist. Generell zeigen die SIMS-Analysergebnisse von Li und B, dass die Konzentration der beiden Spurenelemente mit abnehmender Druckentlastungsgeschwindigkeit allmählich abnimmt. Dies ist darauf zurückzuführen, dass bei längeren Druckentlastungszeiten mehr Zeit für die Diffusion von Li und B in die Blasen zur Verfügung steht und die Schmelze kontinuierlich flüchtige Bestandteile verliert, während die Blasen ihr Volumen ausdehnen. Bei schnellen Druckentlastungen zeigen die Li- und B-Ergebnisse einen Konzentrationsanstieg mit einer δ7Li- und δ11B-Abnahme in der Nähe der Blasengrenzfläche, was mit der plötzlichen Bildung der Glasbläser und dem Auftreten eines Diffusionsprozesses in der entgegengesetzten Richtung, vom Blasenmeniskus zur unveränderten Schmelze, zusammenhängt. Wenn das Blasenwachstum dominiert und Li und B in die Gasphase übergehen, verarmt die Silikat Schmelze in der Nähe der Blase an Li und B, da die Spurenelemente stärker in die Blase diffundieren. Unsere Daten werden auf verschiedene Modelle angewandt, die darauf abzielen, die Dynamik der Blasenkernbildung und des Blasenwachstums mit der Entwicklung der Spurenelementkonzentration und des Isotopenverhältnisses zu kombinieren. Hier werden erste Überlegungen zu diesen Modellen vorgestellt und abschließende Bemerkungen zu dieser Forschungsstudie gemacht. Diese Ergebnisse sind eine vielversprechende Grundlage für die weitere Untersuchung von Li und B, um dekompressionsbedingte Magma-Aufstiegsraten in vulkanischen Systemen zu ermitteln. KW - magma degassing KW - diffusion KW - stable isotopes KW - isotopic fractionation KW - Diffusion KW - Isotopenfraktionierung KW - Magma-Entgasung KW - stabile Isotope Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560619 ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Kovács, Róbert T1 - Human-scale personal fabrication N2 - The availability of commercial 3D printers and matching 3D design software has allowed a wide range of users to create physical prototypes – as long as these objects are not larger than hand size. However, when attempting to create larger, "human-scale" objects, such as furniture, not only are these machines too small, but also the commonly used 3D design software is not equipped to design with forces in mind — since forces increase disproportionately with scale. In this thesis, we present a series of end-to-end fabrication software systems that support users in creating human-scale objects. They achieve this by providing three main functions that regular "small-scale" 3D printing software does not offer: (1) subdivision of the object into small printable components combined with ready-made objects, (2) editing based on predefined elements sturdy enough for larger scale, i.e., trusses, and (3) functionality for analyzing, detecting, and fixing structural weaknesses. The presented software systems also assist the fabrication process based on either 3D printing or steel welding technology. The presented systems focus on three levels of engineering challenges: (1) fabricating static load-bearing objects, (2) creating mechanisms that involve motion, such as kinematic installations, and finally (3) designing mechanisms with dynamic repetitive movement where power and energy play an important role. We demonstrate and verify the versatility of our systems by building and testing human-scale prototypes, ranging from furniture pieces, pavilions, to animatronic installations and playground equipment. We have also shared our system with schools, fablabs, and fabrication enthusiasts, who have successfully created human-scale objects that can withstand with human-scale forces. N2 - Die Verfügbarkeit kommerzieller 3D-Drucker und die dazugehörige Software ermöglicht einer großen Bandbreite von Nutzern, physikalische Prototypen selbst herzustellen. Allerdings gilt dies oft nur für handgroße Objekte. Diese Limitation ist auf der einen Seite den kleinen Maschinengrößen von 3D-Druckern geschuldet, andererseits müssen aber auch signifikante, einwirkende Kräfte bereits im Entwurf berücksichtigt werden, was in aktuellen Anwendungen lediglich Benutzern mit entsprechendem Know-How vorbehalten ist. In dieser Arbeit stelle ich eine Reihe von Software-Komplettlösungen vor, die es einer breiten Benutzergruppe erlaubt, große "human-scale" Strukturen, wie Möbel, zu entwerfen und herzustellen. Diese Systeme gehen in drei Kernaspekten über herkömmliche 3D-Druck-Entwurfsanwendungen hinaus: (1) Die Unterteilung von großen Strukturen in eine Kombination aus druckbaren Objekten und Standardteilen. (2) Entwurf von statisch tragenden Strukturen. (3) Funktionalität zum Erkennen, Analysieren und Beheben von strukturellen Schwachstellen. Dabei beschränkt sich diese Arbeit nicht auf Softwarelösungen, sondern unterstützt die Benutzer im gesamten Herstellungsprozess, sowohl bei Prozessen basierend auf dem FDM 3D-Druck, als auch beim Schweißen von Metallen. Die verschiedenen Systeme, die hier vorgestellt werden, ermöglichen die Erstellungen von tragfähigen, statischen Strukturen über kinematische Installation bis hin zu dynamischen Konstruktionen. Solche gefertigten Konstrukte wie Möbel, Pavillons, Spielplatzgeräte, als auch animierte Installationen demonstrieren die Funktionalität und das weite Anwendungsspektrum des Ansatzes. Ergebnisse dieser Arbeit kamen bereits an Schulen, FabLabs und bei Privatpersonen zum Einsatz, die mit der Software erfolgreich eigene und funktionale "human-scale"-Großstrukturen entwerfen und herstellen konnten. KW - 3D printing KW - fabrication KW - human-scale KW - load-bearing KW - dynamics KW - force KW - 3D Druck KW - Fabrikation KW - Großformat KW - Kraft KW - Tragfähigkeit KW - Dynamik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555398 ER - TY - THES A1 - Bournot, Estefanía T1 - Giros Topográficos BT - (Re)escrituras del espacio en la narrativa latinoamericana del siglo XXI N2 - Giros topográficos explora las producciones simbólicas del espacio en una serie de textos narrativos publicados desde el cambio de milenio en América Latina. Retomando los planteos teóricos del spatial turn y de la geocrítica, el estudio aborda las topografías literarias desde cuatro ángulos que exceden y transforman los límites territoriales y nacionales: dinámicas de hiperconectividad mediática y movilidad acelerada; genealogías afectivas; ecologías urbanas; y representaciones de la alteridad. A partir del análisis de obras de Lina Meruane, Guillermo Fadanelli, Andrés Neuman, Andrea Jeftanovic, Sergio Chejfech y Bernardo Carvalho, entre otros, el libro señala los flujos, ambigüedades y tensiones proyectadas por las nuevas comunidades imaginadas del s.XXI. Con ello, el ensayo busca ofrecer un aporte para repensar el estatus de la literatura latinoamericana en el marco de su globalización avanzada y la consecuente consolidación de espacios de enunciación translocalizados. N2 - Topographic turns investigates the symbolic productions of space in a series of narrative texts published since the turn of the millennium in Latin America. Drawing on theoretical approaches of the Spatial Turn and Geocriticism, the study critically examines literary topographies from four angles that exceed and transform territorial and national boundaries: dynamics of mediatic hyperconnectivity and accelerated mobility; affective genealogies; urban ecologies; and representations of otherness. Based on the analysis of works by Lina Meruane, Guillermo Fadanelli, Andrés Neuman, Andrea Jeftanovic, Sergio Chejfech and Bernardo Carvalho, among others, the book outlines the flows, ambiguities and tensions projected by the imagined communities of the 21st century. Overall the study seeks to offer a contribution to rethink the status of Latin American literature in the context of its advanced globalization and the consequent consolidation of translocalized spaces of enunciation. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 6 KW - giro espacial KW - geocrítica KW - cronotopos KW - narrativa latinoamericana contemporánea KW - globalización KW - literatura mundial KW - comunidades imaginadas KW - giro afectivo KW - literatura de viaje KW - orientalismo KW - paisajes urbanos KW - no-lugares KW - spatial turn KW - geocriticism KW - chronotopes KW - contemporary Latin American literature KW - globalization KW - world literature KW - imagined communities KW - affective turn KW - travel literature KW - orientalism KW - urban landscapes KW - non-places Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548422 SN - 978-3-86956-534-7 SN - 2629-2548 SN - 2629-253X IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Tranter, Morgan Alan T1 - Numerical quantification of barite reservoir scaling and the resulting injectivity loss in geothermal systems N2 - Due to the major role of greenhouse gas emissions in global climate change, the development of non-fossil energy technologies is essential. Deep geothermal energy represents such an alternative, which offers promising properties such as a high base load capability and a large untapped potential. The present work addresses barite precipitation within geothermal systems and the associated reduction in rock permeability, which is a major obstacle to maintaining high efficiency. In this context, hydro-geochemical models are essential to quantify and predict the effects of precipitation on the efficiency of a system. The objective of the present work is to quantify the induced injectivity loss using numerical and analytical reactive transport simulations. For the calculations, the fractured-porous reservoirs of the German geothermal regions North German Basin (NGB) and Upper Rhine Graben (URG) are considered. Similar depth-dependent precipitation potentials could be determined for both investigated regions (2.8-20.2 g/m3 fluid). However, the reservoir simulations indicate that the injectivity loss due to barite deposition in the NGB is significant (1.8%-6.4% per year) and the longevity of the system is affected as a result; this is especially true for deeper reservoirs (3000 m). In contrast, simulations of URG sites indicate a minor role of barite (< 0.1%-1.2% injectivity loss per year). The key differences between the investigated regions are reservoir thicknesses and the presence of fractures in the rock, as well as the ionic strength of the fluids. The URG generally has fractured-porous reservoirs with much higher thicknesses, resulting in a greater distribution of precipitates in the subsurface. Furthermore, ionic strengths are higher in the NGB, which accelerates barite precipitation, causing it to occur more concentrated around the wellbore. The more concentrated the precipitates occur around the wellbore, the higher the injectivity loss. In this work, a workflow was developed within which numerical and analytical models can be used to estimate and quantify the risk of barite precipitation within the reservoir of geothermal systems. A key element is a newly developed analytical scaling score that provides a reliable estimate of induced injectivity loss. The key advantage of the presented approach compared to fully coupled reservoir simulations is its simplicity, which makes it more accessible to plant operators and decision makers. Thus, in particular, the scaling score can find wide application within geothermal energy, e.g., in the search for potential plant sites and the estimation of long-term efficiency. N2 - Aufgrund der tragenden Rolle der Treibhausgasemissionen für den globalen Klimawandel ist die Entwicklung von nicht-fossilen Energietechnologien essenziell. Die Tiefengeothermie stellt eine solche Alternative dar, welche vielversprechende Eigenschaften wie eine hohe Grundlastfähigkeit und ein großes ungenutztes Potenzial bietet. Die vorliegende Arbeit befasst sich mit Barytausfällungen inner- halb geothermaler Systeme und der damit einhergehenden Verringerung der Gesteinsdurchlässigkeit, welche ein Haupthindernis für die Aufrechterhaltung einer hohen Effizienz darstellen. Dabei sind hydro-geochemische Modelle unerlässlich, um die Auswirkungen von Ausfällungen auf die Effizienz eines Systems zu quantifizieren und vorherzusagen. Ziel der vorliegenden Arbeit ist es, mittels numerischer und analytischer reaktiver Transportsimulationen, den induzierten Injektivitätsverlust zu quantifizieren. Für die Berechnungen werden die klüftig-porösen Reservoire der deutschen Geothermieregionen Norddeutsches Becken (NDB) und Oberrheingraben (ORG) betrachtet. Für beide untersuchte Regionen konnte ein ähnliches, tiefenabhängiges Fällungspotenzial bestimmt werden (2,8–20,2 g/m3 Fluid). Die Reservoirsimulationen zeigen jedoch, dass der Injektivitätsverlust aufgrund von Barytablagerungen im NDB erheblich ist (1,8%–6,4% pro Jahr) und die Langlebigkeit der Anlage dadurch beeinträchtigt wird, dies gilt insbesondere für tiefere Reservoire (3000 m). Im Gegensatz dazu deuten die Simulationen der ORG-Standorte auf eine untergeordnete Rolle von Baryt hin (< 0,1%–1,2% Injektivitätsverlust pro Jahr). Die entscheidenden Unterschiede zwischen den untersuchten Regionen sind die Reservoirmächtigkeiten und das Vorhandensein von Rissen im Gestein sowie die Ionenstärke der Fluide. Der ORG weist in der Regel klüftig-poröse Reservoire mit deutlich höheren Mächtigkeiten auf, was zu einer größeren Verteilung der Präzipitate im Untergrund führt. Weiterhin sind die Ionenstärken im NDB höher, was die Barytausfällung beschleunigt und diese dadurch konzentrierter um das Bohrloch herum entstehen lässt. Je konzentrierter die Präzipitate um die Bohrung herum auftreten, desto höher ist der Injektivitätsverlust. In dieser Arbeit wurde ein Workflow erarbeitet, innerhalb dessen mittels numerischer und analytischer Modelle das Risiko von Barytausfällungen innerhalb des Reservoirs geothermischer Systeme abgeschätzt und quantifiziert werden kann. Ein zentrales Element ist ein neu entwickelter, analytischer Scaling-Score, der eine zuverlässige Schätzung des induzierten Injektivitätsverlustes ermöglicht. Der entscheidende Vorteil des präsentierten Ansatzes im Vergleich zu voll-gekoppelten Reservoirsimulationen liegt in ihrer Einfachheit, die sie für Anlagenbetreiber und Entscheidungsträger zugänglicher macht. Somit kann insbesondere der Scaling-Score eine breite Anwendung innerhalb der Geothermie finden, z.B. bei der Suche nach potenziellen Anlagenstandorten und der Abschätzung der langfristigen Effizienz. KW - geothermal energy KW - formation damage KW - reactive transport KW - radial flow KW - barite KW - Geothermie KW - radiale Strömung KW - Baryt KW - reaktiver Transport KW - Formationsschaden Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561139 ER - TY - THES A1 - Doering, Ulrike T1 - Preparation, characterization and modification of oil loaded protein microcapsules and composite protein-mineral microcapsules N2 - Diese Doktorarbeit behandelt die Synthese von Protein- und kompositen Protein-Mineral-Mikrokapseln durch die Anwendung von hochintensivem Ultraschall an der Öl-Wasser-Grenzfläche. Während ein System durch BSA-Moleküle stabilisiert wird, wird das andere System durch verschiedene mit BSA modifizierten Nanopartikeln stabilisiert. Sowohl von allen Synthesestufen als auch von den resultierenden Kapseln wurden umfassende Untersuchungen durchgeführt und eine plausible Erklärung für den Mechanismus der Kapselbildung wurde vorgestellt. Während der Bildung der BSA-Mikrokapseln adsorbieren die Proteinmoleküle als Erstes an der O/W-Grenzfläche, entfalten sich dort und bilden ein Netzwerk, das durch hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen zwischen den benachbarten Molekülen stabilisiert wird. Gleichzeitig bewirkt die Ultraschallbehandlung die Quervernetzung der BSA-Moleküle über die Bildung von intermolekularen Disulfidbindungen. In dieser Doktorarbeit werden die experimentellen Nachweise für die durch Ultraschall induzierte Quervernetzung von BSA in den Schalen der proteinbasierten Mikrokapseln aufgezeigt. Deshalb wurde das Konzept, das vor vielen Jahren von Suslick und seinen Mitarbeitern vorgestellt wurde, zum ersten Mal durch experimentelle Nachweise bestätigt. Außerdem wurde ein konsistenter Mechanismus für die Bildung der intermolekularen Disulfidbindungen in der Kapselschale vorgestellt, der auf der Neuverteilung der Thiol- und Disulfidgruppen in BSA unter der Wirkung von hochenergetischem Ultraschall basiert. Auch die Bildung von kompositen Protein-Mineral-Mikrokapseln, die mit drei verschiedenen Ölen gefüllt wurden und deren Schalen aus Nanopartikeln bestehen, war erfolgreich. Die Beschaffenheit des Öls und die Art der Nanopartikel in der Schale hatten Einfluss auf die Größe und Form der Mikrokapseln. Die Untersuchung der kompositen Kapseln zeigte, dass die BSA-Moleküle, die an der Oberfläche der Nanopartikel in der Kapselschale adsorbiert sind, nicht durch intermolekulare Disulfidbindungen quervernetzt sind. Stattdessen findet die Bildung einer Pickering-Emulsion statt. Die Oberflächenmodifizierung der kompositen Mikrokapseln durch Vormodifizierung der Hauptbestandteile und auch durch Postmodifizierung der Oberfläche der fertigen kompositen Mikrokapseln wurde erfolgreich demonstriert. Zusätzlich wurden die mechanischen Eigenschaften beider Kapselarten verglichen. Dabei erwiesen sich die Protein-Mikrokapseln widerstandsfähiger gegenüber elastischer Deformation. N2 - This thesis deals with the synthesis of protein and composite protein-mineral microcapsules by the application of high-intensity ultrasound at the oil-water interface. While one system is stabilized by BSA molecules, the other system is stabilized by different nanoparticles modified with BSA. A comprehensive study of all synthesis stages as well as of resulting capsules were carried out and a plausible explanation of the capsule formation mechanism was proposed. During the formation of BSA microcapsules, the protein molecules adsorb firstly at the O/W interface and unfold there forming an interfacial network stabilized by hydrophobic interactions and hydrogen bonds between neighboring molecules. Simultaneously, the ultrasonic treatment causes the cross-linking of the BSA molecules via the formation of intermolecular disulfide bonds. In this thesis, the experimental evidences of ultrasonically induced cross-linking of the BSA in the shells of protein-based microcapsules are demonstrated. Therefore, the concept proposed many years ago by Suslick and co-workers is confirmed by experimental evidences for the first time. Moreover, a consistent mechanism for the formation of intermolecular disulfide bonds in capsule shells is proposed that is based on the redistribution of thiol and disulfide groups in BSA under the action of high-energy ultrasound. The formation of composite protein-mineral microcapsules loaded with three different oils and shells composed of nanoparticles was also successful. The nature of the loaded oil and the type of nanoparticles in the shell, had influence on size and shape of the microcapsules. The examination of the composite capsule revealed that the BSA molecules adsorbed on the nanoparticles surface in the capsule shell are not cross-linked by intermolecular disulfide bonds. Instead, a Pickering emulsion formation takes place. The surface modification of composite microcapsules through both pre-modification of main components and also the post-modification of the surface of ready composite microcapsules was successfully demonstrated. Additionally, the mechanical properties of protein and composite protein-mineral microcapsules were compared. The results showed that the protein microcapsules are more resistant to elastic deformation. T2 - Herstellung, Charakterisierung und Modifizierung von Öl-gefüllten Protein-Mikrokapseln und kompositen Protein-Mineral-Mikrokapseln KW - Protein Microcapsules KW - Proteinmikrokapseln KW - Sonication KW - Beschallung KW - Pickering Emulsion KW - Pickering Emulsion KW - Colloid Chemistry KW - Kolloidchemie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559589 ER - TY - THES A1 - Bishop, Christopher Allen T1 - Influence of dairy intake on odd-chain fatty acids and energy metabolism T1 - Einfluss der Milchaufnahme auf ungeradkettige Fettsäuren und Energiestoffwechsel N2 - As of late, epidemiological studies have highlighted a strong association of dairy intake with lower disease risk, and similarly with an increased amount of odd-chain fatty acids (OCFA). While the OCFA also demonstrate inverse associations with disease incidence, the direct dietary sources and mode of action of the OCFA remain poorly understood. The overall aim of this thesis was to determine the impact of two main fractions of dairy, milk fat and milk protein, on OCFA levels and their influence on health outcomes under high-fat (HF) diet conditions. Both fractions represent viable sources of OCFA, as milk fats contain a significant amount of OCFA and milk proteins are high in branched chain amino acids (BCAA), namely valine (Val) and isoleucine (Ile), which can produce propionyl-CoA (Pr-CoA), a precursor for endogenous OCFA synthesis, while leucine (Leu) does not. Additionally, this project sought to clarify the specific metabolic effects of the OCFA heptadecanoic acid (C17:0). Both short-term and long-term feeding studies were performed using male C57BL/6JRj mice fed HF diets supplemented with milk fat or C17:0, as well as milk protein or individual BCAA (Val; Leu) to determine their influences on OCFA and metabolic health. Short-term feeding revealed that both milk fractions induce OCFA in vivo, and the increases elicited by milk protein could be, in part, explained by Val intake. In vitro studies using primary hepatocytes further showed an induction of OCFA after Val treatment via de novo lipogenesis and increased α-oxidation. In the long-term studies, both milk fat and milk protein increased hepatic and circulating OCFA levels; however, only milk protein elicited protective effects on adiposity and hepatic fat accumulation—likely mediated by the anti-obesogenic effects of an increased Leu intake. In contrast, Val feeding did not increase OCFA levels nor improve obesity, but rather resulted in glucotoxicity-induced insulin resistance in skeletal muscle mediated by its metabolite 3-hydroxyisobutyrate (3-HIB). Finally, while OCFA levels correlated with improved health outcomes, C17:0 produced negligible effects in preventing HF-diet induced health impairments. The results presented herein demonstrate that the beneficial health outcomes associated with dairy intake are likely mediated through the effects of milk protein, while OCFA levels are likely a mere association and do not play a significant causal role in metabolic health under HF conditions. Furthermore, the highly divergent metabolic effects of the two BCAA, Leu and Val, unraveled herein highlight the importance of protein quality. N2 - In den letzten Jahren haben epidemiologische Studien einen Zusammenhang zwischen dem Verzehr von Milchprodukten und einem geringeren Krankheitsrisiko sowie einem erhöhten Gehalt an ungeradzahligen Fettsäuren (OCFA) aufgezeigt. Während die OCFA ebenfalls mit einem verminderten Krankheitsrisiko assoziiert sind, ist über die direkten diätetischen Quellen und die physiologische Rolle der OCFA noch wenig bekannt. Das Hauptziel dieser Arbeit war die Untersuchung der Bedeutung der beiden Hauptfraktionen von Milchprodukten, Milchfett und Milchprotein, für den OCFA-Gehalt und ihren Einfluss auf die Gesundheit unter den Bedingungen einer fettreichen Ernährung (HF). Beide Fraktionen sind mögliche OCFA-Quellen, da Milchfette selber signifikante Mengen an OCFA enthalten und Milchproteine einen hohen Anteil an verzweigtkettigen Aminosäuren (BCAA) haben, nämlich Valin (Val) und Isoleucin (Ile), aus denen Propionyl-CoA (Pr-CoA), eine Vorstufe für die endogene OCFA-Synthese, gebildet werden kann, während das für Leucin (Leu) nicht der Fall ist. Außerdem sollten in diesem Projekt die spezifischen metabolischen Auswirkungen der OCFA Heptadecansäure (C17:0) geklärt werden. Dazu wurden Kurzzeit- und Langzeit-Fütterungsstudien mit männlichen C57BL/6JRj-Mäusen durchgeführt, die mit HF-Diäten gefüttert wurden, die mit Milchfett oder C17:0 sowie mit Milchprotein oder einzelnen BCAA (Val; Leu) supplementiert wurden, um deren Einfluss auf die OCFA und die metabolische Gesundheit zu untersuchen. Kurzzeitstudien zeigten, dass beide Milchfraktionen OCFA induzieren, wobei die Erhöhungen durch Milchprotein teilweise durch die Val-Aufnahme erklärt werden konnten. Studien mit primären Hepatozyten zeigten außerdem eine Induktion von OCFA nach Val-Behandlung durch de-novo-Lipogenese und eine erhöhte α-Oxidation. In den Langzeitstudien erhöhten Milchfett und Milchprotein die hepatischen und zirkulierenden OCFA-Spiegel; allerdings hatte nur Milchprotein eine schützende Wirkung auf Adipositas und hepatische Fettansammlung, wahrscheinlich vermittelt durch eine erhöhte Leu-Aufnahme. Im Gegensatz dazu hatte die Val-Supplementierung keinen Einfluss auf die OCFA-Spiegel oder die Entwicklung von Adipositas, führte jedoch zu einer durch Glukotoxizität induzierten Insulinresistenz im Skelettmuskel, vermittelt durch den Val-Metaboliten 3-Hydroxyisobutyrat (3-HIB). Die C17:0-Supplementierung schließlich hatte keine Auswirkungen auf die HF-Diät-induzierte Adipositas und assoziierten Gesundheitsbeeinträchtigungen. Die hier vorgestellten Ergebnisse zeigen, dass die mit dem Verzehr von Milchprodukten verbundenen positiven gesundheitlichen Auswirkungen wahrscheinlich durch die Wirkung von Milchprotein vermittelt werden, während der OCFA-Gehalt wahrscheinlich nur eine Assoziation darstellt und keine signifikante kausale Rolle für die metabolische Gesundheit unter HF-Bedingungen spielt. Die hier aufgeklärten deutlich unterschiedlichen metabolischen Auswirkungen der beiden BCAA Leu und Val unterstreichen zudem die Bedeutung der Proteinqualität. KW - odd chain fatty acids KW - branched chain amino acids KW - protein KW - dairy intake KW - obesity KW - verzweigtkettige Aminosäuren KW - Milcheinnahme KW - Adipositas KW - ungeradkettige Fettsäuren KW - Protein Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561541 ER - TY - THES A1 - Prüfert, Christian T1 - Laser ablation and matter sizing BT - a focused view on molecules, sub-micron particles, and aerosols N2 - The doctoral thesis presented provides a comprehensive view of laser-based ablation techniques promoted to new fields of operation, including, but not limited to, size, composition, and concentration analyses. It covers various applications of laser ablation techniques over a wide range of sizes, from single molecules all the way to aerosol particles. The research for this thesis started with broadening and deepening the field of application and the fundamental understanding of liquid-phase IR-MALDI. Here, the hybridization of ion mobility spectrometry and microfluidics was realized by using IR-MALDI as the coupling technique for the first time. The setup was used for monitoring the photocatalytic performance of the E-Z isomerization of olefins. Using this hybrid, measurement times were so drastically reduced that such photocatalyst screenings became a matter of minutes rather than hours. With this on hand, triple measurements screenings could not only be performed within ten minutes, but also with a minimum amount of resources highlighting its potential as a green chemistry alternative to batch-sized reactions. Along the optimizing process of the IR-MALDI source for microfluidics came its application for another liquid sample supply method, the hanging drop. This demarcated one of the first applications of IR-MALDI for the charging of sub-micron particles directly from suspensions via their gas-phase transfer, followed by their characterization with differential mobility analysis. Given the high spectral quality of the data up to octuply charged particles became experimentally accessible, this laid the foundation for deriving a new charge distribution model for IR-MALDI in that size regime. Moving on to even larger analyte sizes, LIBS and LII were employed as ablation techniques for the solid phase, namely the aerosol particles themselves. Both techniques produce light-emitting events and were used to quantify and classify different aerosols. The unique configuration of stroboscopic imaging, photoacoustics, LII, and LIBS measurements opened new realms for analytical synergies and their potential application in industry. The concept of using low fluences, below 100 J/cm2, and high repetition rates of up to 500 Hz for LIBS makes for an excellent phase-selective LIBS setup. This concept was combined with a new approach to the photoacoustic normalization of LIBS. Also, it was possible to acquire statistically relevant amounts of data in a matter of seconds, showing its potential as a real-time optimization technique. On the same time axis, but at much lower fluences, LII was used with a similar methodology to quickly quantify and classify airborne particles of different compositions. For the first time, aerosol particles were evaluated on their LII susceptibility by using a fluence screening approach. N2 - Die vorliegende kumulative Dissertation hat die lasergestützte Flüssig- und Festphasen-Ablation (Ab- tragung) zur Molekül- und Partikelanalyse zur Grundlage. Mittels Infrarotstrahlung wurden die Analyten, vom molekularen bis zum Mikrometergröÿenbereich, in die Gasphase überführt, ionisiert oder geladen und anschließend durch spektrometrische beziehungsweise spektroskopische Analysemethoden identifiziert und quantifiziert. Eingangs wurden IR-MALDIs (infrared laser-assisted matrix dispersion ionization) Anwendungsbereiche als Kopplungsmethode etabliert sowie fundamentale Aspekte des Ionisationsprozesses innerhalb der IR-MALDI beleuchtet. Die als Kopplungsmethode eingesetzte IR-MALDI ermöglichte die erstmalige Zusammenführung eines Mikrochip-Reaktors mit einem Niederdruck-Ionenmobilitätsspektrometer. Dies geschah über die IR-MALDI eines vom Mikrochip ejektierten Flüssigkeitsmikrostrahls und wurde für die Verlaufsbeoachtung photokatalysierter Isomerisierungsreaktionen verwendet. Dieses hybride Konzept aus Mikrochip-Reaktor und Niederdruck-Ionenmobilitätsspektrometer hatte eine erhebliche Reduktion der benötigten Messzeit zur Folge. Die Messzeit konnte, im Vergleich zur mehrstündigen Verlaufsbeobachtung von Reaktionen im Kolben, auf nur wenige Minuten verringert werden. Hiermit war es nun also nicht nur möglich Dreifachmessungen innerhalb von nur zehn Minuten auszuführen, sondern es wurde auch nur ein kleinster Bruchteil der sonst üblichen Rohstoffe benötigt, was wiederum zeigt, welches Potential diese systemische Miniaturisierung für nachhaltige Chemie hat. Entlang der Entwicklung dieser Flüssigkeitsstrahlkopplung konnte IR-MALDI auch auf einen Aufbau mit hängendem Tropfen übertragen werden. Hierdurch kam es zu einer der ersten Gasphasenanalysen von Submikron-Partikeln direkt aus einer Suspension heraus. Nachdem diese durch IR-MALDI mit entsprechender Ladung versehen wurden, konnten sie mittels differentieller Mobilitätsanalyse charakterisiert werden. Durch die hohe spektrale Auflösung der Methode war eine eindeutige Zuordnung von bis zu acht Ladungen auf einem Partikel möglich. Folglich lieferte dies die Grundlage zur Evaluierung bestehender IR-MALDI-Ladungsverteilungsmodelle und schlussendlich zur Entwicklung eines neuen Ladungsverteilungsmodels. Anschließend wurde die Ablation auf noch größere Partikel, auf denen die Ablation direkt und damit in der festen Phase stattfinden konnte, übertragen. Hierbei fanden LIBS (laser-induced break-down spectroscopy) und LII (laser-induced incandescence) ihre Anwendung in der Aerosolquantifizierung sowie in deren Identifizierung beziehungsweise Klassierung. Die vielschichtige Methodenkonfiguration bestehend aus Stroboskopie, Photoakustik, LII und LIBS eröffnete neue Dimensionen für analytische Synergien. In diesem Zusammenhang wurde ein neuer Ansatz zur photoakustischen Normierung von Einzelsignalen in der LIBS entwickelt. Als weiteres Alleinstellungsmerkmal wurde LIBS mit niedrigen Fluenzen (Energie pro Fläche) von unter 100 J/cm2, somit also phasenselektiv, und hohen Wiederholungsraten von bis zu 500 Hz verwendet. Somit konnte innerhalb von Sekunden eine statistisch relevante Menge an Daten erhoben werden, nahezu in Echtzeit, was wiederum Anwendungspotentiale in Industrieprozessen aufzeigt. Auf derselben Zeitskala, jedoch bei deutlich geringeren Fluenzen (<1.5 J/cm2), wurde auch die LII für Partikelzählung verwendet. Hierbei wurde erstmals das Potential der LII zur Klassierung von Partikeln im Rahmen eines Fluenz-Screenings gezeigt. KW - Ion mobility spectrometry (IMS) KW - Infrared matrix-assisted laser desorption ionization (IR-MALDI) KW - Differential mobility analysis (DMA) KW - laser-induced breakdown spectroscopy (LIBS) KW - laser-induced incandescence (LII) KW - Differentielle Mobilitätsanalyse (DMA) KW - Matrix-unterstützte Laser-Desorption/Ionisation (IR-MALDI) KW - Ionenmobilitätsspektrometry (IMS) KW - Laserinduzierte Plasmaspektroskopie (LIBS) KW - Laserinduzierte Inkandeszenz (LII) Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559745 ER - TY - THES A1 - Ramm, Timo T1 - Entwicklung von Multiplex-Methoden zur Antikörper-Charakterisierung und Validierung N2 - Antikörper werden in verschiedensten Bereichen, sowohl zu therapeutischen als auch zu diagnostischen und forschungsorientierten Zwecken verwendet. Vor der Verwendung des Antikörpers bedarf es der Charakterisierung seiner Eigenschaften, in Bezug auf sein Epitop und sein Bindeverhalten gegenüber dem Paratop. Gleichzeitig muss, in Abhängigkeit des Einsatzes, der Antikörper, für den gewünschten Gebrauch, validiert werden. Zu diesem Zweck wurden in der vorliegenden Arbeit Bead-basierte, multiplexe Testsysteme entworfen, ausgetestet und etabliert mit dem Ziel, eine einfache Screeningmethode zu entwickeln, um eine hohe Anzahl an Proben beziehungsweise Analyten gleichzeitig bestimmen zu können. Dafür wurden drei verschiedene Herangehensweisen etabliert. So wurden ein phospho-PKA-Substrat Antikörper, welcher phosphorylierte Bindemotive der PKA der Form RRxpS erkennt, gleichzeitig mit einer Reihe an Peptide getestet, welche Punktmutationen im Vergleich zur Konsensussequenz enthielten, um den Einfluss einzelner Aminosäuren auf die Bindung des Antikörpers zu untersuchen. Es konnte im Multiplex gezeigt werden, dass die Unterschiede im Antikörperbindungsverhalten in Abhängigkeit der Aminosäure an verschiedenen P-Positionen detektierbar waren. Mit dem Bead-basierten Multiplexansatz konnten, durch Messungen von Konzentrationsreihen des Antikörpers, Bindungskinetiken aufgenommen und diese mit bereits etablierten Methoden verglichen werden. Des Weiteren wurden verschiedene Antikörper, welche essenzielle Bestandteile von Bead-basierten Testsystemen darstellten, validiert. Es wurden dabei verschiedene Antikörper, welche spezifisch THC und CBD erkennen ausgetestet und anschließend ein kompetitiver Assay zur Detektion von THC und CBD in humanem Serum etabliert, und die Nachweisgrenzen bestimmt. Ferner sollten Pferdeseren von Tieren, welche am Sommerekzem leiden, auf ihren IgE-Gehalt hin bestimmt werden. Dafür wurden relevante Proteine rekombinant hergestellt und durch Immobilisierung an Beads im Multiplex mit Serum inkubiert. Die spezifische Bindung des IgE an die Allergen sollte damit messbar gemacht werden können. Für die Gesamtvalidierung des Testsystems wurden zuvor sämtliche Einzelschritte einzeln validiert, um im Anschluss im multiplexen Screening zu vermessen. Die Nutzung von Bead-basierten Multiplexmessungen als eine Plattformtechnologie erleichtert die Charakterisierung von Antikörpern sowie ihre Validierung für verschiedene Testsysteme. N2 - Antibodies are widely used in different fields, which include therapeutic as well as diagnostic and research applications Before the antibody can be used, its properties must be characterized with regard to its epitope and its binding behavior to the paratope. At the same time, depending on the application, the antibody must be validated for its desired use. For this purpose, bead-based multiplex assay systems were designed, tested, and established with the aim of developing a simple screening method to simultaneously measure a high number of samples or analytes. Thus, a phospho-PKA-substrate antibody, which recognizes phosphorylated binding motifs of PKA with the RRxpS motif, was tested. A series of peptides containing point mutations as compared to consensus sequences were used to investigate the influence of individual amino acids on the binding of the antibody. In a multiplex approach it was shown that the differences in the antibody binding behavior were detectable at different P-positions depending on the amino acid. Furthermore, it was possible to measure binding kinetics by the bead-based multiplex approach using dilution series of the antibody, and to compare these with already established methods. In addition to that, different antibodies, which were applied as essential components of bead-based biosensor systems, were validated. On the one hand, different antibodies specifically recognizing THC and CBD were tested and subsequently a competitive assay for the detection of THC and CBD in human serum was established. The detection limits could be determined. On the other hand, the IgG level in horse sera from animals suffering from sweet itch were determined. For this purpose, relevant proteins were recombinantly expressed, immobilized on beads and incubated with serum in a multiplex approach. The specific binding of IgE to the allergen was measurable. For the overall validation of the test system, all individual steps were partially validated beforehand to allow for a measurement in the multiplex screening system. Thus, using the advantages of bead-based multiplex measurements, a platform for the characterization of antibodies as well as their validation in different test systems was demonstrated. KW - Antikörper KW - Multiplex KW - THC KW - Proteinkinase A KW - Sommerekzem KW - CBD KW - Bead KW - Antikörpercharakterisierung KW - Antikörpervalidierung KW - antibody KW - antibody characterization KW - antibody validation KW - THC KW - CBD KW - Proteinkinase A KW - summer eczema Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561531 ER - TY - THES A1 - Schemenz, Victoria T1 - Correlations between osteocyte lacuno-canalicular network and material characteristics in bone adaptation and regeneration T1 - Korrelationen zwischen dem lakuno-kanalikulären Netzwerk der Osteozyten und Materialeigenschaften bei der Knochenanpassung und -regeneration N2 - The complex hierarchical structure of bone undergoes a lifelong remodeling process, where it adapts to mechanical needs. Hereby, bone resorption by osteoclasts and bone formation by osteoblasts have to be balanced to sustain a healthy and stable organ. Osteocytes orchestrate this interplay by sensing mechanical strains and translating them into biochemical signals. The osteocytes are located in lacunae and are connected to one another and other bone cells via cell processes through small channels, the canaliculi. Lacunae and canaliculi form a network (LCN) of extracellular spaces that is able to transport ions and enables cell-to-cell communication. Osteocytes might also contribute to mineral homeostasis by direct interactions with the surrounding matrix. If the LCN is acting as a transport system, this should be reflected in the mineralization pattern. The central hypothesis of this thesis is that osteocytes are actively changing their material environment. Characterization methods of material science are used to achieve the aim of detecting traces of this interaction between osteocytes and the extracellular matrix. First, healthy murine bones were characterized. The properties analyzed were then compared with three murine model systems: 1) a loading model, where a bone of the mouse was loaded during its life time; 2) a healing model, where a bone of the mouse was cut to induce a healing response; and 3) a disease model, where the Fbn1 gene is dysfunctional causing defects in the formation of the extracellular tissue. The measurement strategy included routines that make it possible to analyze the organization of the LCN and the material components (i.e., the organic collagen matrix and the mineral particles) in the same bone volumes and compare the spatial distribution of different data sets. The three-dimensional network architecture of the LCN is visualized by confocal laser scanning microscopy (CLSM) after rhodamine staining and is then subsequently quantified. The calcium content is determined via quantitative backscattered electron imaging (qBEI), while small- and wide-angle X-ray scattering (SAXS and WAXS) are employed to determine the thickness and length of local mineral particles. First, tibiae cortices of healthy mice were characterized to investigate how changes in LCN architecture can be attributed to interactions of osteocytes with the surrounding bone matrix. The tibial mid-shaft cross-sections showed two main regions, consisting of a band with unordered LCN surrounded by a region with ordered LCN. The unordered region is a remnant of early bone formation and exhibited short and thin mineral particles. The surrounding, more aligned bone showed ordered and dense LCN as well as thicker and longer mineral particles. The calcium content was unchanged between the two regions. In the mouse loading model, the left tibia underwent two weeks of mechanical stimulation, which results in increased bone formation and decreased resorption in skeletally mature mice. Here the specific research question addressed was how do bone material characteristics change at (re)modeling sites? The new bone formed in response to mechanical stimulation showed similar properties in terms of the mineral particles, like the ordered calcium region but lower calcium content compared to the right, non-loaded control bone of the same mice. There was a clear, recognizable border between mature and newly formed bone. Nevertheless, some canaliculi went through this border connecting the LCN of mature and newly formed bone. Additionally, the question should be answered whether the LCN topology and the bone matrix material properties adapt to loading. Although, mechanically stimulated bones did not show differences in calcium content compared to controls, different correlations were found between the local LCN density and the local Ca content depending on whether the bone was loaded or not. These results suggest that the LCN may serve as a mineral reservoir. For the healing model, the femurs of mice underwent an osteotomy, stabilized with an external fixator and were allowed to heal for 21 days. Thus, the spatial variations in the LCN topology with mineral properties within different tissue types and their interfaces, namely calcified cartilage, bony callus and cortex, could be simultaneously visualized and compared in this model. All tissue types showed structural differences across multiple length scales. Calcium content increased and became more homogeneous from calcified cartilage to bony callus to lamellar cortical bone. The degree of LCN organization increased as well, while the lacunae became smaller, as did the lacunar density between these different tissue types that make up the callus. In the calcified cartilage, the mineral particles were short and thin. The newly formed callus exhibited thicker mineral particles, which still had a low degree of orientation. While most of the callus had a woven-like structure, it also served as a scaffold for more lamellar tissue at the edges. The lamelar bone callus showed thinner mineral particles, but a higher degree of alignment in both, mineral particles and the LCN. The cortex showed the highest values for mineral length, thickness and degree of orientation. At the same time, the lacunae number density was 34% lower and the lacunar volume 40% smaller compared to bony callus. The transition zone between cortical and callus regions showed a continuous convergence of bone mineral properties and lacunae shape. Although only a few canaliculi connected callus and the cortical region, this indicates that communication between osteocytes of both tissues should be possible. The presented correlations between LCN architecture and mineral properties across tissue types may suggest that osteocytes have an active role in mineralization processes of healing. A mouse model for the disease marfan syndrome, which includes a genetic defect in the fibrillin-1 gene, was investigated. In humans, Marfan syndrome is characterized by a range of clinical symptoms such as long bone overgrowth, loose joints, reduced bone mineral density, compromised bone microarchitecture, and increased fracture rates. Thus, fibrillin-1 seems to play a role in the skeletal homeostasis. Therefore, the present work studied how marfan syndrome alters LCN architecture and the surrounding bone matrix. The mice with marfan syndrome showed longer tibiae than their healthy littermates from an age of seven weeks onwards. In contrast, the cortical development appeared retarded, which was observed across all measured characteristics, i. e. lower endocortical bone formation, looser and less organized lacuno-canalicular network, less collagen orientation, thinner and shorter mineral particles. In each of the three model systems, this study found that changes in the LCN architecture spatially correlated with bone matrix material parameters. While not knowing the exact mechanism, these results provide indications that osteocytes can actively manipulate a mineral reservoir located around the canaliculi to make a quickly accessible contribution to mineral homeostasis. However, this interaction is most likely not one-sided, but could be understood as an interplay between osteocytes and extra-cellular matrix, since the bone matrix contains biochemical signaling molecules (e.g. non-collagenous proteins) that can change osteocyte behavior. Bone (re)modeling can therefore not only be understood as a method for removing defects or adapting to external mechanical stimuli, but also for increasing the efficiency of possible osteocyte-mineral interactions during bone homeostasis. With these findings, it seems reasonable to consider osteocytes as a target for drug development related to bone diseases that cause changes in bone composition and mechanical properties. It will most likely require the combined effort of materials scientists, cell biologists, and molecular biologists to gain a deeper understanding of how bone cells respond to their material environment. N2 - Knochen haben eine komplexe hierarchische Struktur, die einen lebenslangen Umbauprozess durchläuft, bei dem der Knochen sich seinen mechanischen Anforderungen anpasst. Um ein gesundes und stabiles Organ zu erhalten müssen Knochenresorption (durch Osteoklasten) und Knochenbildung (durch Osteoblasten) ausgewogen sein. Osteozyten lenken dieses Wechselspiel, indem sie mechanische Belastungen wahrnehmen und sie in biochemische Signale übersetzen. Die Osteozyten sitzen in Lakunen und sind durch Kanälchen untereinander und mit anderen Knochenzellen über ein Netzwerk (LCN) verbunden, das in der Lage ist, Ionen zu transportieren und eine Kommunikation von Zelle zu Zelle zu ermöglichen. Außerdem vermutet man, dass Osteozyten auch durch direkte Wechselwirkungen mit der umgebenden Matrix zur Mineralhomöostase beitragen könnten. Im Mittelpunkt dieser Arbeit steht die Frage, ob Osteozyten ihre materielle Umgebung aktiv verändern können. Um Spuren dieser Wechselwirkung zwischen Osteozyten und der extrazellulären Matrix nachzuweisen, werden materialwissenschaftliche Charakterisierungsmethoden eingesetzt. Zunächst wurden gesunde Mäuseknochen charakterisiert. Die erworbenen Ergebnisse wurden dann mit drei murinen Modellsystemen verglichen: 1) einem Belastungsmodell; 2) ein Heilungsmodell und 3) ein Krankheitsmodell, bei dem das Fbn1-Gen dysfunktional ist und Defekte in der Bildung des extrazellulären Gewebes verursacht werden. Die Messstrategie umfasste Routinen, die es ermöglichen, die Organisation des LCN und der Materialkomponenten (d.h. die organische Kollagenmatrix und die mineralischen Partikel) in denselben Knochenvolumina zu analysieren und die räumliche Verteilung der verschiedenen Datensätze zu vergleichen. Die dreidimensionale Netzwerkarchitektur des LCN wird durch konfokale Laser-Scanning-Mikroskopie nach Rhodamin-Färbung gemessen und anschließend quantifiziert. Der Kalziumgehalt wird mittels quantitativer Rückstreuelektronenbildgebung bestimmt, während Klein- und Weitwinkel-Röntgenstreuung verwendet werden, um die Dicke und Länge der Mineralpartikel zu bestimmen. Zunächst wurden Querschnitte der Unterschenkel von gesunden Mäusen charakterisiert, um zu untersuchen, ob Veränderungen in der LCN-Architektur auf Wechselwirkungen von Osteozyten mit der umgebenden Knochenmatrix zurückgeführt werden können. Die Kortizes zeigten zwei Hauptregionen, ein Band mit ungeordneter LCN-Architektur, umgeben von einer Region mit geordneter LCN. Die ungeordnete Region ist ein Überbleibsel der frühen Knochenbildung und wies kurze und dünne Mineralpartikel auf. Der umgebende, stärker ausgerichtete Knochen zeigte ein geordnetes und dichtes LCN, sowie dickere und längere Mineralpartikel. Der Kalziumgehalt blieb bei beiden Regionen unverändert. Im Mausbelastungsmodell wurde das linke Schienbein zwei Wochen lang mechanisch stimuliert, was zu einer erhöhten Knochenbildung führt. Hier sollte die Forschungsfrage beantwortet werden, wie sich Knochenmaterialeigenschaften an (Re-)Modellierungsstellen aufgrund von Belastung ändern. Der, als Reaktion auf die mechanische Stimulation, gebildete neue Knochen zeigte ähnliche Eigenschaften in Bezug auf die Mineralpartikel, wie die geordnete Kortexregion. Es gab eine klar erkennbare Grenze zwischen reifem und neu gebildetem Knochen. Trotzdem gingen einige Kanälchen durch diese Grenze, die die LCN aus reifem und neu gebildetem Knochen verband. Für das Heilungsmodell wurden die Oberschenkel von Mäusen einer Osteotomie unterzogen (einer Operation, bei der durch einen Schnitt in der Diaphyse ein Bruch erzeugt wird). Danach konnte die Fraktur 21 Tage heilen. Dadurch konnten in diesem Modell gleichzeitig verkalkter Knorpel, knöcherner Kallus und Kortex untersucht werden. Dafür wurde die räumliche Verteilung der LCN-Topologie sowie die Mineraleigenschaften der verschiedenen Gewebetypen und ihrer Grenzflächen visualisiert und verglichen. Alle Gewebetypen zeigten strukturelle Unterschiede über mehrere Längenskalen hinweg. Der Kalziumgehalt nahm von kalzifiziertem Knorpel zu knöchernem Kallus zu lamellarem kortikalem Knochen zu und wurde homogener. Der Grad der LCN-Organisation nahm ebenfalls zu, während die Lakunen vom Kallus zum Kortexgewebe kleiner wurden, ebenso wie die Lakunendichte. Im verkalkten Knorpel waren die Mineralpartikel kurz und dünn. Der größte Teil des Kallus wies eine Geflechtsknochenstruktur auf und diente als Gerüst für lamellares Gewebe, das dünnere Mineralpartikel, aber einen höheren Grad an Ausrichtung sowohl in den Mineralpartikeln als auch im LCN aufwies. Der Kortex zeigte die höchsten Werte für Minerallänge, Dicke und Orientierungsgrad. Obwohl nur wenige Kanälchen den Kallus und kortikale Regionen verbinden, weist dies darauf hin, dass eine Kommunikation zwischen Osteozyten beider Gewebe möglich sein sollte. Es wurde auch ein Mausmodell für das Marfan-Syndrom untersucht, das einen Gendefekt im Fibrillin-1-Gen beinhaltet. Beim Menschen ist das Marfan-Syndrom durch eine Reihe klinischer Symptome gekennzeichnet, wie z. B. übermäßiges Wachstum der Gliedmaßen, überstreckbare Gelenke, verringerte Knochenmineraldichte, beeinträchtigte Knochenmikroarchitektur und erhöhte Frakturraten. Somit scheint Fibrillin-1 eine Rolle in der Skeletthomöostase zu spielen. Deswegen untersuchte die vorliegende Arbeit, ob und wie das Marfan-Syndrom die LCN-Architektur und die umgebende Knochenmatrix verändert. Die Mäuse mit Marfan-Syndrom zeigten bereits ab einem Alter von sieben Wochen längere Schienbeine als ihre gesunden Wurfgeschwister. Im Gegensatz dazu erschien die kortikale Entwicklung verzögert, was über alle gemessenen Merkmale hinweg beobachtet wurde, d.h. niedrigere endokortikale Knochenbildung, lockereres und weniger organisiertes LCN, geringerer Grad an Kollagenorientierung sowie ein Trend zu dünneren und kürzeren Mineralpartikel. In jedem der drei Modellsysteme fand diese Studie, dass Änderungen in der LCN-Architektur räumlich mit Parametern des Knochenmatrixmaterials korrelierten. Obwohl der genaue Mechanismus nicht bekannt ist, liefern diese Ergebnisse Hinweise darauf, dass Osteozyten ein Mineralreservoir aktiv manipulieren können. Dieses Reservoir befindet sich um die Kanälchen herum und dieser Prozess würde es ermöglichen, einen schnell zugänglichen Beitrag zur Mineralhomöostase zu leisten. Diese Interaktion ist jedoch höchstwahrscheinlich nicht einseitig, sondern könnte als Wechselspiel zwischen Osteozyten und extrazellulärer Matrix verstanden werden, da die Knochenmatrix biochemische Signalmoleküle enthält, die das Verhalten von Osteozyten verändern können. Knochen(re)modellierung kann daher nicht nur als Methode zur Defektbeseitigung oder Anpassung an äußere mechanische Reize verstanden werden, sondern auch zur Effizienzsteigerung möglicher Osteozyten-Mineral-Interaktionen während der Knochenhomöostase. Angesichts dieser Ergebnisse erscheint es sinnvoll, Osteozyten als Ziel für die Arzneimittelentwicklung im Zusammenhang mit Knochenerkrankungen in Betracht zu ziehen, die Veränderungen der Knochenzusammensetzung und deren mechanischen Eigenschaften verursachen. KW - bone KW - lacunae KW - mineralization KW - SAXS KW - lacuno-canalicular network KW - µCT KW - CLSM KW - konfokales Laser-Scanning-Mikroskop KW - Kleinwinkelröntgenstreuung KW - Knochen KW - Lakunen KW - lakuno-kanaliculäres Netzwerk KW - Mineralisierung KW - µCT Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559593 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Demin, Paul T1 - Blaulicht-aktivierbares Proteinexpressionssystem in Saccharomyces cerevisiae T1 - Blue light-inducible protein expression system in Saccharomyces cerevisiae N2 - Synthetische Transkriptionsfaktoren bestehen wie natürliche Transkriptionsfaktoren aus einer DNA-Bindedomäne, die sich spezifisch an die Bindestellensequenz vor dem Ziel-Gen anlagert, und einer Aktivierungsdomäne, die die Transkriptionsmaschinerie rekrutiert, sodass das Zielgen exprimiert wird. Der Unterschied zu den natürlichen Transkriptionsfaktoren ist, sowohl dass die DNA-Bindedomäne als auch die Aktivierungsdomäne wirtsfremd sein können und dadurch künstliche Stoffwechselwege im Wirt, größtenteils chemisch, induziert werden können. Optogenetische synthetische Transkriptionsfaktoren, die hier entwickelt wurden, gehen einen Schritt weiter. Dabei ist die DNA-Bindedomäne nicht mehr an die Aktivierungsdomäne, sondern mit dem Blaulicht-Photorezeptor CRY2 gekoppelt. Die Aktivierungsdomäne wurde mit dem Interaktionspartner CIB1 fusioniert. Unter Blaulichtbestrahlung dimerisieren CRY2 und CIB1 und damit einhergehend die beiden Domänen, sodass ein funktionsfähiger Transkriptionsfaktor entsteht. Dieses System wurde in die Saccharomyces cerevisiae genomisch integriert. Verifiziert wurde das konstruierte System mit Hilfe des Reporters yEGFP, welcher durchflusszytometrisch detektiert werden konnte. Es konnte gezeigt werden, dass die yEGFP Expression variabel gestaltet werden kann, indem unterschiedlich lange Blaulichtimpulse ausgesendet wurden, die DNA-Bindedomäne, die Aktivierungsdomäne oder die Anzahl der Bindestellen, an dem sich die DNA-Bindedomäne anlagert, verändert wurden. Um das System für industrielle Anwendungen attraktiv zu gestalten, wurde das System vom Deepwell-Maßstab auf Photobioreaktor-Maßstab hochskaliert. Außerdem erwies sich das Blaulichtsystem sowohl im Laborstamm YPH500 als auch im industriell oft verwendeten Hefestamm CEN.PK als funktional. Des Weiteren konnte ein industrierelevante Protein ebenso mit Hilfe des verifizierten Systems exprimiert werden. Schlussendlich konnte in dieser Arbeit das etablierte Blaulicht-System erfolgreich mit einem Rotlichtsystem kombiniert werden, was zuvor noch nicht beschrieben wurde. N2 - Like natural transcription factors, synthetic transcription factors consist of a DNA-binding domain that attaches specifically to the binding site sequence in front of the target gene, and an activation domain that recruits the transcription machinery so that the target gene is expressed. The difference to natural transcription factors is that both the DNA binding domain and the activation domain can be host foreign and artificial metabolic pathways, mostly chemically, can be induced in the host. In this work, new optogenetic synthetic transcription factors were developed so that chemical induction becomes obsolete. The DNA binding domain is no longer linked to the activation domain but to the blue light photoreceptor CRY2. The activation domain was fused to the interaction partner CIB1. Upon blue light irradiation, CRY2 and CIB1 dimerize and thus the two domains, resulting in a functional transcription factor. Six different prokaryotic DNA-binding domains and a total of two different activation domains, viral and fungal, were recombined with CRY2 and CIB1, respectively, and genomically integrated into the eukaryotic cell factory Saccharomyces cerevisiae. Since the blue light dimerization is based on the chromophore FAD, which the yeast can synthesize itself, only the blue light had to be switched on for the induction. The constructed system was verified with the help of the reporter yEGFP, which could be detected by flow cytometry. It could be shown that the yEGFP expression could be made variable by emitting blue light pulses of different lengths, changing the DNA binding domain, the activation domain or the copy number of binding sites at which the DNA binding domain attaches. To make the system attractive for industrial applications, the system was scaled up from deepwell scale to photobioreactor scale. In addition, the blue light system proved to be functional both in the laboratory strain YPH500 and in the yeast strain CEN.PK, which is often used industrially. Furthermore, the industrially relevant protein VP1 could also be expressed using the verified system. Due to its great flexibility, the blue light system established here was christened/named FLIRT (Flexible Blue Light Induced Transcription). Finally, in this work, the established flirt system could be successfully combined with a red light system, which has not been described before. KW - Synthetische Biologie KW - Hefe KW - Saccharomyces cerevisiae KW - Blaulicht KW - Transkriptionsfaktoren KW - Bioreaktor KW - bioreactor KW - blue light KW - budding yeast KW - Saccharomyces cerevisiae KW - synthetic biology KW - transcription factors Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559696 ER - TY - THES A1 - Kranjc Horvat, Anja T1 - Particle physics in high-school education T1 - Teilchenphysik im Oberstufenunterricht BT - what should students and teachers learn? BT - was sollten Jugendliche und Lehrpersonen lernen? N2 - Elementary particle physics is a contemporary topic in science that is slowly being integrated into high-school education. These new implementations are challenging teachers’ professional knowledge worldwide. Therefore, physics education research is faced with two important questions, namely, how can particle physics be integrated in high-school physics curricula and how best to support teachers in enhancing their professional knowledge on particle physics. This doctoral research project set up to provide better guidelines for answering these two questions by conducting three studies on high-school particle physics education. First, an expert concept mapping study was conducted to elicit experts’ expectations on what high-school students should learn about particle physics. Overall, 13 experts in particle physics, computing, and physics education participated in 9 concept mapping rounds. The broad knowledge base of the experts ensured that the final expert concept map covers all major particle physics aspects. Specifically, the final expert concept map includes 180 concepts and examples, connected with 266 links and crosslinks. Among them are also several links to students’ prior knowledge in topics such as mechanics and thermodynamics. The high interconnectedness of the concepts shows possible opportunities for including particle physics as a context for other curricular topics. As such, the resulting expert concept map is showcased as a well-suited tool for teachers to scaffold their instructional practice. Second, a review of 27 high-school physics curricula was conducted. The review uncovered which concepts related to particle physics can be identified in most curricula. Each curriculum was reviewed by two reviewers that followed a codebook with 60 concepts related to particle physics. The analysis showed that most curricula mention cosmology, elementary particles, and charges, all of which are considered theoretical particle physics concepts. None of the experimental particle physics concepts appeared in more than half of the reviewed curricula. Additional analysis was done on two curricular subsets, namely curricula with and curricula without an explicit particle physics chapter. Curricula with an explicit particle physics chapter mention several additional explicit particle physics concepts, namely the Standard Model of particle physics, fundamental interactions, antimatter research, and particle accelerators. The latter is an example of experimental particle physics concepts. Additionally, the analysis revealed that, overall, most curricula include Nature of Science and history of physics, albeit both are typically used as context or as a tool for teaching, respectively. Third, a Delphi study was conducted to investigate stakeholders’ expectations regarding what teachers should learn in particle physics professional development programmes. Over 100 stakeholders from 41 countries represented four stakeholder groups, namely physics education researchers, research scientists, government representatives, and high-school teachers. The study resulted in a ranked list of the 13 most important topics to be included in particle physics professional development programmes. The highest-ranked topics are cosmology, the Standard Model, and real-life applications of particle physics. All stakeholder groups agreed on the overall ranking of the topics. While the highest-ranked topics are again more theoretical, stakeholders also expect teachers to learn about experimental particle physics topics, which are ranked as medium importance topics. The three studies addressed two research aims of this doctoral project. The first research aim was to explore to what extent particle physics is featured in high-school physics curricula. The comparison of the outcomes of the curricular review and the expert concept map showed that curricula cover significantly less than what experts expect high-school students to learn about particle physics. For example, most curricula do not include concepts that could be classified as experimental particle physics. However, the strong connections between the different concept show that experimental particle physics can be used as context for theoretical particle physics concepts, Nature of Science, and other curricular topics. In doing so, particle physics can be introduced in classrooms even though it is not (yet) explicitly mentioned in the respective curriculum. The second research aim was to identify which aspects of content knowledge teachers are expected to learn about particle physics. The comparison of the Delphi study results to the outcomes of the curricular review and the expert concept map showed that stakeholders generally expect teachers to enhance their school knowledge as defined by the curricula. Furthermore, teachers are also expected to enhance their deeper school knowledge by learning how to connect concepts from their school knowledge to other concepts in particle physics and beyond. As such, professional development programmes that focus on enhancing teachers’ school knowledge and deeper school knowledge best support teachers in building relevant context in their instruction. Overall, this doctoral research project reviewed the current state of high-school particle physics education and provided guidelines for future enhancements of the particle physics content in high-school student and teacher education. The outcomes of the project support further implementations of particle physics in high-school education both as explicit content and as context for other curricular topics. Furthermore, the mixed-methods approach and the outcomes of this research project lead to several implications for professional development programmes and science education research, that are discussed in the final chapters of this dissertation. N2 - Elementarteilchenphysik ist ein aktuelles naturwissenschaftliches Thema, das langsam in den Oberstufenunterricht integriert wird. Diese neuen Umsetzungen stellen das Professionswissen der Lehrpersonen weltweit infrage. Die Fachdidaktik sieht sich daher mit zwei wichtigen Fragen beschäftigt: Wie kann die Teilchenphysik in die Oberstufenlehrpläne integriert werden und wie können Lehrpersonen am besten dabei unterstützt werden, ihr Professionswissen über Teilchenphysik zu erweitern? Im Rahmen dieses Promotionsprojekts wurden drei Studien zum Unterricht von Teilchenphysik in der Oberstufe durchgeführt, um bessere Leitlinien für die Beantwortung dieser beiden Fragen zu erarbeiten. Zunächst wurde eine Concept-Mapping-Studie durchgeführt, um die Erwartungen von ExpertInnen darüber zu ermitteln, was SchülerInnen der Oberstufe über Teilchenphysik lernen sollten. Insgesamt nahmen 13 ExpertInnen aus den Bereichen Teilchenphysik, Informatik und Physikdidaktik an 9 Concept-Mapping-Runden teil. Die breite Wissensbasis der Experten stellte sicher, dass die endgültige Expert Concept Map alle wichtigen Aspekte der Teilchenphysik umspannt. Die endgültige Expert Concept Map enthält 180 Konzepte und Beispiele, die mit 266 Verbindungen und Querverweisen verknüpft sind. Darunter befinden sich auch mehrere Bezüge zum Vorwissen der SchülerInnen in Themen wie Mechanik und Thermodynamik. Die starke Vernetzung der Konzepte zeigt, dass es möglich ist, die Teilchenphysik als Kontext für andere Lehrplanthemen zu nutzen. Die so entstandene Expert Concept Map wird als geeignetes Instrument für Lehrpersonen zur Unterstützung ihrer Unterrichtspraxis vorgestellt. Zweitens wurde ein Vergleich von 27 Physiklehrplänen für die Oberstufe durchgeführt. Dabei wurde festgestellt, welche Konzepte mit Bezug zur Teilchenphysik in den meisten Lehrplänen zu finden sind. Jeder Lehrplan wurde von zwei Gutachtern mittels einer Kodieranleitung mit 60 Konzepten zur Teilchenphysik analysiert. Die Lehrplananalyse ergab, dass in den meisten Lehrplänen Kosmologie, Elementarteilchen und Ladungen erwähnt werden, die alle als theoretische Konzepte der Teilchenphysik gelten. Keines der Konzepte der experimentellen Teilchenphysik kam in mehr als der Hälfte der untersuchten Lehrpläne vor. Eine zusätzliche Analyse wurde für zwei Untergruppen von Lehrplänen durchgeführt, nämlich Lehrpläne mit und Lehrpläne ohne ein explizites Teilchenphysik-Kapitel. In Lehrplänen mit einem expliziten Teilchenphysik-Kapitel werden mehrere zusätzliche Teilchenphysik-Konzepte erwähnt, nämlich das Standardmodell der Teilchenphysik, fundamentale Wechselwirkungen, Antimaterieforschung und Teilchenbeschleuniger. Letzteres ist ein Beispiel für Konzepte der experimentellen Teilchenphysik. Darüber hinaus ergab die Analyse, dass die meisten Lehrpläne Aspekte der Nature of Science und der Geschichte der Physik enthalten, obwohl beide typischerweise als Kontext bzw. als Hilfsmittel für den Unterricht verwendet werden. Drittens wurde eine Delphi-Studie durchgeführt, um die Erwartungen von Stakeholder in Bezug darauf zu untersuchen, was Lehrpersonen in Weiterbildungsprogrammen zur Teilchenphysik lernen sollten. Über 100 Stakeholder aus 41 Ländern vertraten vier Stakeholder-Gruppen, nämlich FachdidaktikerInnen, FachwissenschaftlerInnen, RegierungsvertreterInnen und Lehrpersonen. Das Ergebnis der Studie ist eine Rangliste der 13 wichtigsten Themen, die in Fortbildungsprogrammen für Teilchenphysik behandelt werden sollten. Die am höchsten bewerteten Themen waren Kosmologie, das Standardmodell der Teilchenphysik und Anwendungen der Teilchenphysik. Alle Stakeholder-Gruppen waren sich über die Gesamtwertung der Themen einig. Während die am höchsten bewerteten Themen wiederum eher theoretischer Natur waren, erwarten die Stakeholder auch, dass Lehrpersonen etwas über experimentelle Teilchenphysik Themen lernen, die mit mittlerer Bedeutung eingestuft wurden. Mit den drei Studien wurden zwei Forschungsziele dieses Promotionsprojekts verfolgt. Das erste Forschungsziel bestand darin, zu untersuchen, inwiefern die Teilchenphysik in den Physiklehrplänen für die Oberstufe behandelt wird. Der Vergleich der Ergebnisse der Lehrplananalyse und der Expert Concept Map zeigte, dass die Lehrpläne deutlich weniger abdecken als das, was ExpertInnen von OberstufenschülerInnen über Teilchenphysik erwarten. Beispielsweise enthalten die meisten Lehrpläne keine Konzepte, die der experimentellen Teilchenphysik zugeordnet werden können. Die vielfältigen Verbindungen zwischen den verschiedenen Konzepten zeigen jedoch, dass die experimentelle Teilchenphysik als Kontext für Konzepte der theoretischen Teilchenphysik, Nature of Science und andere Lehrplanthemen verwendet werden kann. Auf diese Weise kann die Teilchenphysik im Unterricht eingeführt werden, selbst wenn diese (noch) nicht explizit im jeweiligen Lehrplan erwähnt wird. Das zweite Forschungsziel bestand darin, herauszufinden, welche Aspekte des Fachwissens Lehrpersonen über Teilchenphysik vermittelt werden sollen. Der Vergleich der Ergebnisse der Delphi-Studie mit den Resultaten der Lehrplananalyse und der Expert Concept Map zeigte, dass die Stakeholder im Allgemeinen erwarten, dass Lehrpersonen ihr Schulwissen im Sinne der Lehrpläne erweitern. Darüber hinaus wird von den Lehrpersonen erwartet, dass sie ihr Schulwissen vertiefen, indem sie lernen, wie sie Konzepte aus ihrem Schulwissen mit anderen Konzepten der Teilchenphysik verbinden können. Fortbildungsprogramme, die den Schwerpunkt auf die Verbesserung des Schulwissens und des vertieften Schulwissens der Lehrpersonen legen, unterstützen somit bestmöglich die Lehrpersonen beim Aufbau relevanter Zusammenhänge für ihren Unterricht. Insgesamt wurde im Rahmen dieses Promotionsprojekts der aktuelle Stand des Teilchenphysikunterrichts in der Oberstufe untersucht und es wurden Leitlinien für die künftige Aufwertung teilchenphysikalischer Inhalte in der Ausbildung von Jugendlichen und Lehrpersonen erarbeitet. Die Ergebnisse des Projekts unterstützen die aktuelle Einführung der Teilchenphysik im Oberstufenunterricht sowohl als expliziten Inhalt als auch als Kontext für andere Lehrplanthemen. Darüber hinaus ergeben sich aus der Methodik und den Ergebnissen dieses Forschungsprojekts mehrere Implikationen für Weiterbildungsprogramme und für die Physikdidaktik, die in den letzten Kapiteln dieser Dissertation diskutiert werden. KW - physics education KW - particle physics KW - high-school education KW - teacher professional development KW - Physik Lehramt KW - Teilchenphysik KW - Lehrerfortbildung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560260 ER - TY - THES A1 - Banerjee, Abhirup T1 - Characterizing the spatio-temporal patterns of extreme events BT - from recurrence to prediction N2 - Over the past decades, there has been a growing interest in ‘extreme events’ owing to the increasing threats that climate-related extremes such as floods, heatwaves, droughts, etc., pose to society. While extreme events have diverse definitions across various disciplines, ranging from earth science to neuroscience, they are characterized mainly as dynamic occurrences within a limited time frame that impedes the normal functioning of a system. Although extreme events are rare in occurrence, it has been found in various hydro-meteorological and physiological time series (e.g., river flows, temperatures, heartbeat intervals) that they may exhibit recurrent behavior, i.e., do not end the lifetime of the system. The aim of this thesis to develop some sophisticated methods to study various properties of extreme events. One of the main challenges in analyzing such extreme event-like time series is that they have large temporal gaps due to the paucity of the number of observations of extreme events. As a result, existing time series analysis tools are usually not helpful to decode the underlying information. I use the edit distance (ED) method to analyze extreme event-like time series in their unaltered form. ED is a specific distance metric, mainly designed to measure the similarity/dissimilarity between point process-like data. I combine ED with recurrence plot techniques to identify the recurrence property of flood events in the Mississippi River in the United States. I also use recurrence quantification analysis to show the deterministic properties and serial dependency in flood events. After that, I use this non-linear similarity measure (ED) to compute the pairwise dependency in extreme precipitation event series. I incorporate the similarity measure within the framework of complex network theory to study the collective behavior of climate extremes. Under this architecture, the nodes are defined by the spatial grid points of the given spatio-temporal climate dataset. Each node is associated with a time series corresponding to the temporal evolution of the climate observation at that grid point. Finally, the network links are functions of the pairwise statistical interdependence between the nodes. Various network measures, such as degree, betweenness centrality, clustering coefficient, etc., can be used to quantify the network’s topology. We apply the methodology mentioned above to study the spatio-temporal coherence pattern of extreme rainfall events in the United States and the Ganga River basin, which reveals its relation to various climate processes and the orography of the region. The identification of precursors associated with the occurrence of extreme events in the near future is extremely important to prepare the masses for an upcoming disaster and mitigate the potential risks associated with such events. Under this motivation, I propose an in-data prediction recipe for predicting the data structures that typically occur prior to extreme events using the Echo state network, a type of Recurrent Neural Network which is a part of the reservoir computing framework. However, unlike previous works that identify precursory structures in the same variable in which extreme events are manifested (active variable), I try to predict these structures by using data from another dynamic variable (passive variable) which does not show large excursions from the nominal condition but carries imprints of these extreme events. Furthermore, my results demonstrate that the quality of prediction depends on the magnitude of events, i.e., the higher the magnitude of the extreme, the better is its predictability skill. I show quantitatively that this is because the input signals collectively form a more coherent pattern for an extreme event of higher magnitude, which enhances the efficiency of the machine to predict the forthcoming extreme events. N2 - In den letzten Jahrzehnten hat das Interesse an ‘Extremereignissen’ aufgrund der zunehmenden Bedrohung, die klimabedingte Extreme wie Überschwemmungen, Hitzewellen, Dürren usw. für die Gesellschaft darstellen, zugenommen. Obwohl Extremereignisse in verschiedenen Disziplinen - von der Geowissenschaft bis zu den Neurowissenschaften - unterschiedlich definiert werden, werden sie hauptsächlich als dynamische Ereignisse innerhalb eines begrenzten Zeitrahmens charakterisiert, die das normale Funktionieren eines Systems beeinträchtigen. Obwohl Extremereignisse selten vorkommen, wurde festgestellt, dass verschiedene hydro-meteorologische und physiologische Zeitreihen (z. B. Stromabflussmengen, Temperaturen, Herzschlagintervalle) rekurrentes Verhalten. Das heißt, sie enden nicht an der Lebensdauer des Systems. Das Ziel dieser Arbeit ist es, fortschrittliche Methoden zur Untersuchung verschiedener Eigenschaften von Extremereignissen zu entwickeln. Eine der größten Herausforderungen bei der Analyse solcher extremen Ereignisse ist, dass sie große zeitliche Lücken aufweisen, da die Anzahl beobachteter Extremereignissen gering ist. Bestehende Zeitreihenanalysetools sind daher in der Regel nicht hilfreich, um die zugrundeliegenden Informationen zu entschlüsseln. Ich verwende die Edit-Distanz (ED) Methode, um extremeereignisähnliche Zeitreihen in ihrer unveränderten Form zu analysieren. ED ist eine spezielle Abstandsmetrik, die hauptsächlich zur Messung der Ähnlichkeit/Unähnlichkeit zwischen punktprozessähnlichen Daten entwickelt wurde. Ich kombiniere ED mit Rekurrenzplots, um die Wiederkehr-Eigenschaften von Hochwasserereignissen am Mississippi in den Vereinigten Staaten zu ermitteln. Außerdem werte ich die Wiederkehr-Eigenschaften quantitativ aus, um die deterministische Charakteristik und die serielle Abhängigkeit bei Hochwasserereignissen aufzuzeigen. Anschließend verwende ich dieses nichtlineare Ähnlichkeitsmaß(ED), um die paarweise Abhängigkeit in extremen Niederschlagsereignisreihen zu berechnen. Ich verknüpfe das Ähnlichkeitsmaß mit der Theorie komplexer Netzwerke, um das kollektive Verhalten von Klimaextremen zu untersuchen. In diesem Fall werden die Knoten durch die räumlichen Gitterpunkte des zu untersuchenden raumzeitlichen Klimadatensatzes definiert. Jeder Knoten repräsentiert eine Zeitreihe, die die zeitliche Entwicklung der Klimabeobachtung an diesem Gitterpunkt beschreibt. Schließlich sind die Netzwerkverbindungen Funktionen der paarweisen statistischen Interdependenz zwischen den Knotenpunkten. Zur Quantifizierung der Netztopologie können verschiedene Netzwerkmaße wie unter anderem der Grad, die Betweenness-Zentralität, oder der Clustering-Koeffizient verwendet werden. Wir wenden die oben erwähnte Methodik an, um das raumzeitliche Kohärenzmuster extremer Niederschlagsereignisse in den Vereinigten Staaten und im Einzugsgebiet des Ganges zu untersuchen. Die Ergebnisse zeigen, dass ein Zusammenhang zwischen dem Kohärenzmuster und verschiedenen Klimaprozessen und der Orographie der Region besteht. Die Identifizierung von Vorläufern, die mit dem Auftreten von Extremereignissen in naher Zukunft verbunden sind, ist äußerst wichtig, um die Bevölkerung auf eine bevorstehende Katastrophe vorzubereiten und potenziell resultierende Risiken zu mindern. Deshalb schlage ich ein datenbasiertes Vorhersageverfahren zur Bestimmung der Datenstrukturen vor, die typischerweise vor extremen Ereignissen auftreten. Das Verfahren basiert auf dem Echo-State Netzwerk, einem rekurrenten neuronalen Netz, das dem Reservoir-Computing zugeordnet wird. Im Gegensatz zu früheren Arbeiten, die Vorläuferstrukturen in der Variablen identifizieren, in der sich Extremereignisse manifestieren (aktive Variable), versuche ich die Strukturen anhand anderer dynamischer Variablen (passive Variablen) vorherzusagen. Diese Variablen weichen selbst nicht sonderlich von ihrem eigenen Sollzustand ab, aber sie besitzen eine Aussagekraft gegenüber den Extremereignissen. Meine Ergebnisse zeigen, dass die Qualität der Vorhersage von der Magnitude der Ereignisse abhängt, d.h. je extremer ein Ereignis ist, desto besser kann es vorhergesagt werden. Ich belege quantitativ, dass dieser Zusammenhang darauf basiert, dass die gesammelten Eingangssignale aussagekräftigere Kohärenzmuster für Extremereignisse hoher Magnitude bilden. Dies erhöht die Wirksamkeit des Ansatzes bei der Vorhersage bevorstehender Extremereignisse. KW - extreme events KW - Extremereignisse KW - floods KW - extreme precipitation KW - edit distance KW - recurrence plot KW - complex network KW - echo state network KW - Überschwemmungen KW - Extremniederschläge KW - Edit-Distanz KW - Rekurrenzplot KW - komplexes Netzwerk KW - Echo-State Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559839 ER - TY - THES A1 - Kwesiga, George T1 - Synthesis of isoflavonoids from African medicinal plants with activity against tropical infectious diseases T1 - Synthese von Isoflavonoiden aus afrikanischen Heilpflanzen mit Wirkung gegen tropische Infektionskrankheiten N2 - Two approaches for the synthesis of prenylated isoflavones were explored: the 2,3-oxidative rearrangement/cross metathesis approach, using hypervalent iodine reagents as oxidants and the Suzuki-Miyaura cross-coupling/cross metathesis approach. Three natural prenylated isoflavones: 5-deoxy-3′-prenylbiochanin A (59), erysubin F (61) and 7-methoxyebenosin (64), and non-natural analogues: 7,4′-dimethoxy-8,3′-diprenylisoflavone (126j) and 4′-hydroxy-7-methoxy-8,3′-diprenylisoflavone (128) were synthesized for the first time via the 2,3-oxidative rearrangement/cross metathesis approach, using mono- or diallylated flavanones as key intermediates. The reaction of flavanones with hypervalent iodine reagents afforded isoflavones via a 2,3-oxidative rearrangement and the corresponding flavone isomers via a 2,3-dehydrogenation. This afforded the synthesis of 7,4′-dimethoxy-8-prenylflavone (127g), 7,4′-dimethoxy-8,3′-diprenylflavone (127j), 7,4′-dihydroxy-8,3′-diprenylflavone (129) and 4′-hydroxy-7-methoxy-8,3′-diprenylflavone (130), the non-natural regioisomers of 7-methoxyebenosin, 126j, erysubin F and 128 respectively. Three natural prenylated isoflavones: 3′-prenylbiochanin A (58), neobavaisoflavone (66) and 7-methoxyneobavaisoflavone (137) were synthesized for the first time using the Suzuki-Miyaura cross-coupling/cross metathesis approach. The structures of 3′-prenylbiochanin A (58) and 5-deoxy-3′-prenylbiochanin A (59) were confirmed by single crystal X-ray diffraction analysis. The 2,3-oxidative rearrangement approach appears to be limited to the substitution pattern on both rings A and B of the flavanone while the Suzuki-Miyaura cross-coupling approach appears to be the most suitable for the synthesis of simple isoflavones or prenylated isoflavones whose prenyl substituents or allyl groups, the substituents that are essential precursors for the prenyl side chains, can be regioselectively introduced after the construction of the isoflavone core. The chalcone-flavanone hybrids 146, 147 and 148, hybrids of the naturally occurring bioactive flavanones liquiritigenin-7-methyl ether, liquiritigenin and liquiritigenin-4′-methyl ether respectively were also synthesized for the first time, using Matsuda-Heck arylation and allylic/benzylic oxidation as key steps. The intermolecular interactions of 5-deoxy-3′-prenylbiochanin A (59) and its two closely related precursors 106a and 106b was investigated by single crystal and Hirshfeld surface analyses to comprehend their different physicochemical properties. The results indicate that the presence of strong intermolecular O-H···O hydrogen bonds and an increase in the number of π-stacking interactions increases the melting point and lowers the solubility of isoflavone derivatives. However, the strong intermolecular O-H···O hydrogen bonds have a greater effect than the π-stacking interactions. 5-Deoxy-3′-prenylbiochanin A (59), erysubin F (61) and 7,4′-dihydroxy-8,3′-diprenylflavone (129), were tested against three bacterial strains and one fungal pathogen. All the three compounds were inactive against Salmonella enterica subsp. enterica (NCTC 13349), Escherichia coli (ATCC 25922), and Candida albicans (ATCC 90028), with MIC values greater than 80.0 μM. The diprenylated isoflavone erysubin F (61) and its flavone isomer 129 showed in vitro activity against methicillin-resistant Staphylococcus aureus (MRSA, ATCC 43300) at MIC values of 15.4 and 20.5 μM, respectively. 5-Deoxy-3′-prenylbiochanin A (59) was inactive against this MRSA strain. Erysubin F (61) and its flavone isomer 129 could serve as lead compounds for the development of new alternative drugs for the treatment of MRSA infections. N2 - Ziel dieser Studie war es, aus afrikanischen Heilpflanzen isolierte Naturstoffe künstlich herzustellen, die zur Behandlung tropischer Infektionskrankheiten wie Malaria und bakterieller Infektionen eingesetzt werden, um Schlüsselsubstanzen für die Entwicklung neuer Medikamente zu identifizieren. Sechs Naturstoffe aus afrikanischen Heilpflanzen wie dem Korallenbaum (Erythrina-species) wurden erstmals künstlich hergestellt. Bei der Herstellung dieser Naturstoffe wurden auch sechs weitere verwandte nicht-natürliche Analoga hergestellt. Zwei Naturstoffe (5-Deoxy-3′-prenylbiochanin A und Erysubin F) aus dem Korallenbaum (Erythrina sacleuxii) und eine verwandte nicht-natürliche Substanz wurden auf ihre antimikrobielle Aktivität gegen drei Bakterienstämme und einen Pilzstamm getestet. Alle drei Substanzen waren nicht wirksam gegen Escherichia coli, ein Bakterium, das Harnwegsinfektionen und Durchfall verursacht; Salmonella entrica, das Typhus verursacht, und Candida albicans, das Candidiasis verursacht. Erysubin F und sein nicht-natürliches Analogon waren sehr aktiv gegen Methicillin-resistente Staphylococcus aureus (MRSA), ein Bakterium, das hauptsächlich in sehr geringen Konzentrationen Hautinfektionen verursacht. 5-Deoxy-3'-prenylbiochanin A war gegen diesen MRSA-Stamm nicht aktiv. Erysubin F und sein nicht-natürliches Analogon könnten als Schlüsselsubstanzen für die Entwicklung eines neuen Medikaments gegen Infektionen durch MRSA dienen. KW - synthesis KW - isoflavonoids KW - African medicinal plants KW - tropical infectious diseases KW - Afrikanische Heilpflanzen KW - Isoflavonoide KW - Synthese KW - tropische Infektionskrankheiten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559069 ER - TY - THES A1 - Krummenauer, Linda T1 - Global heat adaptation among urban populations and its evolution under different climate futures T1 - Globale Hitzeanpassung urbaner Bevölkerungen und deren Entwicklung unter verschiedenen klimatischen Zukünften N2 - Heat and increasing ambient temperatures under climate change represent a serious threat to human health in cities. Heat exposure has been studied extensively at a global scale. Studies comparing a defined temperature threshold with the future daytime temperature during a certain period of time, had concluded an increase in threat to human health. Such findings however do not explicitly account for possible changes in future human heat adaptation and might even overestimate heat exposure. Thus, heat adaptation and its development is still unclear. Human heat adaptation refers to the local temperature to which populations are adjusted to. It can be inferred from the lowest point of the U- or V-shaped heat-mortality relationship (HMR), the Minimum Mortality Temperature (MMT). While epidemiological studies inform on the MMT at the city scale for case studies, a general model applicable at the global scale to infer on temporal change in MMTs had not yet been realised. The conventional approach depends on data availability, their robustness, and on the access to daily mortality records at the city scale. Thorough analysis however must account for future changes in the MMT as heat adaptation happens partially passively. Human heat adaptation consists of two aspects: (1) the intensity of the heat hazard that is still tolerated by human populations, meaning the heat burden they can bear and (2) the wealth-induced technological, social and behavioural measures that can be employed to avoid heat exposure. The objective of this thesis is to investigate and quantify human heat adaptation among urban populations at a global scale under the current climate and to project future adaptation under climate change until the end of the century. To date, this has not yet been accomplished. The evaluation of global heat adaptation among urban populations and its evolution under climate change comprises three levels of analysis. First, using the example of Germany, the MMT is calculated at the city level by applying the conventional method. Second, this thesis compiles a data pool of 400 urban MMTs to develop and train a new model capable of estimating MMTs on the basis of physical and socio-economic city characteristics using multivariate non-linear multivariate regression. The MMT is successfully described as a function of the current climate, the topography and the socio-economic standard, independently of daily mortality data for cities around the world. The city-specific MMT estimates represents a measure of human heat adaptation among the urban population. In a final third analysis, the model to derive human heat adaptation was adjusted to be driven by projected climate and socio-economic variables for the future. This allowed for estimation of the MMT and its change for 3 820 cities worldwide for different combinations of climate trajectories and socio-economic pathways until 2100. The knowledge on the evolution of heat adaptation in the future is a novelty as mostly heat exposure and its future development had been researched. In this work, changes in heat adaptation and exposure were analysed jointly. A wide range of possible health-related outcomes up to 2100 was the result, of which two scenarios with the highest socio-economic developments but opposing strong warming levels were highlighted for comparison. Strong economic growth based upon fossil fuel exploitation is associated with a high gain in heat adaptation, but may not be able to compensate for the associated negative health effects due to increased heat exposure in 30% to 40% of the cities investigated caused by severe climate change. A slightly less strong, but sustainable growth brings moderate gains in heat adaptation but a lower heat exposure and exposure reductions in 80% to 84% of the cities in terms of frequency (number of days exceeding the MMT) and intensity (magnitude of the MMT exceedance) due to a milder global warming. Choosing a 2 ° C compatible development by 2100 would therefore lower the risk of heat-related mortality at the end of the century. In summary, this thesis makes diverse and multidisciplinary contributions to a deeper understanding of human adaptation to heat under the current and the future climate. It is one of the first studies to carry out a systematic and statistical analysis of urban characteristics which are useful as MMT drivers to establish a generalised model of human heat adaptation, applicable at the global level. A broad range of possible heat-related health options for various future scenarios was shown for the first time. This work is of relevance for the assessment of heat-health impacts in regions where mortality data are not accessible or missing. The results are useful for health care planning at the meso- and macro-level and to urban- and climate change adaptation planning. Lastly, beyond having met the posed objective, this thesis advances research towards a global future impact assessment of heat on human health by providing an alternative method of MMT estimation, that is spatially and temporally flexible in its application. N2 - Hitze und steigende Umgebungstemperaturen im Zuge des Klimawandels stellen eine ernsthafte Bedrohung für die menschliche Gesundheit in Städten dar. Die Hitzeexposition wurde umfassend auf globaler Ebene untersucht. Studien, die eine definierte Temperaturschwelle mit der zukünftigen Tagestemperatur während eines bestimmten Zeitraums verglichen, hatten eine Zunahme der Gefährdung der menschlichen Gesundheit ergeben. Solche Ergebnisse berücksichtigen jedoch nicht explizit mögliche Veränderungen der zukünftigen menschlichen Hitzeadaption und könnten daher sogar die Hitzeexposition überschätzen. Somit ist die menschliche Adaption an Hitze und ihre zukünftige Entwicklung noch unklar. Die menschliche Hitzeadaption bezieht sich auf die lokale Temperatur, an die sich die Bevölkerung angepasst hat. Sie lässt sich aus dem Tiefpunkt der U- oder V-förmigen Relation zwischen Hitze und Mortalität (HMR), der Mortalitätsminimaltemperatur (MMT), ableiten. Während epidemiologische Fallstudien über die MMT auf Stadtebene informieren, wurde ein auf globaler Ebene anwendbares allgemeines Modell, um auf die zeitliche Veränderung der MMTs zu schließen, bisher noch nicht realisiert. Der konventionelle Ansatz ist abhängig von der Datenverfügbarkeit, ihrer Robustheit und dem Zugang zu täglichen Mortalitätsdaten auf Stadtebene. Eine gründliche Analyse muss jedoch zukünftige Veränderungen in der MMT berücksichtigen, da die menschliche Hitzeanpassung teils passiv erfolgt. Die menschliche Hitzeanpassung besteht aus zwei Aspekten: (1) aus der Intensität der Hitze, die von der menschlichen Bevölkerung noch toleriert wird, also die Hitzebelastung, die sie ertragen kann, und (2) aus vermögensbedingten technologischen, sozialen und verhaltensbezogenen Maßnahmen, die zur Vermeidung von Hitzeexposition eingesetzt werden können. Das Ziel dieser Arbeit ist es, die menschliche Hitzeanpassung der städtischen Bevölkerung unter dem aktuellen Klima auf globaler Ebene zu untersuchen und zu quantifizieren und die zukünftige Anpassung an den Klimawandel bis zum Ende des Jahrhunderts zu projizieren. Dies wurde bis heute noch nicht erreicht. Die Bewertung der globalen Hitzeanpassung städtischer Bevölkerungen und ihrer Entwicklung unter dem Klimawandel umfasst drei Analyseebenen. Erstens wird am Beispiel Deutschlands die MMT auf Stadtebene nach der konventionellen Methode berechnet. Zweitens trägt diese Arbeit einen Datenpool von 400 städtischen MMTs zusammen, um auf dessen Basis ein neues Modell zu entwickeln und zu trainieren, welches in der Lage ist, MMTs auf der Grundlage von physischen und sozioökonomischen Stadtmerkmalen mittels multivariater nichtlinearer multivariater Regression zu schätzen. Es wird gezeigt, dass die MMT als Funktion des aktuellen Klimas, der Topographie und des sozioökonomischen Standards beschrieben werden kann, unabhängig von täglichen Sterblichkeitsdaten für Städte auf der ganzen Welt. Die stadtspezifischen MMT-Schätzungen stellen ein Maß für die menschliche Hitzeanpassung der städtischen Bevölkerung dar. In einer letzten dritten Analyse wurde das Modell zur Schätzung der menschlichen Hitzeadaption angepasst, um von für die Zukunft projizierten Klima- und sozioökonomischen Variablen angetrieben zu werden. Dies ermöglichte eine Schätzung des MMT und seiner Veränderung für 3 820 Städte weltweit für verschiedene Kombinationen aus Klimatrajektorien und sozioökonomischen Entwicklungspfaden bis 2100. Das Wissen über die Entwicklung der menschlichen Hitzeanpassung in der Zukunft ist ein Novum, da bisher hauptsächlich die Hitzeexposition und ihre zukünftige Entwicklung erforscht wurden. In dieser Arbeit wurden die Veränderungen der menschlichen Hitzeadaptation und der Hitzeexposition gemeinsam analysiert. Das Ergebnis ist ein breites Spektrum möglicher gesundheitsbezogener Zukünfte bis 2100, von denen zum Vergleich zwei Szenarienkombinationen mit den höchsten sozioökonomischen Entwicklungen, aber gegensätzlichen starken Erwärmungsniveaus hervorgehoben wurden. Ein starkes Wirtschaftswachstum auf der Grundlage der Nutzung fossiler Brennstoffe fördert zwar einen hohen Zugewinn an Hitzeanpassung, kann jedoch die damit verbundenen negativen gesundheitlichen Auswirkungen aufgrund der erhöhten Exposition in rund 30% bis 40% der untersuchten Städte aufgrund eines starken Klimawandels möglicherweise nicht ausgleichen. Ein etwas weniger starkes, dafür aber nachhaltiges Wachstum bringt aufgrund einer milderen globalen Erwärmung eine moderate Hitzeanpassung und eine geringere Hitzeexposition und sogar eine Abnahme der Exposition in 80% bis 84% der Städte in Bezug auf Häufigkeit (Anzahl der Tage über der MMT) und Intensität (Magnitude der MMT-Überschreitung). Die Wahl einer 2 ° C-kompatiblen Entwicklung bis 2100 würde daher das Risiko einer hitzebedingten Sterblichkeit am Ende des Jahrhunderts senken. Zusammenfassend liefert diese Dissertation vielfältige und multidisziplinäre Beiträge zu einem tieferen Verständnis der menschlichen Hitzeanpassung unter dem gegenwärtigen und zukünftigen Klima. Es ist eine der ersten Studien, die eine systematische und statistische Analyse städtischer Merkmale durchführt, die sich als MMT-Treiber verwenden lassen, um ein verallgemeinertes Modell der menschlichen Hitzeanpassung zu erarbeiten, das auf globaler Ebene anwendbar ist. Erstmals wurde ein breites Spektrum möglicher hitzebedingter Gesundheitsoptionen für verschiedene Zukunftsszenarien aufgezeigt. Diese Arbeit ist von Bedeutung für die Bewertung von hitzebezogener Gesundheitsauswirkungen in Regionen, in denen Mortalitätsdaten nicht zugänglich sind oder fehlen. Die Ergebnisse sind nützlich für die Gesundheitsplanung auf Meso- und Makroebene sowie für die Stadtplanung und die Planung der Anpassung an den Klimawandel. Über das Erreichen des gestellten Ziels hinaus treibt diese Dissertation die Forschung in Richtung einer globalen zukünftigen Folgenabschätzung von Hitze auf die menschliche Gesundheit voran, indem eine alternative Methode der MMT-Schätzung bereitgestellt wird, die in ihrer Anwendung räumlich und zeitlich flexibel ist. KW - heat KW - adaptation KW - global KW - populations KW - climate change KW - temperature KW - mortality KW - minimum mortality temperature KW - projection KW - future KW - health KW - model KW - socio-economy KW - wealth KW - acclimatisation KW - Akklimatisierung KW - Anpassung KW - Hitzeanpassung KW - Klimawandel KW - Zukunft KW - global KW - Gesundheit KW - Hitze KW - Mortalitäts-Minimal-Temperatur KW - Modell KW - Mortalität KW - Bevölkerung KW - Projektion KW - Sozioökonomie KW - Temperatur KW - Wohlstand KW - exposure KW - hazard KW - cities KW - Exposition KW - Naturgefahr KW - Städte Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559294 ER - TY - THES A1 - Kutter, Denny T1 - Three essays on misconduct and reporting outcomes T1 - Drei Essays zu unternehmerischem Fehlverhalten und Ergebnissen der Finanzberichterstattung N2 - This cumulative doctoral thesis consists of three empirical studies that examine the role of top-level executives in shaping adverse financial reporting outcomes and other forms of corporate misconduct. The first study examines CEO effects on a wide range of offenses. Using data from enforcement actions by more than 50 U.S. federal agencies, regression re-sults show CEO effects on the likelihood, frequency, and severity of corporate misconduct. The findings hold for financial, labor-related, and environmental offenses; however, CEO effects are more pronounced for non-financial misconduct. Further results show a positive relation between CEO ability and non-financial misconduct, but no relation with financial misconduct, suggesting that higher CEO ability can have adverse consequences for employee welfare and society and public health. The second study focuses on CEO and CFO effects on financial misreporting. Using data on restatements and public enforcement actions, regression results show that the incremental effect of CFOs is economically larger than that of CEOs. This greater economic impact of CFOs is particularly pronounced for fraudulent misreporting. The findings remain consistent across different samples, methods, misreporting measures, and specification choices for the underlying conceptual mechanism, highlighting the important role of the CFO as a key player in the beyond-GAAP setting. The third study reexamines the relation between equity incentives and different reporting outcomes. The literature review reveals large variation in the empirical measures for firm size as standard control variable, equity incentives as key explanatory variables, and the reporting outcome of interest. Regres-sion results show that these design choices have a direct bearing on empirical results, with changes in t-statistics that often exceed typical thresholds for statistical significance. The find-ings hold for aggressive accrual management, earnings management through discretionary accruals, and material misstatements, suggesting that common design choices can have a large impact on whether equity incentives effects are considered significant or not. N2 - Die vorliegende kumulative Doktorarbeit umfasst drei empirische Studien, die den Einfluss von Führungskräften auf nachteilige Rechnungslegungspraktiken und anderes Fehl-verhalten von Unternehmen untersuchen. Die erste Studie untersucht den Einfluss von CEOs auf ein breites Spektrum an Verstößen. Dazu werden Daten zu Durchsetzungsmaßnahmen von mehr als 50 US-Regulierungsbehörden ausgewertet. Die Ergebnisse der Regressionsana-lyse zeigen, dass CEOs die Wahrscheinlichkeit, Häufigkeit und Schwere des Fehlverhalten beeinflussen, sowohl bei finanziellen Verstößen als auch bei Verstößen gegen Arbeitnehmer-rechte und Umweltvorschriften, wobei der Einfluss von CEOs bei den nicht-finanziellen Ver-stößen durchgehend stärker ausgeprägt ist. Weitere Ergebnisse zeigen einen positiven (kei-nen) Zusammenhang zwischen der Managementbegabung des CEOs und nicht-finanziellen (finanziellen) Verstößen, was darauf hindeutet, dass höhere Managementbegabung negative Konsequenzen für das Wohlergehen von Mitarbeitern und die Gesellschaft als Ganzes haben kann. Die zweite Studie geht verstärket auf den Einfluss von CEOs und CFOs auf Falschbe-richterstattung ein. Dazu werden Daten zu nachträglichen Anpassungen bereits veröffentlich-ter Rechnungslegungswerke sowie Durchsetzungsmaßnahmen ausgewertet. Die Ergebnisse der Regressionsanalyse zeigen, dass CFOs, im Vergleich zu CEOs, einen ökonomisch bedeut-sameren inkrementellen Einfluss haben. Der größere Einfluss des CFOs ist bei betrügerischer Falschberichterstattung noch stärker ausgeprägt. Die Ergebnisse bleiben konsistent, wenn verschiedene Stichproben analysiert, verschiedene Analysemethoden herangezogen und ver-schieden Operationalisierungen für das Konstrukt Falschberichterstattung verwendete werden. Insgesamt deuten die Ergebnisse darauf hin, dass CFOs eine zentrale Rolle bei Verstößen gegen Rechnungslegungsgrundsätze zukommt. Die dritte Studie wirft einen genaueren Blick auf den Zusammenhang zwischen Anreizen aus aktienbasierter Vergütung und Rechnungsle-gungspraktiken. Der Literaturüberblick zeigt große Unterschiede bei der Operationalisierung von Firmengröße als Standardkontrollvariable, Anreizen aus aktienbasierter Vergütung als zentrale erklärenden Variable und der zu untersuchenden Rechnungslegungspraktik. Die Er-gebnisse der Regressionsanalyse zeigen, dass sich diese Unterschiede stark auf die empiri-schen Ergebnisse auswirken können, wobei die daraus resultierenden Veränderungen der t-Werte oftmals typische Grenzwerte für statistische Signifikanz übersteigen. Dies gilt für den Zusammenhang zwischen Anreizen aus aktienbasierter Vergütung und verschiedenartigen Rechnungslegungspraktiken, z.B. die Einflussnahme auf die insgesamt ausgewiesenen Posten zur Periodenabgrenzung, Ergebnissteuerung mittels solcher Posten zur Periodenabgrenzung, die stärkerem Ermessen des Managements unterliegen und wesentliche Falschdarstellungen in veröffentlichten Rechnungslegungswerken. Insgesamt deuten die Ergebnisse darauf hin, dass kleine Unterschiede im Studienaufbau einen großen Einfluss darauf haben können, ob Ergeb-nisse zu den Anreizen aus aktienbasierter Vergütung signifikant sind. KW - misconduct KW - reporting outcomes KW - Fehlverhalten KW - Finanzberichterstattung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559333 ER - TY - THES A1 - Figueroa Campos, Gustavo Adolfo T1 - Wet-coffee processing production wastes T1 - Produktionsabfälle aus der Nasskaffeeverarbeitung BT - quality, potentials, and valorization opportunities BT - Qualität, Potenziale und Verwertungsmöglichkeiten N2 - Countries processing raw coffee beans are burdened with low economical incomes to fight the serious environmental problems caused by the by-products and wastewater that is generated during the wet-coffee processing. The aim of this work was to develop alternative methods of improving the waste by-product quality and thus making the process economically more attractive with valorization options that can be brought to the coffee producers. The type of processing influences not only the constitution of green coffee but also of by-products and wastewater. Therefore, coffee bean samples as well as by-products and wastewater collected at different production steps of were analyzed. Results show that the composition of wastewater is dependent on how much and how often the wastewater is recycled in the processing. Considering the coffee beans, results indicate that the proteins might be affected during processing and a positive effect of the fermentation on the solubility and accessibility of proteins seems to be probable. The steps of coffee processing influence the different constituents of green coffee beans which, during roasting, give rise to aroma compounds and express the characteristics of roasted coffee beans. Knowing that this group of compounds is involved in the Maillard reaction during roasting, this possibility could be utilized for the coffee producers to improve the quality of green coffee beans and finally the coffee cup quality. The valorization of coffee wastes through modification to activated carbon has been considered as a low-cost option creating an adsorbent with prospective to compete with commercial carbons. Activation protocol using spent coffee and parchment was developed and prepared to assess their adsorption capacity for organic compounds. Spent coffee grounds and parchment proved to have similar adsorption efficiency to commercial activated carbon. The results of this study document a significant information originating from the processing of the de-pulped to green coffee beans. Furthermore, it showed that coffee parchment and spent coffee grounds can be valorized as low-cost option to produce activated carbons. Further work needs to be directed to the optimization of the activation methods to improve the quality of the materials produced and the viability of applying such experiments in-situ to bring the coffee producer further valorization opportunities with environmental perspectives. Coffee producers would profit in establishing appropriate simple technologies to improve green coffee quality, re-use coffee by-products, and wastewater valorization. N2 - Produktionsabfälle aus der Nasskaffeeverarbeitung: Qualität, Potenziale und Verwertungsmöglichkeiten Die Länder, die Rohkaffee verarbeiten, haben nur ein geringes wirtschaftliches Einkommen, um die ernsten Umweltprobleme zu bekämpfen, die durch die bei der Nasskaffeeverarbeitung anfallenden Nebenprodukte und Abwässer verursacht werden. Ziel dieser Arbeit war es, alternative Methoden zu entwickeln, um die Qualität der Nebenprodukte zu verbessern und so den Prozess wirtschaftlich attraktiver zu machen, indem den Kaffeeproduzenten Valorisierungsoptionen geboten werden. Die Art der Verarbeitung beeinflusst nicht nur die Beschaffenheit des Rohkaffees, sondern auch die der Nebenprodukte und des Abwassers. Daher wurden Proben von Kaffeebohnen sowie Nebenprodukte und Abwässer analysiert, die bei verschiedenen Produktionsschritten gesammelt wurden. Die Ergebnisse zeigen, dass die Zusammensetzung des Abwassers davon abhängt, wie viel und wie oft das Abwasser bei der Verarbeitung recycelt wird. In Bezug auf die Kaffeebohnen deuten die Ergebnisse darauf hin, dass die Proteine während der Verarbeitung beeinträchtigt werden könnten, und eine positive Auswirkung der Fermentation auf die Löslichkeit und Zugänglichkeit der Proteine scheint wahrscheinlich zu sein. Die Schritte der Kaffeeverarbeitung beeinflussen die verschiedenen Bestandteile der grünen Kaffeebohnen, die beim Rösten zu Aromastoffen werden und die Eigenschaften der gerösteten Kaffeebohnen zum Ausdruck bringen. Da diese Gruppe von Verbindungen an der Maillard-Reaktion während des Röstens beteiligt ist, könnte diese Möglichkeit von den Kaffeeproduzenten genutzt werden, um die Qualität der grünen Kaffeebohnen und schließlich die Qualität des zubereiteten Kaffees zu verbessern. Die Herstellung von Aktivkohle aus modifizierten Kaffeeabfällen wurde als kostengünstige Option zur Schaffung eines Adsorptionsmittels betrachtet, das mit handelsüblicher Aktivkohle konkurrieren könnte. Es wurde ein Aktivierungsprotokoll für gebrauchten Kaffee und Pergament entwickelt und vorbereitet, um deren Adsorptionskapazität für organische Verbindungen zu bewerten. Es zeigte sich, dass Kaffeesatz und Pergament eine ähnliche Adsorptionseffizienz aufweisen wie kommerzielle Aktivkohle. Die Ergebnisse dieser Studie belegen, dass die Verarbeitung von den entpulpten zu grünen Kaffeebohnen eine wichtige Information darstellt. Darüber hinaus wurde gezeigt, dass Kaffeepergament und Kaffeesatz als kostengünstige Möglichkeit zur Herstellung von Aktivkohle genutzt werden können. Weitere Arbeiten müssen sich mit der Optimierung der Aktivierungsmethoden befassen, um die Qualität der hergestellten Materialien zu verbessern, und mit der Durchführbarkeit solcher Experimente in-situ, um den Kaffeeproduzenten weitere Aufwertungsmöglichkeiten mit Umweltperspektive zu bieten. Die Kaffeeproduzenten würden von der Einführung geeigneter einfacher Technologien zur Verbesserung der Rohkaffeequalität, der Wiederverwendung von Kaffeenebenprodukten und der Aufwertung von Abwässern profitieren. KW - Arabica coffee beans KW - coffee processing KW - coffee by-products KW - protein modification KW - activated carbon KW - Arabica Kaffeebohnen KW - Aktivkohle KW - Kaffeenebenprodukte KW - Kaffeeverarbeitung KW - Protein Modifizierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558828 ER - TY - THES A1 - Nayak, Abani Shankar T1 - Design, Characterization and On-sky Testing of an Integrated Optics Device for Stellar Interferometry: from Pupil Remappers to Discrete Beam Combiner T1 - Entwicklung, Charakterisierung und Erprobung einer integrierten, optischen Vorrichtung für die stellare Interferometrie: von Pupil Remappers zum diskreten Strahlkombinierer N2 - Stellar interferometry is the only method in observational astronomy for obtaining the highest resolution images of astronomical targets. This method is based on combining light from two or more separate telescopes to obtain the complex visibility that contains information about the brightness distribution of an astronomical source. The applications of stellar interferometry have made significant contributions in the exciting research areas of astronomy and astrophysics, including the precise measurement of stellar diameters, imaging of stellar surfaces, observations of circumstellar disks around young stellar objects, predictions of Einstein's General relativity at the galactic center, and the direct search for exoplanets to name a few. One important related technique is aperture masking interferometry, pioneered in the 1960s, which uses a mask with holes at the re-imaged pupil of the telescope, where the light from the holes is combined using the principle of stellar interferometry. While this can increase the resolution, it comes with a disadvantage. Due to the finite size of the holes, the majority of the starlight (typically > 80 %) is lost at the mask, thus limiting the signal-to-noise ratio (SNR) of the output images. This restriction of aperture masking only to the bright targets can be avoided using pupil remapping interferometry - a technique combining aperture masking interferometry and advances in photonic technologies using single-mode fibers. Due to the inherent spatial filtering properties, the single-mode fibers can be placed at the focal plane of the re-imaged pupil, allowing the utilization of the whole pupil of the telescope to produce a high-dynamic range along with high-resolution images. Thus, pupil remapping interferometry is one of the most promising application areas in the emerging field of astrophotonics. At the heart of an interferometric facility, a beam combiner exists whose primary function is to combine light to obtain high-contrast fringes. A beam combiner can be as simple as a beam splitter or an anamorphic lens to combine light from 2 apertures (or telescopes) or as complex as a cascade of beam splitters and lenses to combine light for > 2 apertures. However, with the field of astrophotonics, interferometric facilities across the globe are increasingly employing some form of photonics technologies by using single-mode fibers or integrated optics (IO) chips as an efficient way to combine light from several apertures. The state-of-the-art instrument - GRAVITY at the very large telescope interferometer (VLTI) facility uses an IO-based beam combiner device reaching visibilities accuracy of better than < 0.25 %, which is roughly 50× as precise as a few decades back. Therefore, in the context of IO-based components for applications in stellar interferometry, this Thesis describes the work towards the development of a 3-dimensional (3-D) IO device - a monolithic astrophotonics component containing both the pupil remappers and a discrete beam combiner (DBC). In this work, the pupil remappers are 3-D single-mode waveguides in a glass substrate collecting light from the re-imaged pupil of the telescope and feeding the light to a DBC, where the combination takes place. The DBC is a lattice of 3-D single-mode waveguides, which interact through evanescent coupling. By observing the output power of single-mode waveguides of the DBC, the visibilities are retrieved by using a calibrated transfer matrix ({U}) of the device. The feasibility of the DBC in retrieving the visibilities theoretically and experimentally had already been studied in the literature but was only limited to laboratory tests with monochromatic light sources. Thus, a part of this work extends these studies by investigating the response of a 4-input DBC to a broad-band light source. Hence, the objectives of this Thesis are the following: 1) Design an IO device for broad-band light operation such that accurate and precise visibilities could be retrieved experimentally at astronomical H-band (1.5-1.65 μm), and 2) Validation of the DBC as a possible beam combination scheme for future interferometric facilities through on-sky testing at the William Herschel Telescope (WHT). This work consisted of designing three different 3-D IO devices. One of the popular methods for fabricating 3-D photonic components in a glass substrate is ultra-fast laser inscription (ULI). Thus, manufacturing of the designed devices was outsourced to Politecnico di Milano as part of an iterative fabrication process using their state-of-the-art ULI facility. The devices were then characterized using a 2-beam Michelson interferometric setup obtaining both the monochromatic and polychromatic visibilities. The retrieved visibilities for all devices were in good agreement as predicted by the simulation results of a DBC, which confirms both the repeatability of the ULI process and the stability of the Michelson setup, thus fulfilling the first objective. The best-performing device was then selected for the pupil-remapping of the WHT using a different optical setup consisting of a deformable mirror and a microlens array. The device successfully collected stellar photons from Vega and Altair. The visibilities were retrieved using a previously calibrated {U} but showed significant deviations from the expected results. Based on the analysis of comparable simulations, it was found that such deviations were primarily caused by the limited SNR of the stellar observations, thus constituting a first step towards the fulfillment of the second objective. N2 - Das Auflösungsvermögen eines Teleskops, also die Fähigkeit, zwei Punktquellen voneinander zu trennen, wird durch ~λ/A bestimmt, wobei λ die Wellenlänge des Lichts und A der Durchmesser des Hauptspiegels des Teleskops ist. Wenn bei einem gegebenen Teleskop zwei punktförmige Objekte durch <λ/A getrennt sind, kann kein eindeutiges Bild dieser Objekte erzeugt werden und das Teleskopsystem ist somit beugungsbegrenzt. Kombiniert man jedoch das Licht von zwei Teleskopen, die durch einen Abstand B voneinander getrennt sind, erhöht sich die Auflösung um einen Faktor ~2B/A und überwindet damit die Beugungsgrenze eines einzelnen Teleskops. Daher wird bei der stellaren Interferometrie - deren Konzept von Michelson in den 1920er Jahren entwickelte wurde - Licht von zwei oder mehr Teleskopen kombiniert, um hochauflösende Bilder von astronomischen Objekten zu erzeugen. Die Anwendung der stellaren Interferometrie hat wichtige Beiträge zur Astronomie und Astrophysik geleistet, von der Untersuchung grundlegender Eigenschaften von Sternen bis hin zur Abbildung extragalaktischer Objekte. Das Herzstück einer interferometrischen Anlage ist ein Strahlkombinierer, der das Licht von mehreren Teleskopen (oder Aperturen) kombiniert, um kontrastreiche Interferenzstreifen zu erhalten. In der Anfangszeit konnte ein Strahlkombinierer ganz einfach sein, wie z.B. ein Strahlteiler oder eine anamorphotische Linse für die Kombination des Lichts von 2 Aperturen (oder Teleskopen), oder sehr komplex, wie z.B. eine Kaskade von Strahlteilern und Linsen, um Licht für >2 Aperturen zu kombinieren. Mit dem aufkommenden Gebiet der Astrophotonik setzen interferometrische Einrichtungen jedoch vermehrt photonische Technologien ein, indem Einzelmoden-Fasern oder ein Chip mit integrierter Optik (IO) verwendet werden, um Licht aus mehreren Aperturen effizient zu kombinieren. Bei der sogenannten pupil remapping interferometry Technik (dt etwa: neugeordnete Pupille) wird beispielsweise Licht mit mehreren Einzelmoden-Wellenleitern auf einem IO-Chip gesammelt. Diese Komponenten werden an der Position im Strahlengang eingefügt, an der die Pupille des Teleskops abgebildet wird. Anschließend wird das Licht aus den Fasern oder Wellenleitern durch eine Freistrahloptik oder IO-basierte Komponente interferometrisch überlagert, um Bilder sowohl mit hohem Kontrast als auch hoher Auflösung zu erzeugen. Im Kontext von IO-basierten Komponenten für stellare Interferometrie ist das Ziel dieser Arbeit die Entwicklung eines 3-dimensionalen (3-D) IO-Bauteils - eine monolithische Astrophotonik-Komponente, die sowohl die Pupil Remapper als auch einen discrete beam combiner (DBC) (dt: Diskreten Strahlkombinierer ) enthält. In dieser Arbeit sind die Pupil Remapper 3-D Einzelmoden-Wellenleiter, die in ein Glassubstrat eingeschrieben sind und das Licht von der abgebildeten Pupille des Teleskops sammeln und zu einem DBC leiten, in dem die Kombination stattfindet. Der DBC ist eine 3-D Gitteranordnung von Einzelmoden-Wellenleitern, die durch evaneszente Kopplung miteinander wechselwirken. Durch Beobachtung der Ausgangsleistung der Einzelmoden-Wellenleiter des DBCs werden mit Hilfe einer kalibrierten Übertragungsmatrix des Systems die Visibilities (dt: Kontrastwerte) ermittelt, die für eine hochauflösende Bildgebung erforderlich sind. Die Eignung von DBCs für die Ermittlung der Kontrastwerte wurde sowohl theoretisch als auch experimentell untersucht und in Fachzeitschriften publiziert. Bisher beschränkten sich diese Untersuchungen jedoch auf Labortests mit monochromatischen Lichtquellen. Die Ziele dieser Arbeit sind daher die folgenden: 1) Die Entwicklung eines IO-Bauteils für die Anwendung mit breitbandigem Licht, so dass Kontrastwerte im astronomischen H-Band (1,5-1,65 μm) ermittelt werden können, 2) experimentelle Demonstration genauer und präziser Kontrastwerte mit dem IO-Bauteil, welches mit der Femtosekundenlaser-Bearbeitungsmethode hergestellt wird, und 3) Validierung des DBCs als mögliches Konzept für die Strahlkombination für zukünftige interferometrische Anlagen durch On-Sky-Tests am William Herschel Teleskop. KW - stellar interferometry KW - ultra-fast laser inscription technology KW - astrophotonics KW - discrete beam cominer KW - pupil remappers KW - visibility KW - integrated optics KW - William Herschel telescope KW - on-sky tests KW - stellare Interferometrie KW - Femtosekundenlaser-Bearbeitungsmethode KW - Astrophotonik KW - diskreter Strahlkombinierer KW - Pupil Remapper KW - Kontrastwerte KW - integrierte Optik KW - William Herschel Teleskop KW - On-Sky-Tests Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558743 ER - TY - THES A1 - Kemter, Matthias T1 - River floods in a changing world T1 - Flusshochwasser in einer sich ändernden Welt N2 - River floods are among the most devastating natural hazards worldwide. As their generation is highly dependent on climatic conditions, their magnitude and frequency are projected to be affected by future climate change. Therefore, it is crucial to study the ways in which a changing climate will, and already has, influenced flood generation, and thereby flood hazard. Additionally, it is important to understand how other human influences - specifically altered land cover - affect flood hazard at the catchment scale. The ways in which flood generation is influenced by climatic and land cover conditions differ substantially in different regions. The spatial variability of these effects needs to be taken into account by using consistent datasets across large scales as well as applying methods that can reflect this heterogeneity. Therefore, in the first study of this cumulative thesis a complex network approach is used to find 10 clusters of similar flood behavior among 4390 catchments in the conterminous United States. By using a consistent set of 31 hydro-climatological and land cover variables, and training a separate Random Forest model for each of the clusters, the regional controls on flood magnitude trends between 1960-2010 are detected. It is shown that changes in rainfall are the most important drivers of these trends, while they are regionally controlled by land cover conditions. While climate change is most commonly associated with flood magnitude trends, it has been shown to also influence flood timing. This can lead to trends in the size of the area across which floods occur simultaneously, the flood synchrony scale. The second study is an analysis of data from 3872 European streamflow gauges and shows that flood synchrony scales have increased in Western Europe and decreased in Eastern Europe. These changes are attributed to changes in flood generation, especially a decreasing relevance of snowmelt. Additionally, the analysis shows that both the absolute values and the trends of flood magnitudes and flood synchrony scales are positively correlated. If these trends persist in the future and are not accounted for, the combined increases of flood magnitudes and flood synchrony scales can exceed the capacities of disaster relief organizations and insurers. Hazard cascades are an additional way through which climate change can influence different aspects of flood hazard. The 2019/2020 wildfires in Australia, which were preceded by an unprecedented drought and extinguished by extreme rainfall that led to local flooding, present an opportunity to study the effects of multiple preceding hazards on flood hazard. All these hazards are individually affected by climate change, additionally complicating the interactions within the cascade. By estimating and analyzing the burn severity, rainfall magnitude, soil erosion and stream turbidity in differently affected tributaries of the Manning River catchment, the third study shows that even low magnitude floods can pose a substantial hazard within a cascade. This thesis shows that humanity is affecting flood hazard in multiple ways with spatially and temporarily varying consequences, many of which were previously neglected (e.g. flood synchrony scale, hazard cascades). To allow for informed decision making in risk management and climate change adaptation, it will be crucial to study these aspects across the globe and to project their trajectories into the future. The presented methods can depict the complex interactions of different flood drivers and their spatial variability, providing a basis for the assessment of future flood hazard changes. The role of land cover should be considered more in future flood risk modelling and management studies, while holistic, transferable frameworks for hazard cascade assessment will need to be designed. N2 - Flusshochwasser gehören zu den verheerendsten Naturkatastrophen weltweit. Ihre Entstehung hängt von klimatischen Bedingungen ab, weshalb vorhergesagt wird, dass sich ihre Magnituden und Häufigkeit durch den Klimawandel ändern werden. Daher ist es notwendig zu untersuchen, auf welche Art sich ein verändertes Klima - auch im Vergleich mit Effekten durch Landbedeckungsänderungen - auf Hochwasserentstehung und -gefahr auswirken könnte und das bereits getan hat. Diese kumulative Arbeit beleuchtet drei Teilaspekte dieses Themas. In der ersten Studie werden mittels maschinellen Lernens die wichtigsten Variablen entdeckt und untersucht, die die Änderungen von Hochwassermagnituden in 4390 Einzugsgebieten in den USA von 1960-2010 kontrolliert haben. Es wird gezeigt, dass Änderungen der Regenmengen der entscheidende Faktor waren, während Landnutzung regional von großer Bedeutung war. Die zweite Studie untersucht von 1960-2010 Änderungen in der Distanz innerhalb welcher Hochwasser in verschiedenen Flüssen gleichzeitig auftreten. Daten von 3872 europäischen Flusspegeln zeigen, dass sich die Fläche der gleichzeitigen Überflutung in Westeuropa vergrößert und in Osteuropa verkleinert hat, was auf abnehmende Relevanz der Schneeschmelze bei der Hochwasserentstehung zurückzuführen ist. Die dritte Studie behandelt die Auswirkungen kaskadierender Naturkatastrophen auf Hochwasser am Beispiel der australischen Waldbrände 2019/2020. Die Untersuchung der verschieden stark betroffenen Nebenflüsse des Manning River zeigt, dass in einer Naturgefahrenkaskade selbst gewöhnliche Hochwasser substantielle Auswirkungen haben können. Diese Arbeit zeigt, dass die Menschheit Hochwassergefahren auf verschiedene Arten und mit räumlich sowie zeitlich variablen Resultaten beeinflusst. Diese Aspekte müssen zukünftig global näher untersucht und ihre Entwicklung für die Zukunft modelliert werden, um fundierte Entscheidungen in Hochwasserschutz treffen zu können. Für Hochwassermagnituden und die Fläche gleichzeitiger Überflutung können hierfür die präsentierten Methoden adaptiert werden. KW - hydrology KW - climate change KW - flood KW - Hydrologie KW - Klimawandel KW - Hochwasser Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558564 ER - TY - THES A1 - Schulte, Luise T1 - Dynamics of Larix (Mill.) species in Siberia during the last 50,000 years inferred from sedimentary ancient DNA T1 - Die Dynamik sibirischer Lärchenarten (Larix Mill.) während der der letzten 50.000 Jahre, untersucht mittels sedimentärer alter DNA N2 - The deciduous needle tree larch (Larix Mill.) covers more than 80% of the Asian boreal forests. Only a few Larix species constitute the vast forests and these species differ markedly in their ecological traits, most importantly in their ability to grow on and stabilize underlying permafrost. The pronounced dominance of the summergreen larches makes the Asian boreal forests unique, as the rest of the northern hemisphere boreal forests is almost exclusively dominated by evergreen needle-leaf forests. Global warming is impacting the whole world but is especially pronounced in the arctic and boreal regions. Although adapted to extreme climatic conditions, larch forests are sensitive to varying climatic conditions. By their sheer size, changes in Asian larch forests as range shifts or changes in species composition and the resulting vegetation-climate feedbacks are of global relevance. It is however still uncertain if larch forests will persist under the ongoing warming climate or if they will be replaced by evergreen forests. It is therefore of great importance to understand how these ecosystems will react to future climate warmings and if they will maintain their dominance. One step in the better understanding of larch dynamics is to study how the vast dominant forests developed and why they only established in northern Asia. A second step is to study how the species reacted to past changes in the climate. The first objective of this thesis was to review and identify factors promoting Asian larch dominance. I achieved this by synthesizing and comparing reported larch occurrences and influencing components on the northern hemisphere continents in the present and in the past. The second objective was to find a possibility to directly study past Larix populations in Siberia and specifically their genetic variation, enabling the study of geographic movements. For this, I established chloroplast enrichment by hybridization capture from sedimentary ancient DNA (sedaDNA) isolated from lake sediment records. The third objective was to use the established method to track past larch populations, their glacial refugia during the Last Glacial Maximum (LGM) around 21,000 years before present (ka BP), and their post-glacial migration patterns. To study larch promoting factors, I compared the present state of larch species ranges, areas of dominance, their bioclimatic niches, and the distribution on different extents and thaw depths of permafrost. The species comparison showed that the bioclimatic niches greatly overlap between the American and Asian species and that it is only in the extremely continental climates in which only the Asian larch species can persist. I revealed that the area of dominance is strongly connected to permafrost extent but less linked to permafrost seasonal thaw depths. Comparisons of the paleorecord of larch between the continents suggest differences in the recolonization history. Outside of northern Asia and Alaska, glacial refugial populations of larch were confined to the southern regions and thus recolonization could only occur as migration from south to north. Alaskan larch populations could not establish wide-range dominant forest which could be related to their own genetically depletion as separated refugial population. In Asia, it is still unclear whether or not the northern refugial populations contributed and enhanced the postglacial colonization or whether they were replaced by populations invading from the south in the course of climate warming. Asian larch dominance is thus promoted partly by adaptions to extremely continental climates and by adaptations to grow on continuous permafrost but could be also connected to differences in glacial survival and recolonization history of Larix species. Except for extremely rare macrofossil findings of fossilized cones, traditional methods to study past vegetation are not able to distinguish between larch species or populations. Within the scope of this thesis, I therefore established a method to retrieve genetic information of past larch populations to distinguish between species. Using the Larix chloroplast genome as target, I successfully applied the method of DNA target enrichment by hybridization capture on sedaDNA samples from lake records and showed that it is able to distinguish between larch species. I then used the method on samples from lake records from across Siberia dating back up to 50 ka BP. The results allowed me to address the question of glacial survival and post-glacial recolonization mode in Siberian larch species. The analyzed pattern showed that LGM refugia were almost exclusively constituted by L. gmelinii, even in sites of current L. sibirica distribution. For included study sites, L. sibirica migrated into its extant northern distribution area only in the Holocene. Consequently, the post-glacial recolonization of L. sibirica was not enhanced by northern glacial refugia. In case of sites in extant distribution area of L. gmelinii, the absence of a genetic turn-over point to a continuous population rather than an invasion of southern refugia. The results suggest that climate has a strong influence on the distribution of Larix species and that species may also respond differently to future climate warming. Because species differ in their ecological characteristics, species distribution is also relevant with respect to further feedbacks between vegetation and climate. With this thesis, I give an overview of present and past larch occurrences and evaluate which factors promote their dominance. Furthermore, I provide the tools to study past Larix species and give first important insights into the glacial history of Larix populations. N2 - Der sommergrüne Nadelbaum Lärche (Larix Mill.) bedeckt mehr als 80 % der Fläche der borealen Wälder Asiens. Nur wenige Lärchenarten bilden ausgedehnte Wälder und diese Arten unterscheiden sich deutlich in ihren ökologischen Eigenschaften, vor allem in ihrer Fähigkeit, auf Permafrost zu wachsen und diesen zu stabilisieren. Die ausgeprägte Dominanz der sommergrünen Lärchen macht die asiatischen borealen Wälder einzigartig, da der Rest der borealen Wälder der Nordhalbkugel fast ausschließlich von immergrünen Nadelwäldern dominiert wird. Die Klimaerwärmung wirkt sich auf die ganze Welt aus, ist aber in den arktischen und borealen Regionen besonders ausgeprägt. Obwohl die Lärchenwälder an extreme klimatische Bedingungen angepasst sind, reagieren sie empfindlich auf klimatische Schwankungen. Aufgrund ihrer schieren Größe sind Veränderungen in asiatischen Lärchenwäldern, wie z. B. Verschiebungen des Verbreitungsgebiets oder Veränderungen in der Artenzusammensetzung und die daraus resultierenden Rückkopplungen zwischen Vegetation und Klima, von globaler Bedeutung. Es ist jedoch noch ungewiss, ob die Lärchenwälder unter der fortschreitenden Klimaerwärmung bestehen bleiben oder durch immergrüne Wälder ersetzt werden. Es ist daher von großer Bedeutung zu verstehen, wie diese Ökosysteme auf die künftige Klimaerwärmung reagieren werden und ob sie ihre Dominanz behalten werden. Ein Schritt zum besseren Verständnis der Lärchendynamik besteht darin, zu untersuchen, wie die riesigen dominanten Wälder von heute entstanden sind und warum sie sich nur in Nordasien etabliert haben. In einem zweiten Schritt soll untersucht werden, wie die Art auf vergangene Klimaveränderungen reagiert hat. Das erste Ziel dieser Arbeit bestand darin, die Faktoren zu ermitteln, die die Dominanz der asiatischen Lärche begünstigen. Dies erreichte ich, indem ich die dokumentierten Lärchenvorkommen und die sie beeinflussenden Komponenten auf den Kontinenten der nördlichen Hemisphäre in der Gegenwart und in der Vergangenheit gesammelt und verglichen habe. Das zweite Ziel bestand darin, eine Möglichkeit zu finden, frühere Lärchenpopulationen in Sibirien und insbesondere ihre genetische Variation direkt zu studieren, um geografische Bewegungen untersuchen zu können. Dafür etablierte ich die Methode der Anreicherung von Chloroplasten durch Hybridisierung von alter sedimentärer DNA (sedaDNA) isoliert aus Seesedimenten. Das dritte Ziel bestand darin, die etablierte Methode zu nutzen, um vergangene Lärchenpopulationen, ihre eiszeitlichen Refugien während des letzten glazialen Maximums (LGM) um ca. 21.000 Jahre vor der Gegenwart (ka BP) und ihre nacheiszeitlichen Migrationsmuster zu verfolgen. Um die Faktoren zu untersuchen, die die Ausbreitung der Lärche begünstigen, verglich ich den gegenwärtigen Stand der Verbreitungsgebiete der Lärchenarten, die Gebiete, in denen sie vorherrschen, ihre bioklimatischen Nischen und die Verteilung auf verschiedene Ausdehnungen und Auftautiefen des Permafrosts. Der Artenvergleich zeigte, dass sich die bioklimatischen Nischen der amerikanischen und asiatischen Arten stark überschneiden und dass nur in den extrem kontinentalen Klimazonen ausschließlich die asiatischen Lärchenarten überleben können. Es zeigte sich, dass das Verbreitungsgebiet stark mit der Permafrostausdehnung zusammenhängt, aber weniger mit der saisonalen Auftautiefe des Permafrosts. Der Vergleich vergangener Lärchenvorkommen zwischen den Kontinenten deutet auf Unterschiede in der Rekolonisationsgeschichte hin. Außerhalb Nordasiens und Alaskas waren die eiszeitlichen Lärchenpopulationen auf die südlichen Regionen beschränkt, so dass die Wiederbesiedlung nur als Wanderung von Süden nach Norden erfolgen konnte. Die Lärchenpopulationen in Alaska konnten keinen weiträumig dominanten Wald etablieren, was mit ihrer eigenen genetischen Verarmung als abgeschiedene Refugialpopulation zusammenhängen könnte. In Asien ist noch unklar, ob die nördlichen Refugialpopulationen zur nacheiszeitlichen Besiedlung beigetragen und diese verstärkt haben oder ob sie im Zuge der Klimaerwärmung durch von Süden eindringende Populationen ersetzt wurden. Die Dominanz der asiatischen Lärche wird also zum Teil durch Anpassungen an das extrem kontinentale Klima und durch Anpassungen an das Wachstum auf kontinuierlichem Permafrost begünstigt, könnte aber auch mit Unterschieden in der glazialen Überlebens- und Rekolonisationsgeschichte der Larix-Arten zusammenhängen. Abgesehen von den äußerst seltenen Makrofossilienfunden versteinerter Zapfen sind die herkömmlichen Methoden zur Untersuchung der vergangenen Vegetation nicht in der Lage, zwischen Lärchenarten oder -populationen zu unterscheiden. Im Rahmen dieser Arbeit habe ich daher eine Methode zur Gewinnung genetischer Informationen früherer Lärchenpopulationen entwickelt, um zwischen den Arten zu unterscheiden. Unter Verwendung des Larix-Chloroplastengenoms habe ich die Methode der DNA-Anreicherung durch Hybridisierung erfolgreich auf sedaDNA-Proben aus See-sedimentbohrkernen angewandt und gezeigt, dass die Methode erlaubt zwischen Lärchenarten zu unterscheiden. Anschließend wendete ich die Methode auf Proben aus Seen in ganz Sibirien an, die bis zu 50 ka BP zurückreichen. Anhand der Ergebnisse konnte ich zur Beantwortung der Frage beitragen, welche sibirische Lärchenarten während des LGM überlebten und wie die postglaziale Wiederbesiedlung stattfand. Das analysierte Muster zeigte, dass die LGM-Refugien fast ausschließlich von L. gmelinii gebildet wurden, selbst an Orten, an denen heute L. sibirica verbreitet ist. In den untersuchten Gebieten ist L. sibirica erst im Holozän in ihr heutiges nördliches Verbreitungsgebiet eingewandert. Folglich wurde die nacheiszeitliche Wiederbesiedlung von L. sibirica nicht durch nördliche eiszeitliche Refugien gefördert. Im Falle der Standorte im heutigen Verbreitungsgebiet von L. gmelinii deutet das Fehlen eines Wechsels genetischer Variation eher auf eine kontinuierliche Population als auf eine Invasion aus südlichen Refugien hin. Die Ergebnisse deuten darauf hin, dass das Klima einen starken Einfluss auf die Verbreitung von Larix-Arten hat und die Arten auch auf zukünftige Klimaerwärmung unterschiedlich reagieren könnten. Da die Arten sich in ihren ökologischen Eigenschaften unterscheiden, ist eine Änderung in der Verbreitung der Arten auch im Hinblick auf weitere Rückkopplungen zwischen Vegetation und Klima relevant. In dieser Arbeit gebe ich einen Überblick über die heutigen und früheren Lärchenvorkommen und bewerte, welche Faktoren ihre Dominanz begünstigen. Darüber hinaus stelle ich eine Methode zur Untersuchung vergangener Lärchenarten bereit und gebe erste wichtige Einblicke in ihre glaziale Geschichte. KW - ancient DNA KW - ancient sedimentary DNA KW - Larix KW - larch KW - glacial refugia KW - postglacial recolonization KW - phylogeography KW - hybridization capture KW - target enrichment KW - shotgun sequencing KW - chloroplast KW - Siberia KW - Larix KW - Sibirien KW - alte DNA KW - alte sedimentäre DNA KW - Chloroplast KW - glaziale Refugien KW - Lärche KW - Phylogeographie KW - nacheiszeitliche Wiederbesiedlung KW - Shotgun Sequenzierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558782 ER - TY - THES A1 - Lissón Hernández, Paula J. T1 - Computational models of sentence comprehension in aphasia T1 - Komputationale Modelle des Satzverständnisses bei Aphasie N2 - It is well-known that individuals with aphasia (IWA) have difficulties understanding sentences that involve non-adjacent dependencies, such as object relative clauses or passives (Caplan, Baker, & Dehaut, 1985; Caramazza & Zurif, 1976). A large body of research supports the view that IWA’s grammatical system is intact, and that comprehension difficulties in aphasia are caused by a processing deficit, such as a delay in lexical access and/or in syntactic structure building (e.g., Burkhardt, Piñango, & Wong, 2003; Caplan, Michaud, & Hufford, 2015; Caplan, Waters, DeDe, Michaud, & Reddy, 2007; Ferrill, Love, Walenski, & Shapiro, 2012; Hanne, Burchert, De Bleser, & Vasishth, 2015; Love, Swinney, Walenski, & Zurif, 2008). The main goal of this dissertation is to computationally investigate the processing sources of comprehension impairments in sentence processing in aphasia. In this work, prominent theories of processing deficits coming from the aphasia literature are implemented within two cognitive models of sentence processing –the activation-based model (Lewis & Vasishth, 2005) and the direct-access model (McEl- ree, 2000)–. These models are two different expressions of the cue-based retrieval theory (Lewis, Vasishth, & Van Dyke, 2006), which posits that sentence processing is the result of a series of iterative retrievals from memory. These two models have been widely used to account for sentence processing in unimpaired populations in multiple languages and linguistic constructions, sometimes interchangeably (Parker, Shvarts- man, & Van Dyke, 2017). However, Nicenboim and Vasishth (2018) showed that when both models are implemented in the same framework and fitted to the same data, the models yield different results, because the models assume different data- generating processes. Specifically, the models hold different assumptions regarding the retrieval latencies. The second goal of this dissertation is to compare these two models of cue-based retrieval, using data from individuals with aphasia and control participants. We seek to answer the following question: Which retrieval mechanism is more likely to mediate sentence comprehension? We model 4 subsets of existing data: Relative clauses in English and German; and control structures and pronoun resolution in German. The online data come from either self-paced listening experiments, or visual-world eye-tracking experiments. The offline data come from a complementary sentence-picture matching task performed at the end of the trial in both types of experiments. The two competing models of retrieval are implemented in the Bayesian framework, following Nicenboim and Vasishth (2018). In addition, we present a modified version of the direct-acess model that – we argue – is more suitable for individuals with aphasia. This dissertation presents a systematic approach to implement and test verbally- stated theories of comprehension deficits in aphasia within cognitive models of sen- tence processing. The conclusions drawn from this work are that (a) the original direct-access model (as implemented here) cannot account for the full pattern of data from individuals with aphasia because it cannot account for slow misinterpretations; and (b) an activation-based model of retrieval can account for sentence comprehension deficits in individuals with aphasia by assuming a delay in syntactic structure building, and noise in the processing system. The overall pattern of results support an activation-based mechanism of memory retrieval, in which a combination of processing deficits, namely slow syntax and intermittent deficiencies, cause comprehension difficulties in individuals with aphasia. N2 - Es ist allgemein bekannt, dass Menschen mit Aphasie (PmA) Verständnisschwierigkeiten bei Sätzen haben, die nicht zusammenhängende Abhängigkeiten, wie z.B. Objektrelativsätze oder Passive, enthalten (Caplan, Baker, & Dehaut, 1985; Caramazza & Zurif, 1976). Ein Großteil der Forschung unterstützt dabei die Ansicht, dass das grammatikalische System von Personen mit Aphasie (PmA) intakt ist und dass die Verständnisschwierigkeiten bei Aphasie durch ein Verarbeitungsdefizit, wie z.B. einer Verzögerung beim lexikalischen Zugriff und/oder beim syntaktischen Strukturaufbau, verursacht werden (siehe, Burkhardt, Pin˜ango, & Wong, 2003; Caplan, Michaud, & Hufford, 2015; Caplan, Waters, DeDe, Michaud, & Reddy, 2007; Ferrill, Love, Walenski, & Shapiro, 2012; Hanne, Burchert, De Bleser, & Vasishth, 2015; Love, Swinney, Walenski, & Zurif, 2008). Das wesentliche Ziel dieser Dissertation ist deshalb die rechnergestützte Untersuchung der Verarbeitungsquellen von Verständnisstörungen bei der Satzverarbeitung bei Aphasie. In dieser Arbeit werden bekannte Theorien der Verarbeitungsdefizite aus der Literatur über Aphasie mit zwei kognitiven Modellen der Satzverarbeitung verbunden, dem activation-based Modell (Lewis & Vasishth, 2005) und dem direct-acces Modell (McElree, 2000). Beide Modelle sind zwei verschiedene Ausprägungen der cue-based retrieval Theorie (Lewis, Vasishth, & Van Dyke, 2006), die annimmt, dass die Satzverarbeitung das Ergenis einer Reihe iterativer Abrufe aus dem Gedächtnis ist. Diese beiden Modelle wurden häufig und vereinzelt austauschbar verwendet, um die Satzverarbeitung in nicht beeinträchtigten Populationen in mehreren Sprachen und sprachlichen Konstruktionen zu erklären (Parker, Shvartsman, & Van Dyke, 2017). Allerdings konnten sowohl Nicenboim als auch Vasishth (2018) zeigen, dass wenn beide Modelle im gleichen Framework implementiert und an die gleichen Daten angepasst werden, die Modelle verschiedene Ergebnisse ergaben, weil die Modelle abweichende Prozesse in der Generierung der Daten annahmen. Insbesondere enthalten die Modelle unterschiedliche Annahmen bezüglich der Abruf-Latenzen. Das zweite Ziel dieser Dissertation ist der Vergleich der beiden Stichwort Abruf basierten Modelle unter Verwendung von Daten von Individuen mit Aphasie und einer Kontrollgruppe. Wir versuchen dabei die folgenden Fragen zu beantworten: Welcher Abrufmechanismus vermittelt eher das Satzverständnis? Wir modellieren 4 Untergruppen von existierenden Daten: Relativsätze in Englisch und Deutsch; und Kontrollstrukturen und Pronomenauflösung im Deutschen. Die Online-Daten entstammen entweder Hörexperimenten in eigenem Tempo oder Eye-Tracking-Experimenten der visuellen Welt. Die Offline-Daten kommen aus einem am Ende beider Versuche durchgeführten ergänzenden Satz-Bild-Matching-Aufgabe. Die sich gegenüberstehenden Abruf-Modelle werden in einem Bayesian Framework nach Nicemboim und Vasishth (2018) implementiert. Darüber hinaus stellen wir ein verändertes direct-access Modell vor, welches, gemäß unserer Argumentation, besser für Menschen mit Aphasie geeignet ist. Diese Dissertation präsentiert ein systematisches Vorgehen zur Implementierung und verbalem Testen bestehender Theorien von Verständnisdefiziten bei Aphasie mittels kognitiver Modelle der Satzverarbeitung. Aus dieser Arbeit ergeben sich folgende Schlussfolgerungen: Das hier verwendete ursprüngliche direct-access Modell kann nicht das ganze Daten-Muster von PmA erklären, da es langsame Fehlinterpretationen nicht abdecken kann; und das activation-based Modell kann Satzverständnisschwierigkeiten von PmA durch Annahme von Verzögerungen in der Bildung syntaktischer Strukturen und Rauschen im Verarbeitungssystem berücksichtigen. Insgesamt weist das Muster der Ergebnisse auf einen Aktivierungsbasierten Mechanismus des Abrufs von Erinnerungen hin, bei dem eine Kombination aus Verarbeitungsdefiziten (namentlich langsame Syntax und intermittierende Schwierigkeiten) Verständnisschwierigkeiten bei PmA verursacht. KW - aphasia KW - cognitive modeling KW - sentence processing KW - cue-based retrieval KW - Aphasie KW - kognitive Modellierung KW - cue-based retrieval KW - Satzverständnisses Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555487 ER - TY - THES A1 - Hain, Tobias Martin T1 - Structure formation and identification in geometrically driven soft matter systems T1 - Strukturbildung und Identifikation in geometrisch getriebenen weiche Materie-Systemen N2 - Subdividing space through interfaces leads to many space partitions that are relevant to soft matter self-assembly. Prominent examples include cellular media, e.g. soap froths, which are bubbles of air separated by interfaces of soap and water, but also more complex partitions such as bicontinuous minimal surfaces. Using computer simulations, this thesis analyses soft matter systems in terms of the relationship between the physical forces between the system's constituents and the structure of the resulting interfaces or partitions. The focus is on two systems, copolymeric self-assembly and the so-called Quantizer problem, where the driving force of structure formation, the minimisation of the free-energy, is an interplay of surface area minimisation and stretching contributions, favouring cells of uniform thickness. In the first part of the thesis we address copolymeric phase formation with sharp interfaces. We analyse a columnar copolymer system "forced" to assemble on a spherical surface, where the perfect solution, the hexagonal tiling, is topologically prohibited. For a system of three-armed copolymers, the resulting structure is described by solutions of the so-called Thomson problem, the search of minimal energy configurations of repelling charges on a sphere. We find three intertwined Thomson problem solutions on a single sphere, occurring at a probability depending on the radius of the substrate. We then investigate the formation of amorphous and crystalline structures in the Quantizer system, a particulate model with an energy functional without surface tension that favours spherical cells of equal size. We find that quasi-static equilibrium cooling allows the Quantizer system to crystallise into a BCC ground state, whereas quenching and non-equilibrium cooling, i.e. cooling at slower rates then quenching, leads to an approximately hyperuniform, amorphous state. The assumed universality of the latter, i.e. independence of energy minimisation method or initial configuration, is strengthened by our results. We expand the Quantizer system by introducing interface tension, creating a model that we find to mimic polymeric micelle systems: An order-disorder phase transition is observed with a stable Frank-Caspar phase. The second part considers bicontinuous partitions of space into two network-like domains, and introduces an open-source tool for the identification of structures in electron microscopy images. We expand a method of matching experimentally accessible projections with computed projections of potential structures, introduced by Deng and Mieczkowski (1998). The computed structures are modelled using nodal representations of constant-mean-curvature surfaces. A case study conducted on etioplast cell membranes in chloroplast precursors establishes the double Diamond surface structure to be dominant in these plant cells. We automate the matching process employing deep-learning methods, which manage to identify structures with excellent accuracy. N2 - Die Unterteilung eines Raums durch Grenzflächen führt zu Raumaufteilungen, die für die Selbstorganisation weicher Materie relevant sind. Bekannte Beispiele sind zelluläre Medien, wie z.B. Seifenschaum, der aus Luftblasen besteht, getrennt durch Wände aus Wasser und Seife, und komplexere Partitionen, wie sie z.B. durch bikontinuierliche Minimalflächen erzeugt werden. In dieser Arbeit werden mit Hilfe von Computersimulationen Systeme weicher Materie in Bezug auf den Zusammenhang zwischen dem im System vorherrschenden, physikalischen Kräften und der Struktur der resultierenden Grenzflächen oder Partitionen untersucht. Der Schwerpunkt liegt hierbei auf zwei Systemen, eine Copolymerschmelze und das sogenannte Quantizer Problem, bei denen der treibende Faktor der Strukturbildung, nämlich die Minimierung der freien Energie, aus einem Zusammenspiel der Minimierung der Oberfläche der Grenzflächen und der gleichzeitigen Minimierung der Elastizitätsenergie besteht. Unter diesen Gegebenheiten bevorzugen solche Systeme Zellen gleichmäßiger Größe. Im ersten Teil der Arbeit befassen wir uns mit der Bildung von scharfen Grenzflächen in Systemen von Copolymeren. Wir analysieren die zylindrische Phase eines Copolymersystems, das gezwungen wird, sich auf einer kugelförmigen Oberfläche zu organisieren. Die Topologie dieser Oberfläche erlaubt es der optimalen Konfiguration, dem Sechseckgitter, nicht, sich zu bilden. Für dreiarmige Copolymere wird die entstehende Struktur durch Lösungen des sogenannten Thomson Problems beschrieben. Letzteres sucht nach der Konfigurationen von abstoßenden Ladungen auf einer Kugeloberfläche mit minimaler Energie. Auf einem Substrat haben wir eine Kombination aus drei ineinandergreifende Lösungen des Thomson Problems gefunden, wobei der Typ der Lösungen statistisch von dem Radius des Substrates abhängt. Anschließend untersuchen wir die Bildung von amorphen und kristallinen Strukturen im Quantizersystem, einem teilchenbasierenden Modell, dessen Energiefunktional keine Oberflächenspannung enthält und möglichst kugelförmige Zellen gleicher Größe begünstigt. Wird das System quasistatisch im thermodynamischen Gleichgewicht abgekühlt, kristallisiert das Quantizersystem in den geordneten BCC Grundzustand. Wird das System allerdings zu schnell abgekühlt, sodass es sich nicht mehr im thermodynamischen Gleichgewicht befindet, bildet sich eine amorphe, annähernd hyperuniforme Struktur aus. Wir konnten zeigen, dass diese Struktur bemerkenswert unabhängig von den Ausganszuständen, sowie der Art der Energieminimierung zu sein scheint. Im Ausblick erweitern wir das Quantizersystem, indem wir Oberflächenspannung einführen. Unsere Ergebnisse deutet darauf hin, dass dieses so erweiterte Modell Mizellenphasen in Polymersystem modellieren kann. Wir beobachten einen Phasenübergang von einer ungeordneten, flüssigen Phase hin zu einer festen Frank-Caspar-Phase. Der zweite Teil der Arbeit behandelt bikontinuierliche Grenzflächen, die den Raum in zwei netzwerkartige Domänen aufteilen. Wir führen eine Open-Source Software ein, das die Identifizierung von Strukturen anhand derer Mikroskopaufnahmen ermöglicht. Hierzu erweitern und verbessern wir eine Methode, die durch den Abgleich experimentell zugänglicher Projektionen in Mikroskopaufnahmen mit berechneten Projektionen potenzieller Strukturen basiert. Dieses Verfahren wurde erstmal von Deng und Mieczkowski (1998) eingeführt. Die simulierten Strukturen basieren auf einer Nodalflächenmodellierung von dreifach-periodischen Flächen konstanter mittlerer Krümmung. Wir führen eine Fallstudie an Zellmembranen von Etioplasten, den Vorläufern von Chloroplasten, durch. Wir konnten die Struktur dieser Etioplasten als die Diamond-Struktur identifizieren. Als Ausblick automatisieren wir den Identifizierungsproyess mit Hilfe von Deep-Learning-Methoden. Erste Ergebnisse zeigen, dass mit diesem Ansatz die Identifizierung von Strukturen mit ausgezeichneter Genauigkeit gelingt. KW - soft matter KW - geometry KW - self-assembly KW - structure formation KW - quantizer KW - polymer KW - Geometrie KW - Polymere KW - Quantizer KW - Selbstassemblierung KW - weiche Materie KW - Strukturbildung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558808 N1 - Parts of this publication are reproduced with permission from the Royal Society of Chemistry and AIP Publishing. ER - TY - THES A1 - Wittbrodt, Linda T1 - Minimum wage effects in Germany and Europe – four essays N2 - Am 1. Januar 2015 wurde in Deutschland ein allgemeiner gesetzlicher Mindestlohn in Höhe von 8,50 € brutto pro Stunde eingeführt. Diese Dissertation widmet sich den Auswirkungen der Mindestlohneinführung in Deutschland sowie Lohnuntergrenzen im Europäischen Kontext und trägt damit zur nationalen und internationalen Forschung bei. Das zweite Kapitel dieser Arbeit fasst die in bisherigen Studien herausgearbeiteten kurzfristigen Effekte der Mindestlohnreform in einem Überblick zusammen. Es zeigt sich, dass die Mindestlohneinführung einen deutlich positiven Effekt auf die Löhne am unteren Ende der Verteilung hatte. Allerdings wies kurz nach der Reform noch ein nicht unerheblicher Anteil der Beschäftigungsverhältnisse Löhne unter 8,50 € auf. Weiterhin deutet die Evidenz auf geringe negative Beschäftigungseffekte hin, welche durch eine Reduktion von Minijobs getrieben ist. Entgegen der Erwartungen konnten jedoch in der kurzen Frist keine Effekte auf Armut und allgemeine Ungleichheit gefunden werden. Dies hängt insbesondere mit der Tatsache zusammen, dass Arbeitsstunden reduziert wurden und sich die Stundenlohnerhöhung daher nicht auf die Monatslöhne niederschlug. Das dritte Kapitel geht der Frage nach, ob die im Vorfeld prognostizierten Arbeitsplatzverluste im Zuge der Reform kurzfristig eingetreten sind und welche Art der Beschäftigung davon gegebenenfalls stärker betroffen war. Zur empirischen Identifikation der Effekte wird in diesem (sowie im vierten Kapitel) ein regionaler Differenzen-von-Differenzen-Ansatz verwendet, mit dem die Auswirkungen auf reguläre Beschäftigung (Teil- und Vollzeit) sowie Minijobs geschätzt werden. Unsere Ergebnisse deuten darauf hin, dass der Mindestlohn die Gesamtbeschäftigung leicht reduziert hat, was im Wesentlichen auf einen Rückgang von Minijobs zurückzuführen ist. Das vierte Kapitel schließt methodisch an das vorige an. Seine Motivation ergibt sich aus der Beobachtung, dass Frauen unter den Niedriglohnempfänger:innen häufig überrepräsentiert sind. Die primäre Forschungsfrage in diesem Kapitel ist daher, ob der Mindestlohn zu einer Verringerung der geschlechterspezifischen Lohnlücke geführt hat. Dazu identifizieren wir die Effekte auf die Lohnlücke am 10. und 25. Perzentil sowie beim Mittelwert der zugrundeliegenden geschlechtsspezifischen Lohnverteilungen. Unsere Ergebnisse zeigen, dass – verglichen mit Regionen mit niedriger Eingriffstiefe – die geschlechtsspezifische Lohnlücke am 10. Perzentil für mindestlohnberechtigte Beschäftigte in Regionen mit hoher Eingriffstiefe um 4,6 Prozentpunkte gesunken ist. Wir schätzen, dass dies eine Reduktion um 32\% im Vergleich zu 2014 bedeutet. Am 25. Perzentil und am Mittelwert sind die Auswirkungen geringer und nicht gleichermaßen robust. Das fünfte Kapitel behält den geschlechterspezifischen Fokus auf die Mindestlohneffekte bei. Im Vergleich zum Rest der Dissertation weitet es jedoch den Blick auf andere Länder der Europäischen Union. Gemäß der für das vorangegangene Kapitel dargelegten Überlegungen, könnten Frauen potenziell besonders von einem Mindestlohn profitieren. Dies könnte jedoch auch bedeuten, dass sie dadurch auch öfter von Arbeitsplatzverlusten oder Arbeitszeitverkürzungen betroffen sind. Dieses Kapitel resümiert daher einerseits vorhandene Evidenz aus EU-Staaten, die sich auf den Zusammenhang zwischen Lohnuntergrenzen und der geschlechtsspezifischen Lohnlücke bezieht. Darüber hinaus enthält es eine systematische Zusammenfassung von Studien, die den Einfluss von Mindestlöhnen auf Beschäftigungsverluste oder Arbeitszeitveränderungen untersuchen, von denen insbesondere Frauen betroffen sind. Es zeigen sich Hinweise, dass höhere Lohnuntergrenzen mit einer geringeren geschlechtsspezifischen Lohnlücke verbunden sind. Hinsichtlich der Beschäftigung scheinen Frauen nicht per se größere Beschäftigungsverluste zu erleiden als Männer. Allerdings zeigen Studien, dass sich der Mindestlohn hier besonders auf Teilzeitbeschäftigte auswirkt. Es ist daher nicht auszuschließen, dass der negative Zusammenhang zwischen dem Mindestlohn und dem geschlechtsspezifischen Lohngefälle mit den Arbeitsplatzverlusten dieser schlechter bezahlten, oft weiblichen Teilzeitbeschäftigten zusammenhängt. Diese spezifische Form der Arbeit sollte daher im Zusammenhang mit dem Mindestlohn besondere Beachtung finden. N2 - On January 1, 2015, Germany introduced a general statutory minimum wage of €8.50 gross per hour. This thesis analyses the effects of the minimum wage introduction in Germany as well as wage floors in the European context, contributing to national and international research. The second chapter of this dissertation summarizes the short-run effects of the minimum wage reform found in previous studies. We show that the introduction of the minimum wage had a positive effect on wages at the bottom of the distribution. Yet, there was still a significant amount of non-compliance shortly after the reform. Additionally, previous evidence points to small negative employment effects mainly driven by a reduction in mini-jobs. Contrary to expectations, though, there were no effects on poverty and general inequality found in the short run. This is mostly due to the fact that working hours were reduced and the increase of hourly wages was therefore not reflected in monthly wages. The third chapter identifies whether the job losses predicted in ex-ante studies materialized in the short run and, if so, which type of employment was affected the most. To identify the effects, this chapter (as well as chapter four) uses a regional difference-in-difference approach to estimate the effects on regular employment (part- and full-time) and mini-jobs. Our results suggest that the minimum wage has slightly reduced overall employment, mainly due to a decline in mini-jobs. The fourth chapter has the same methodological approach as the previous one. Its motivated by the fact that women are often overrepresented among low-wage employees. Thus, the primary research question in this chapter is whether the minimum wage has led to a narrowing of the gender wage gap. In order to answer that, we identify the effects on the wage gap at the 10th and 25th percentiles and at the mean of the underlying gender-specific wage distributions. Our results imply that for eligible employees the gender wage gap at the 10th percentile decreased by 4.6 percentage points between 2014 and 2018 in high-bite regions compared to low-bite regions. We estimate this to be a reduction of 32% compared to 2014. Higher up the distribution – i.e. at the 25th percentile and the mean – the effects are smaller and not as robust. The fifth chapter keeps the gender-specific emphasis on minimum wage effects. However, in contrast to the rest of the dissertation, it widens the scope to other European Union countries. Following the rationale of the previous chapter, women could potentially benefit particularly from a minimum wage. However, they could also be more prone to suffer from the possibly induced job losses or reductions in working hours. Therefore, this chapter summarizes existing evidence from EU member states dealing with the relationship between wage floors and the gender wage gap. In addition, it provides a systematic summary of studies that examine the impact of minimum wages on employment losses or changes in working hours that particularly affect women. The evidence shows that higher wage floors are often associated with smaller gender wage gaps. With respect to employment, women do not appear to experience greater employment losses than men per se. However, studies show that the minimum wage has a particular impact on part-time workers. Therefore, it cannot be ruled out that the negative correlation between the minimum wage and the gender wage gap is related to the job losses of these lower-paid, often female, part-time workers. This working arrangement should therefore be specially focused on in the context of minimum wages. KW - minimum wage KW - employment effects KW - gender wage gap KW - Beschäftigungseffekte KW - Mindestlohn KW - geschlechtsspezifische Lohnlücke Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556977 ER - TY - THES A1 - Müller, Daniela T1 - Abrupt climate changes and extreme events in two different varved lake sediment records T1 - Abrupte Klimaveränderungen und Extremevents in Sedimentprofilen zweier verschiedener warvierter Seen N2 - Different lake systems might reflect different climate elements of climate changes, while the responses of lake systems are also divers, and are not completely understood so far. Therefore, a comparison of lakes in different climate zones, during the high-amplitude and abrupt climate fluctuations of the Last Glacial to Holocene transition provides an exceptional opportunity to investigate distinct natural lake system responses to different abrupt climate changes. The aim of this doctoral thesis was to reconstruct climatic and environmental fluctuations down to (sub-) annual resolution from two different lake systems during the Last Glacial-Interglacial transition (~17 and 11 ka). Lake Gościąż, situated in the temperate central Poland, developed in the Allerød after recession of the Last Glacial ice sheets. The Dead Sea is located in the Levant (eastern Mediterranean) within a steep gradient from sub-humid to hyper-arid climate, and formed in the mid-Miocene. Despite their differences in sedimentation processes, both lakes form annual laminations (varves), which are crucial for studies of abrupt climate fluctuations. This doctoral thesis was carried out within the DFG project PALEX-II (Paleohydrology and Extreme Floods from the Dead Sea ICDP Core) that investigates extreme hydro-meteorological events in the ICDP core in relation to climate changes, and ICLEA (Virtual Institute of Integrated Climate and Landscape Evolution Analyses) that intends to better the understanding of climate dynamics and landscape evolutions in north-central Europe since the Last Glacial. Further, it contributes to the Helmholtz Climate Initiative REKLIM (Regional Climate Change and Humans) Research Theme 3 “Extreme events across temporal and spatial scales” that investigates extreme events using climate data, paleo-records and model-based simulations. The three main aims were to (1) establish robust chronologies of the lakes, (2) investigate how major and abrupt climate changes affect the lake systems, and (3) to compare the responses of the two varved lakes to these hemispheric-scale climate changes. Robust chronologies are a prerequisite for high-resolved climate and environmental reconstructions, as well as for archive comparisons. Thus, addressing the first aim, the novel chronology of Lake Gościąż was established by microscopic varve counting and Bayesian age-depth modelling in Bacon for a non-varved section, and was corroborated by independent age constrains from 137Cs activity concentration measurements, AMS radiocarbon dating and pollen analysis. The varve chronology reaches from the late Allerød until AD 2015, revealing more Holocene varves than a previous study of Lake Gościąż suggested. Varve formation throughout the complete Younger Dryas (YD) even allowed the identification of annually- to decadal-resolved leads and lags in proxy responses at the YD transitions. The lateglacial chronology of the Dead Sea (DS) was thus far mainly based on radiocarbon and U/Th-dating. In the unique ICDP core from the deep lake centre, continuous search for cryptotephra has been carried out in lateglacial sediments between two prominent gypsum deposits – the Upper and Additional Gypsum Units (UGU and AGU, respectively). Two cryptotephras were identified with glass analyses that correlate with tephra deposits from the Süphan and Nemrut volcanoes indicating that the AGU is ~1000 years younger than previously assumed, shifting it into the YD, and the underlying varved interval into the Bølling/Allerød, contradicting previous assumptions. Using microfacies analyses, stable isotopes and temperature reconstructions, the second aim was achieved at Lake Gościąż. The YD lake system was dynamic, characterized by higher aquatic bioproductivity, more re-suspended material and less anoxia than during the Allerød and Early Holocene, mainly influenced by stronger water circulation and catchment erosion due to stronger westerly winds and less lake sheltering. Cooling at the YD onset was ~100 years longer than the final warming, while environmental proxies lagged the onset of cooling by ~90 years, but occurred contemporaneously during the termination of the YD. Chironomid-based temperature reconstructions support recent studies indicating mild YD summer temperatures. Such a comparison of annually-resolved proxy responses to both abrupt YD transitions is rare, because most European lake archives do not preserve varves during the YD. To accomplish the second aim at the DS, microfacies analyses were performed between the UGU (~17 ka) and Holocene onset (~11 ka) in shallow- (Masada) and deep-water (ICDP core) environments. This time interval is marked by a huge but fluctuating lake level drop and therefore the complete transition into the Holocene is only recorded in the deep-basin ICDP core. In this thesis, this transition was investigated for the first time continuously and in detail. The final two pronounced lake level drops recorded by deposition of the UGU and AGU, were interrupted by one millennium of relative depositional stability and a positive water budget as recorded by aragonite varve deposition interrupted by only a few event layers. Further, intercalation of aragonite varves between the gypsum beds of the UGU and AGU shows that these generally dry intervals were also marked by decadal- to centennial-long rises in lake level. While continuous aragonite varves indicate decadal-long stable phases, the occurrence of thicker and more frequent event layers suggests general more instability during the gypsum units. These results suggest a pattern of complex and variable hydroclimate at different time scales during the Lateglacial at the DS. The third aim was accomplished based on the individual studies above that jointly provide an integrated picture of different lake responses to different climate elements of hemispheric-scale abrupt climate changes during the Last Glacial-Interglacial transition. In general, climatically-driven facies changes are more dramatic in the DS than at Lake Gościąż. Further, Lake Gościąż is characterized by continuous varve formation nearly throughout the complete profile, whereas the DS record is widely characterized by extreme event layers, hampering the establishment of a continuous varve chronology. The lateglacial sedimentation in Lake Gościąż is mainly influenced by westerly winds and minor by changes in catchment vegetation, whereas the DS is primarily influenced by changes in winter precipitation, which are caused by temperature variations in the Mediterranean. Interestingly, sedimentation in both archives is more stable during the Bølling/Allerød and more dynamic during the YD, even when sedimentation processes are different. In summary, this doctoral thesis presents seasonally-resolved records from two lake archives during the Lateglacial (ca 17-11 ka) to investigate the impact of abrupt climate changes in different lake systems. New age constrains from the identification of volcanic glass shards in the lateglacial sediments of the DS allowed the first lithology-based interpretation of the YD in the DS record and its comparison to Lake Gościąż. This highlights the importance of the construction of a robust chronology, and provides a first step for synchronization of the DS with other eastern Mediterranean archives. Further, climate reconstructions from the lake sediments showed variability on different time scales in the different archives, i.e. decadal- to millennial fluctuations in the lateglacial DS, and even annual variations and sub-decadal leads and lags in proxy responses during the rapid YD transitions in Lake Gościąż. This showed the importance of a comparison of different lake archives to better understand the regional and local impacts of hemispheric-scale climate variability. An unprecedented example is demonstrated here of how different lake systems show different lake responses and also react to different climate elements of abrupt climate changes. This further highlights the importance of the understanding of the respective lake system for climate reconstructions. N2 - Verschiedene Seesysteme können unterschiedliche Klimaelemente während Klimaveränderungen wiederspiegeln und auch diverse Seesystemreaktionen aufweisen, wobei letztere bislang noch nicht vollständig verstanden sind. Ein Vergleich von Seesystemen in verschiedenen Klimazonen während der hoch-amplituden und abrupten Klimaveränderung innerhalb des Übergangs vom Letzten Glazial zum Holozän, ermöglicht die Untersuchung deutlicher natürlicher Seesystemreaktionen in Bezug zu abrupten Klimaänderungen. Das Ziel dieser Doktorarbeit war die Rekonstruktion von Klima- und Umweltschwankungen von zwei verschiedenen Seesystemen während des Letzten Glazial-Interglazial-Übergangs (~17.000-11.000 BP) bis hinunter zu saisonaler Auflösung. Der Gościąż See liegt in der gemäßigten Klimazone in Zentralpolen und entwickelte sich im Allerød nach dem Rückgang der Eisschilde des letzten Glazials. Das Tote Meer liegt in der Levante (östlicher Mittelmeerraum) innerhalb eines steilen Gradienten von subhumidem zu hyperaridem Klima und entstand im mittleren Miozän. Trotz ihrer unterschiedlichen Sedimentationsprozesse bilden beide Seen jährliche Laminierungen (Warven) aus. Dies ist essentiell für Studien abrupter Klimaveränderungen. Diese Doktorarbeit wurde innerhalb des DFG-Projektes PALEX-II (Paläohydrologie und Sturzfluten vom ICDP-Kern des Toten Meeres) und ICELA (Virtuelles Institut zur Integrierten Klima- und Landschaftsentwicklungsanalyse) durchgeführt. PALEX-II untersucht hydrometeorologische Extremereignisse im ICDP-Kern in Bezug zu Klimaveränderungen, während ICLEA beabsichtig das Verständnis von Klimadynamiken und Landschaftsevolution in Nord- und Zentraleuropa seit dem letzten Glazial zu verbessern. Zudem, trägt diese Doktorarbeit auch zum Forschungsthema 3 „Extremevents auf unterschiedlichen zeitlichen und räumlichen Skalen“ der Helmholtz-Klimainitiative REKLIM (Regionale Klimaänderungen und Mensch) bei, das basierend auf Klimadaten, Paläoarchiven und modelbasierten Simulationen Extremevents untersucht. Robuste Chronologien sind Voraussetzung für hochaufgelöste Klima- und Umweltstudien, sowie für den Vergleich von Archiven. Um das erste Ziel zu erreichen, wurde für den Gościąż See mithilfe von mikroskopischer Warvenzählung und einer bayesschen Alters-Tiefen-Modellierung eine neue Chronologie erstellt. Diese wurde durch unabhängige Altersinformationen von 137Cs Konzentrationsmessungen, AMS Radiokarbondatierung und Pollenanalyse bestätigt. Die Warvenchronologie beginnt im späten Allerød und endet AD 2015. Sie offenbart mehr Warven im Holozän als in einer früheren Studie vom Gościąż See gezeigt wurde. Warvenbildung durch die gesamte Jüngere Dryaszeit (JD) hindurch ermöglicht sogar die Identifizierung von jährlich bis dekadisch aufgelösten Abfolgen in Proxyreaktion während der Übergangszonen der JD. Die spätglaziale Chronologie des Toten Meeres basierte bisher auf Radiokarbon- und U/Th-Datierungen. In den spätglazialen Sedimenten des einzigartigen ICDP-Kern vom tiefen Seezentrum wurde zwischen zwei markanten Gipseinheiten – den Oberen und Zusätzlichen Gipseinheiten (UGU bzw. AGU) – kontinuierlich nach Kryptotephra gesucht. Gläser zweier Kryptotephren korrelieren mit Aschenablagerungen der Süphan und Nemrut Vulkane. Dies deutet darauf hin, dass die AGU ~1000 Jahre jünger ist als bisher angenommen, was sie komplett in die JD verlagert und das darunterliegende warvierte Intervall in das Bølling/Allerød. Diese Ergebnisse widersprechen bisherigen Annahmen. Unter Verwendung von Mikrofaziesanalysen, stabiler Isotope und Temperaturrekonstruktionen, wurde das zweite Ziel am Gościąż See erreicht. Das Seesystem war während der JD dynamisch und durch höhere aquatische Bioproduktivität, Resuspension und geringere anoxische Bedingungen als das Allerød und frühe Holozän gekennzeichnet. Dies wurde hauptsächlich durch eine verstärkte Wasserzirkulation und Erosion im Einzugsgebiet hervorgerufen, die wiederum durch stärkere Westwinde und geringeren Schutz vor Wind im Einzugsgebiet verursacht wurden. Die Abkühlung am Beginn der JD war etwa 100 Jahre länger als die finale Erwärmung an ihrem Ende, während die Umweltproxies ca. 90 Jahre nach Beginn der Abkühlung, aber gleichzeitig mit der Erwärmung auftraten. Auf Chironomiden basierende Temperatur-rekonstruktionen unterstützen neueste Studien, die milde Sommertemperaturen während der JD anzeigen. Da die meisten europäischen Seearchive keine Warven während der JD erhalten, ist ein solcher Vergleich von jährlich aufgelösten Proxyreaktionen während beiden JD Übergangszonen sehr selten. Um das zweite Ziel auch am Toten Meer zu realisieren, wurden Mikrofaziesanalysen zwischen der UGU (~17.000 BP) und dem Beginn des Holozäns (~11.000 BP) in Sedimenten aus dem Flachwasserbereich (Masada) und aus dem tiefen Becken (ICDP-Kern) durchgeführt. In diesem Intervall sinkt der Seespiegel gewaltig ab, wobei er von Schwankungen betroffen ist. Daher ist der komplette Übergang in das Holozän nur im ICDP-Kern enthalten, der im tiefen Becken gezogen wurde. In dieser Doktorarbeit wurde dieser Übergang zum ersten Mal kontinuierlich und im Detail untersucht. Während der beiden finalen Seespiegelabfälle wurden die UGU und AGU abgelagert. Zwischen den beiden Gipseinheiten zeugen jedoch Aragonitwarven und nur wenige Extremevents von sedimentärer Stabilität und einem positiven Wasserbudget für beinahe ein Jahrtausend. Selbst innerhalb der UGU und AGU deutet die Ablagerung von Aragonitwarven zwischen Gipslagen auf Dekaden bis Jahrhunderte andauernde Anstiege im Seespiegel hin, was zeigt, dass UGU und AGU nicht kontinuierlich von Trockenheit gekennzeichnet waren. Die kontinuierliche Bildung von Aragonitwarven zeigt hier stabile Phasen über Dekaden, wohingegen mächtigere und häufigere Extremevents generell auf eine erhöhte Instabilität während der Gipseinheiten hindeuten. Diese Ergebnisse zeigen, dass ein komplexes und variables Hydroklima auf unterschiedlichen Zeitskalen während des Spätglazials am Toten Meer operierte. Das dritte Ziel wurde basierend auf den individuellen Studien erreicht, die zusammen ein ganzheitliches Bild zu verschiedenen Seesystemreaktionen liefern, die während des Übergangs vom letzten Glazial zum Holozän durch diverse Klimaelemente während abrupter Klimaveränderungen mit hemisphärischen Ausmaßen beeinflusst sind. Grundsätzlich sind die durch Klimaänderungen ausgelösten Faziesänderungen ausgeprägter am Toten Meer als im Gościąż See. Zudem ist der Gościąż See beinahe durchgängig warviert, während die Sedimente des Toten Meeres weithin durch Ablagerungen von Extremevents geprägt sind, welche die Konstruktion einer kontinuierlichen Warvenchronologie verhindern. Die spätglaziale Sedimentation im Gościąż See ist hauptsächlich durch Westwinde beeinflusst und untergeordnet auch durch Vegetationsänderungen im Einzugsgebiet. Im Gegensatz dazu ist die spätglaziale Sedimentation im Toten Meer überwiegend von Schwankungen im Niederschlag während des Winters beeinflusst. Diese wiederum werden durch Temperaturschwankungen im Mittelmeer verursacht. Obwohl die Sedimentationsprozesse so verschieden sind, ist die Sedimentation interessanterweise in beiden Archiven stabiler im Bølling/Allerød und dynamischer in der JD. Kurz zusammengefasst, präsentiert diese Doktorarbeit saisonal-aufgelöste Sedimentprofile zweier Seearchive während des Spätglazials (ca. 17.000-11.000 BP), um die Auswirkungen abrupter Klimaveränderungen in verschiedenen Seesystemen zu untersuchen. Neue Altersinformationen anhand der Identifizierung von vulkanischen Aschen in den spätglazialen Sedimenten des Toten Meeres erlaubten die erste Lithologie-basierte Interpretation der JD im Sedimentprofil des Toten Meeres und den Vergleich mit dem Gościąż See. Dies hebt die Bedeutung der Erstellung einer robusten Chronologie hervor und liefert einen ersten Schritt für die Synchronisierung des Toten Meeres mit anderen Archiven im östlichen Mittelmeerraum. Des Weiteren haben die Klimarekonstruktionen anhand der Seesedimente Variabilität auf verschiedenen Zeitskalen in den Archiven gezeigt. Diese umfassen dekadische bis tausendjährige Schwankungen im Toten Meer und sogar jährliche und sub-dekadische Schwankungen in Proxys während der rapiden Übergangszonen der JD im Gościąż See. Dies zeigt wie bedeutend es ist verschiedene Seearchive zu vergleichen um die regionalen und lokalen Auswirkungen von hemisphärischen Klimaschwankungen besser zu verstehen. Hier wurde eine beispiellose Fallstudie gezeigt, die die diversen Reaktionen unterschiedlicher Seen beleuchtet und aufzeigt wie diese von verschiedenen Klimaelementen abrupter Klimaveränderungen beeinflusst werden können. Dies hebt auch hervor, wie bedeutsam es für Klimarekonstruktionen ist das jeweilige Seesystem zu verstehen. KW - paleoclimatology KW - Paläoklimatologie KW - varved lake sediments KW - warvierte Seesedimente KW - extreme events KW - Extremereignisse KW - lake system responses KW - Seesystemreaktionen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558331 ER - TY - THES A1 - Michalik-Onichimowska, Aleksandra T1 - Real-time monitoring of (photo)chemical reactions in micro flow reactors and levitated droplets by IR-MALDI ion mobility and mass spectrometry N2 - Eine nachhaltigere chemische Industrie erfordert eine Minimierung der Lösungsmittel und Chemikalien. Daher werden Optimierung und Entwicklung chemischer Prozesse vor einer Produktion in großem Maßstab in kleinen Chargen durchgeführt. Der entscheidende Schritt bei diesem Ansatz ist die Skalierbarkeit von kleinen Reaktionssystemen auf große, kosteneffiziente Reaktoren. Die Vergrößerung des Volumens des Reaktionsmediums geht immer mit der Vergrößerung der Oberfläche einher, die mit dem begrenzenden Gefäß in Kontakt steht. Da das Volumen kubisch, während die Oberfläche quadratisch mit zunehmendem Radius skaliert, nimmt ihr Verhältnis nicht linear zu. Viele an der Grenzfläche zwischen Oberfläche und Flüssigkeit auftretende Phänomene können die Reaktionsgeschwindigkeiten und Ausbeuten beeinflussen, was zu falschen Prognosen aufgrund der kleinskaligen Optimierung führt. Die Anwendung von schwebenden Tropfen als behälterlose Reaktionsgefäße bietet eine vielversprechende Möglichkeit, die oben genannten Probleme zu vermeiden. In der vorgestellten Arbeit wurde eine effiziente Kopplung von akustisch schwebenden Tropfen und IM Spektrometer für die Echtzeitüberwachung chemischer Reaktionen entwickelt, bei denen akustisch schwebende Tropfen als Reaktionsgefäße fungieren. Das Design des Systems umfasst die berührungslose Probenahme und Ionisierung, die durch Laserdesorption und -ionisation bei 2,94 µm realisiert wird. Der Umfang der Arbeit umfasst grundlegende Studien zum Verständnis der Laserbestrahlung von Tropfen im akustischen Feld. Das Verständnis dieses Phänomens ist entscheidend, um den Effekt der zeitlichen und räumlichen Auflösung der erzeugten Ionenwolke zu verstehen, die die Auflösung des Systems beeinflusst. Der Aufbau umfasst eine akustische Falle, Laserbestrahlung und elektrostatische Linsen, die bei hoher Spannung unter Umgebungsdruck arbeiten. Ein effektiver Ionentransfer im Grenzflächenbereich zwischen dem schwebenden Tropfen und dem IMS muss daher elektrostatische und akustische Felder vollständig berücksichtigen. Für die Probenahme und Ionisation wurden zwei unterschiedliche Laserpulslängen untersucht, nämlich im ns- und µs-Bereich. Die Bestrahlung über µs-Laserpulse bietet gegenüber ns-Pulse mehrere Vorteile: i) das Tropfenvolumen wird nicht stark beeinflusst, was es ermöglichet, nur ein kleines Volumen des Tropfens abzutasten; ii) die geringere Fluenz führt zu weniger ausgeprägten Schwingungen des im akustischen Feld eingeschlossenen Tropfens und der Tropfen wird nicht aus dem akustischen Feld rückgeschlagen, was zum Verlust der Probe führen würde; iii) die milde Laserbestrahlung führt zu einer besseren räumlichen und zeitlichen Begrenzung der Ionenwolken, was zu einer besseren Auflösung der detektierten Ionenpakete führt. Schließlich ermöglicht dieses Wissen die Anwendung der Ionenoptik, die erforderlich ist, um den Ionenfluss zwischen dem im akustischen Feld suspendierten Tropfen und dem IM Spektrometer zu induzieren. Die Ionenoptik aus 2 elektrostatischen Linsen in der Nähe des Tropfens ermöglicht es, die Ionenwolke effektiv zu fokussieren und direkt zum IM Spektrometer-Eingang zu führen. Diese neuartige Kopplung hat sich beim Nachweis einiger basischer Moleküle als erfolgreich erwiesen. Um die Anwendbarkeit des Systems zu belegen, wurde die Reaktion zwischen N-Boc Cysteine Methylester und Allylalkohol in einem Chargenreaktor durchgeführt und online überwacht. Für eine Kalibrierung wurde der Reaktionsfortschritt parallel mittels 1H-NMR verfolgt. Der beobachtete Reaktionsumsatz von mehr als 50% innerhalb der ersten 20 Minuten demonstrierte die Eignung der Reaktion, um die Einsatzpotentiale des entwickelten Systems zu bewerten. N2 - One aspect of achieving a more sustainable chemical industry is the minimization of the usage of solvents and chemicals. Thus, optimization and development of chemical processes for large-scale production is favourably performed in small batches. The critical step in this approach is upscaling the batches from the small reaction systems to the large reactors mandatory for cost efficient production in an industrial environment. Scaling up the bulk volume always goes along with increasing the surface where the reaction medium is in contact with the confining vessel. Since volume scales proportional with the cubic dimension while the surface scales quadratic, their ratio is size-dependent. The influence of reaction vessel walls can change the reaction performance. A number of phenomena occurring at the surface-liquid interface can affect reaction rates and yields, resulting in possible difficulties in predicting and extrapolating from small size production scale to large industrial processes. The application of levitated droplets as a containerless reaction vessels provides a promising possibility to avoid the above-mentioned issues. In the presented work, an efficient coupling of acoustically levitated droplets to an ion mobility (IM) spectrometer, operating at ambient conditions, was designed for real-time monitoring of chemical reactions. The design of the system comprises noncontact sampling and ionization of the droplet realised by laser desorption/ionization at 2,94 µm. The scope of the work includes fundamental studies covering understanding of laser irradiation of droplets enclosed in an acoustical field. Understanding of this phenomenon is crucial to comprehending the effects of temporal and spatial resolution of the generated ion plume that influence the resolution of the system. The set-up includes an acoustic trap, laser irradiation and ion manipulation electrostatic lenses operating at high voltage at ambient pressure. The complexity of the design needs to fully be considered for an effective ion transfer at the interface region between the levitated droplet and IM spectrometer. For sampling and ionization, two distinct laser pulse lengths were evaluated, ns and µs. Irradiation via µs laser pulses provides several advantages: i) the droplet volume is not extensively impinged, as in case of ns laser pulses, allowing the sampling of only the small volume of the droplet; ii) the lower fluence results in less pronounced oscillations of the droplet confined in the acoustic field. The droplet will not be dissipated out of the acoustic field leading to loss of the sample; iii) the mild laser irradiation results in better spatial and temporal ion plume confinement, leading to better resolution of the detected ion packets. Finally, this knowledge allows the application of ion optics necessary to induce ion flow between the droplet suspended in the acoustic field and the IM spectrometer. The ion optics, composed of 2 electrostatic lenses placed in the near vicinity of the droplet, allow effective focusing of the ion plume and its redirection directly to the IM spectrometer entrance. This novel coupling has proved to be successful for detection of some simple molecules ionizable at the 2.94 µm wavelength. To further demonstrate the applicability of the system, a proof-of-principle reaction was selected, fulfilling the requirements of the system, and was subjected to comprehensive investigation of its performance. Herein, the reaction between N-Boc cysteine methyl ester and allyl alcohol has been performed in a batch reactor and on-line monitored via 1H NMR to establish reaction propagation. With the additional assessment, it was confirmed that the thiol-ene coupling can be performed within first 20 minutes of the irradiation with a reaction yield above 50%, proving that the reaction can be applied as a study case to assess the possibilities of the developed system. T2 - Echtzeit-Überwachung von (Photo)chemischen Reaktionen in Mikroströmungsreaktoren und schwebenden Tropfen durch IR-MALDI Ionenmoblität- und Massenspektrometrie KW - ion mobility spectrometry KW - mass spectrometry KW - acoustically levitated droplets KW - photochemical reactions KW - akustisch schwebende Tropfen KW - Ionenmobilitätspektrometrie KW - Massenspektrometrie KW - Photochemische Reaktionen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-557298 ER - TY - THES A1 - Lever, Fabiano T1 - Probing the ultrafast dynamics of 2-Thiouracil with soft x-rays T1 - Untersuchung der ultraschnellen Dynamik von 2-Thiouracil mit weicher Röntgenstrahlung N2 - Understanding the changes that follow UV-excitation in thionucleobases is of great importance for the study of light-induced DNA lesions and, in a broader context, for their applications in medicine and biochemistry. Their ultrafast photophysical reactions can alter the chemical structure of DNA - leading to damages to the genetic code - as proven by the increased skin cancer risk observed for patients treated with thiouracil for its immunosuppressant properties. In this thesis, I present four research papers that result from an investigation of the ultrafast dynamics of 2-thiouracil by means of ultrafast x-ray probing combined with electron spectroscopy. A molecular jet in the gas phase is excited with a uv pulse and then ionized with x-ray radiation from a Free Electron Laser. The kinetic energy of the emitted electrons is measured in a magnetic bottle spectrometer. The spectra of the measured photo and Auger electrons are used to derive a picture of the changes in the geometrical and electronic configurations. The results allow us to look at the dynamical processes from a new perspective, thanks to the element- and site- sensitivity of x-rays. The custom-built URSA-PQ apparatus used in the experiment is described. It has been commissioned and used at the FL24 beamline of the FLASH2 FEL, showing an electron kinetic energy resolution of ∆E/E ~ 40 and a pump-probe timing resolution of 190 f s. X-ray only photoelectron and Auger spectra of 2-thiouracil are extracted from the data and used as reference. Photoelectrons following the formation a 2p core hole are identified, as well as resonant and non-resonant Auger electrons. At the L 1 edge, Coster-Kronig decay is observed from the 2s core hole. The UV-induced changes in the 2p photoline allow the study the electronic-state dynamics. With the use of an Excited-State Chemical Shift (ESCS) model, we observe a ultrafast ground-state relaxation within 250 f s. Furthermore, an oscillation with a 250 f s period is observed in the 2p binding energy, showing a coherent population exchange between electronic states. Auger electrons from the 2p core hole are analyzed and used to deduce a ultrafast C −S bond expansion on a sub 100 f s scale. A simple Coulomb-model, coupled to quantum chemical calculations, can be used to infer the geometrical changes in the molecular structure. N2 - Das Verständnis von lichtinduzierten, molekularen Prozessen ist über die Physik hinaus in einem breiten Kondext für Medizin und Biochemie relevant. Die ultraschnellen, photophysikalischen Reaktionen mancher Moleküle können die chemische Struktur von DNA verändern und somit genetischen Code schädigen. So führt zum Beispiel die UV-Anregung von Thionukleobasen zu Läsionen der DNA in den Zellen. Dementsprechend zeigen Patienten ein erhöhtes Hautkrebsrisiko, wenn sie im Rahmen einer immunsuppressiven Therapie mit Thiouracil behandelt werden. In dieser Dissertation stelle ich vier Forschungsarbeiten vor, in denen die ultraschnellen, intramolekularen Dynamiken von 2-Thiouracil mittels ultraschneller Anregungs-Abfrage(Pump-Probe)-Röntgenelektronenspektroskopie untersucht werden. Die relevanten molekularen Dynamiken werden stark durch das Schwefelatom des Thiouracils beeinflusst. Die Element- und Ortsempfindlichkeit der verwendeten Röntgenstrahlung erlauben es, diese Prozesse experimentell zu untersuchen. Dafür werden 2-Thiouracil-Moleküle thermisch in einem Molekularstrahl in die Gasphase freigesetzt. Nachdem die Moleküle mit einem UV-Puls angeregt wurden, erfolgt zeitversetzt die Abfrage mit einem Röntgenpuls, der die Moleküle ionisiert. Die kinetische Energie der emittierten Photo- und Augerelektronen wird mit einem Elektronenspektrometer vom Typ ‘Magnetische Flasche’ gemessen. Die Energiespektren dieser Elektronen werden verwendet, um ein Modell von den UV-lichtinduzierten Veränderungen der geometrischen und elektronischen Konfigurationen der Moleküle zu erhalten. Für diese Experimente wird erstmalig eine speziell angefertigte Apparatur namens URSA-PQ verwendet und beschrieben. Sie wurde an der Beamline FL24 des Freie Elektronenlaser (FEL) FLASH2 in Betrieb genommen und verwendet. Aus den Daten werden reine Röntgenphoto- und Augerelektronenspektren des Schwefelatoms von 2-Thiouracil extrahiert und als Referenz verwendet. Die 2p- Photoelektronen werden identifiziert, ebenso wie resonante und nicht-resonante Augerelektronen, die bei dem Zerfall des 2p-Kernlochs entstehen. Die UV-induzierten Veränderungen der 2p-Photolinie ermöglichen es, die Dynamik des elektronischen Zustands zu untersuchen. Unter Verwendung eines ESCS-Modells (Excited-State Chemical Shift) beobachten wir eine ultraschnelle Grundzustandsrelaxation innerhalb von 250 f s. Auger-Elektronen aus dem Zerfall des 2p-Kernlochs im UV-angeregten 2-Thiouracil werden ebenfalls analysiert. Die Änderung ihrer kinetischen Energie deutet auf eine ultraschnelle C − S-Bindungsexpansion auf einer Skala von unter 100 f s hin. Ein einfaches Coulomb-Modell, gekoppelt mit quantenchemischen Berechnungen, kann die geometrischen Veränderungen in der Molekülstruktur erklären. KW - Quantum KW - x-ray KW - photoelectron spectroscopy KW - thiouracil KW - nucleobases KW - Free Electron Laser KW - ultrafast KW - conical intersection KW - molecular dynamics KW - Freie-Elektronen-Laser KW - Quantum KW - konische Kreuzung KW - Molekulardynamik KW - Nukleobasen KW - Photoelektronenspektroskopie KW - Thiouracil KW - ultraschnell KW - Röntgenspektroskopie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555230 ER - TY - THES A1 - Perdigón-Toro, Lorena T1 - On the Generation and Fate of Free Carriers in Non-Fullerene Acceptor Organic Solar Cells N2 - Organic solar cells offer an efficient and cost-effective alternative for solar energy harvesting. This type of photovoltaic cell typically consists of a blend of two organic semiconductors, an electron donating polymer and a low molecular weight electron acceptor to create what is known as a bulk heterojunction (BHJ) morphology. Traditionally, fullerene-based acceptors have been used for this purpose. In recent years, the development of new acceptor molecules, so-called non-fullerene acceptors (NFA), has breathed new life into organic solar cell research, enabling record efficiencies close to 19%. Today, NFA-based solar cells are approaching their inorganic competitors in terms of photocurrent generation, but lag in terms of open circuit voltage (V_OC). Interestingly, the V_OC of these cells benefits from small offsets of orbital energies at the donor-NFA interface, although previous knowledge considered large energy offsets to be critical for efficient charge carrier generation. In addition, there are several other electronic and structural features that distinguish NFAs from fullerenes. My thesis focuses on understanding the interplay between the unique attributes of NFAs and the physical processes occurring in solar cells. By combining various experimental techniques with drift-diffusion simulations, the generation of free charge carriers as well as their recombination in state-of-the-art NFA-based solar cells is characterized. For this purpose, solar cells based on the donor polymer PM6 and the NFA Y6 have been investigated. The generation of free charge carriers in PM6:Y6 is efficient and independent of electric field and excitation energy. Temperature-dependent measurements show a very low activation energy for photocurrent generation (about 6 meV), indicating barrierless charge carrier separation. Theoretical modeling suggests that Y6 molecules have large quadrupole moments, leading to band bending at the donor-acceptor interface and thereby reducing the electrostatic Coulomb dissociation barrier. In this regard, this work identifies poor extraction of free charges in competition with nongeminate recombination as a dominant loss process in PM6:Y6 devices. Subsequently, the spectral characteristics of PM6:Y6 solar cells were investigated with respect to the dominant process of charge carrier recombination. It was found that the photon emission under open-circuit conditions can be almost entirely attributed to the occupation and recombination of Y6 singlet excitons. Nevertheless, the recombination pathway via the singlet state contributes only 1% to the total recombination, which is dominated by the charge transfer state (CT-state) at the donor-acceptor interface. Further V_OC gains can therefore only be expected if the density and/or recombination rate of these CT-states can be significantly reduced. Finally, the role of energetic disorder in NFA solar cells is investigated by comparing Y6 with a structurally related derivative, named N4. Layer morphology studies combined with temperature-dependent charge transport experiments show significantly lower structural and energetic disorder in the case of the PM6:Y6 blend. For both PM6:Y6 and PM6:N4, disorder determines the maximum achievable V_OC, with PM6:Y6 benefiting from improved morphological order. Overall, the obtained findings point to avenues for the realization of NFA-based solar cells with even smaller V_OC losses. Further reduction of nongeminate recombination and energetic disorder should result in organic solar cells with efficiencies above 20% in the future. N2 - Organische Solarzellen bieten eine effiziente und kostengünstige Alternative für die Nutzung von Sonnenenergie. Bei dieser Art von Photovoltaikzellen werden in der Regel zwei organische Halbleiter, ein elektronenspendendes Polymer und ein niedermolekularer Elektronenakzeptor gemischt, um eine sogenannte „Bulk-Heterojunction“ (BHJ)-Morphologie zu erzeugen. Traditionell wurden hierfür Fulleren-basierte Akzeptoren verwendet. In den letzten Jahren hat die Entwicklung neuer Akzeptor-Moleküle, so genannter Nicht-Fulleren-Akzeptoren (NFA), der organischen Solarzellenforschung neues Leben eingehaucht und damit Rekordwirkungsgrade >19 % ermöglicht. Heutzutage nähern sich NFA-basierte Solarzellen ihren anorganischen Konkurrenten bezüglich der Photostromerzeugung an, nicht jedoch im Hinblick auf die Leerlaufspannung (V_OC). Interessanterweise profitiert der V_OC dieser Zellen von kleinen Offsets der Orbitalenergien an der Donor-NFA-Grenzfläche, obwohl nach bisherigem Wissen große Energieoffsets als entscheidend für die effiziente Ladungsträgergenerierung an der Heterogrenzfläche galten. Darüber hinaus gibt es eine Reihe weiterer elektronischer und struktureller Merkmale, die NFAs von Fullerenen unterscheiden. Meine Dissertation konzentriert sich auf ein tiefgreifendes Verständnis des Zusammenspiels der einzigartigen Eigenschaften von NFAs und den physikalischen Prozessen in daraus hergestellten Solarzellen. Durch die Kombination verschiedener experimenteller Techniken mit Drift-Diffusions-Simulationen wird die Erzeugung freier Ladungsträger sowie deren Rekombination in modernen NFA-basierten Solarzellen charakterisiert. Zu diesem Zweck wurden Solarzellen auf Basis des Donor-Polymers PM6 und des NFA Y6 untersucht. Die Erzeugung freier Ladungsträger in PM6:Y6 erweist sich dabei als effizient und unabhängig von elektrischem Feld und Anregungsenergie. Temperaturabhängige Messungen zeigen eine sehr geringe Aktivierungsenergie für die Photostromerzeugung (ca. 6 meV), was auf eine barrierefreie Ladungsträgertrennung hinweist. Theoretische Modellierungen legen nahe, dass Y6-Moleküle große Quadrupolmomente aufweisen, was zu einer Bandverbiegung an der Donor-Akzeptor-Grenzfläche führt und dabei die elektrostatische Coulombsch-Dissoziationsbarriere reduziert. In dieser Hinsicht identifiziert diese Arbeit die schlechte Extraktion freier Ladungen in Konkurrenz zur „nongeminalen“ Rekombination als einen dominanten Verlustprozess in PM6:Y6 Zellen. In weiterer Folge wurden die spektralen Eigenschaften von PM6:Y6-Solarzellen im Hinblick auf den dominanten Prozess der Ladungsträgergenerierung und rekombination untersucht. Es zeigte sich, dass die Photonenemission unter Leerlaufbedingungen fast vollständig auf die Besetzung und Rekombination von Y6-Singlet-Exzitonen zurückgeführt werden kann. Trotzdem trägt der Rekombinationspfad über den Singlett-Zustand nur zu 1 % zur gesamten Rekombination bei, die über den Ladungstransfer-Zustand (CT-state) an der Donor-Akzeptor-Grenzfläche dominiert wird. Weitere V_OC Gewinne sind daher nur zu erwarten, wenn die Dichte und/oder die Rekombinationsrate dieser CT-Zustände erheblich reduziert werden kann. Schließlich wird die Rolle der energetischen Unordnung in NFA-Solarzellen durch den Vergleich von Y6 mit einem strukturverwandten Derivat, genannt N4, untersucht. Untersuchungen zur Schichtmorphologie in Kombination mit Experimenten zum temperaturabhängigen Ladungstransport zeigen eine deutlich geringere strukturelle und energetische Unordnung im Fall des PM6:Y6 Blends. Sowohl für PM6:Y6 als auch für PM6:N4 bestimmt die Unordnung den maximal erreichbaren V_OC, wobei PM6:Y6 von der verbesserten morphologischen Ordnung profitiert. Insgesamt weisen die gewonnenen Erkenntnisse Wege für die Realisierung von NFA-basierten Solarzellen mit noch kleineren V_OC-Verlusten auf. Durch die weitere Reduzierung der „nongeminaten“ Rekombination als auch der energetischen Unordnung sollten in Zukunft organische Solarzellen mit einem Wirkungsgrad von über 20 % möglich werden. T2 - Über die Photogenerierung und Rekombination freier Ladungsträger in organischen Solarzellen mit Nicht-Fulleren-Akzeptoren KW - organic solar cells KW - non-fullerene acceptors KW - free charge generation KW - free charge recombination KW - energetic disorder KW - organic semiconductors KW - energetische Unordnung KW - Generierung freier Ladungsträger KW - freie Ladungsträger Rekombination KW - Nicht-Fulleren-Akzeptoren KW - organische Halbleiter KW - organische Solarzellen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558072 ER - TY - THES A1 - Pan, Mengdi T1 - Systematic studies on the thermodynamic properties of gas hydrates and their formation/dissociation/transformation behaviors T1 - Systematische Untersuchungen zu den thermodynamischen Eigenschaften von Gashydraten und ihrem Bildungs-/Dissoziations-/Umwandlungsverhalten N2 - Gas hydrates are ice-like crystalline compounds made of water cavities that retain various types of guest molecules. Natural gas hydrates are CH4-rich but also contain higher hydrocarbons as well as CO2, H2S, etc. They are highly dependent of local pressure and temperature conditions. Considering the high energy content, natural gas hydrates are artificially dissociated for the production of methane gas. Besides, they may also dissociate in response to global warming. It is therefore crucial to investigate the hydrate nucleation and growth process at a molecular level. The understanding of how guest molecules in the hydrate cavities respond to warming climate or gas injection is also of great importance. This thesis is concerned with a systematic investigation of simple and mixed gas hydrates at conditions relevant to the natural hydrate reservoir in Qilian Mountain permafrost, China. A high-pressure cell that integrated into the confocal Raman spectroscopy ensured a precise and continuous characterization of the hydrate phase during formation/dissociation/transformation processes with a high special and spectral resolution. By applying laboratory experiments, the formation of mixed gas hydrates containing other hydrocarbons besides methane was simulated in consideration of the effects from gas supply conditions and sediments. The results revealed a preferential enclathration of different guest molecules in hydrate cavities and further refute the common hypothesis of the coexistence of hydrate phases due to a changing feed gas phase. However, the presence of specific minerals and organic compounds in sediments may have significant impacts on the coexisting solid phases. With regard to the dissociation, the formation damage caused by fines mobilization and migration during hydrate decomposition was reported for the first time, illustrating the complex interactions between fine grains and hydrate particles. Gas hydrates, starting from simple CH4 hydrates to binary CH4—C3H8 hydrates and multi-component mixed hydrates were decomposed by thermal stimulation mimicking global warming. The mechanisms of guest substitution in hydrate structures were studied through the experimental data obtained from CH4—CO2, CH4—mixed gas hydrates and mixed gas hydrates—CO2 systems. For the first time, a second transformation behavior was documented during the transformation process from CH4 hydrates to CO2-rich mixed hydrates. Most of the crystals grew or maintained when exposed to CO2 gas while some others decreased in sizes and even disappeared over time. The highlight of the two last experimental simulations was to visualize and characterize the hydrate crystals which were at different structural transition stages. These experimental simulations enhanced our knowledge about the mixed gas hydrates in natural reservoirs and improved our capability to assess the response to global warming. N2 - Gashydrate sind eisähnliche, kristalline Verbindungen bestehend aus Wasserkäfigen, in denen verschiedene Arten von Gastmolekülen eingeschlossen sind. Natürliche Gashydrate sind CH4-reich, enthalten aber auch höhere Kohlenwasserstoffe sowie CO2, H2S usw. Sie sind stark von den lokalen Druck- und Temperaturbedingungen abhängig. Aufgrund ihres hohen Energiegehalts werden natürliche Gashydrate zur Produktion von Methangas kontrolliert zersetzt. Sie können sich aber auch als Reaktion auf die globale Erwärmung zersetzen. Daher ist es von entscheidender Bedeutung, den Hydratnukleation und des Wachstumsprozesses auf molekularer Ebene zu verstehen. Es ist auch von großer Bedeutung zu klären, wie die Gastmoleküle in den Hydratkäftigen auf die Erderwärmung oder die Gasinjektion antworten. Diese Arbeit beschäftigt sich mit einer systematischen Untersuchung von einfachen und gemischten Gashydraten unter Bedingungen, die für die natürlichen Hydratvorkommen im Qilian Mountain Permafrost, China, relevant sind. Eine in die konfokale Raman-Spektroskopie integrierte Hochdruckzelle gewährleistet eine präzise und kontinuierliche Charakterisierung der Hydratphase während des Bildungs-/Dissoziations-/Umwandlungsprozesses mit hoher örtlicher und spektraler Auflösung. Anhand von Laborversuchen wurde der Entstehungsprozess von gemischten Gashydraten unter Berücksichtigung der Auswirkungen unterschiedliches Gaszufuhr und Sedimenten simuliert. Die Ergebnisse zeigten eine bevorzugte Einlagerung verschiedener Gastmoleküle in die Hydratkäfige und widerlegen die gängige Hypothese der Bildung koexistierender Hydratphasen aufgrund einer sich ändernden Gasphase. Das Vorhandensein bestimmter Mineralien und organischer Verbindungen in Sedimenten kann ebenfalls erhebliche Auswirkungen auf die koexistierenden festen Phasen haben. Bezüglich der Hydratzersetzung konnte im Rahmen dieser Arbeit erstmals über die Formationsschädigung durch Feinkornmobilisierung und -migration beim Hydratabbau berichtet werden, was die komplexen Wechselwirkungen zwischen feinen Sedimentkörnern und Hydratpartikeln verdeutlicht. Gashydrate, angefangen von einfachen CH4-Hydraten über binäre CH4-C3H8-Hydrate bis hin zu Mehrkomponenten-Mischhydraten, wurden durch thermische Stimulation zersetzt, um die Reaktion auf die globale Erwärmung nachzuahmen. Die Mechanismen der Substitution der Gasmoleküle in Hydratstrukturen wurden anhand der experimentellen Daten von CH4-CO2-, CH4-Mischgashydraten und Mischgashydraten-CO2-Systemen untersucht. Erstmals wurde ein zweites Umwandlungsverhalten während des Umwandlungsprozesses von CH4-Hydraten zu CO2-reichen Mischhydraten dokumentiert. In den meisten Fällen wird das Modell des Schrumpfenden Kerns (Shrinking-core-model) unterstützt, während in einigen anderen Fällen die Kristalle mit konstanter Geschwindigkeit umwandelten. Der Höhepunkt der beiden letzten experimentellen Simulationen war die Visualisierung und Charakterisierung von Hydratkristallen, die sich in verschiedenen strukturellen Übergangsstadien befanden. Diese experimentellen Simulationen erweiterten unser Wissen über gemischte Gashydrate in natürlichen Lagerstätten und verbesserten unsere Fähigkeit, die Reaktion auf die globale Erwärmung zu bewerten. KW - gas hydrates KW - Raman spectroscopy KW - thermodynamic and kinetic properties KW - Gashydrate KW - Raman-Spektroskopie KW - thermodynamische und kinetische Eigenschaften Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-554760 ER - TY - THES A1 - Schirneck, Friedrich Martin T1 - Enumeration algorithms in data profiling N2 - Data profiling is the extraction of metadata from relational databases. An important class of metadata are multi-column dependencies. They come associated with two computational tasks. The detection problem is to decide whether a dependency of a given type and size holds in a database. The discovery problem instead asks to enumerate all valid dependencies of that type. We investigate the two problems for three types of dependencies: unique column combinations (UCCs), functional dependencies (FDs), and inclusion dependencies (INDs). We first treat the parameterized complexity of the detection variants. We prove that the detection of UCCs and FDs, respectively, is W[2]-complete when parameterized by the size of the dependency. The detection of INDs is shown to be one of the first natural W[3]-complete problems. We further settle the enumeration complexity of the three discovery problems by presenting parsimonious equivalences with well-known enumeration problems. Namely, the discovery of UCCs is equivalent to the famous transversal hypergraph problem of enumerating the hitting sets of a hypergraph. The discovery of FDs is equivalent to the simultaneous enumeration of the hitting sets of multiple input hypergraphs. Finally, the discovery of INDs is shown to be equivalent to enumerating the satisfying assignments of antimonotone, 3-normalized Boolean formulas. In the remainder of the thesis, we design and analyze discovery algorithms for unique column combinations. Since this is as hard as the general transversal hypergraph problem, it is an open question whether the UCCs of a database can be computed in output-polynomial time in the worst case. For the analysis, we therefore focus on instances that are structurally close to databases in practice, most notably, inputs that have small solutions. The equivalence between UCCs and hitting sets transfers the computational hardness, but also allows us to apply ideas from hypergraph theory to data profiling. We devise an discovery algorithm that runs in polynomial space on arbitrary inputs and achieves polynomial delay whenever the maximum size of any minimal UCC is bounded. Central to our approach is the extension problem for minimal hitting sets, that is, to decide for a set of vertices whether they are contained in any minimal solution. We prove that this is yet another problem that is complete for the complexity class W[3], when parameterized by the size of the set that is to be extended. We also give several conditional lower bounds under popular hardness conjectures such as the Strong Exponential Time Hypothesis (SETH). The lower bounds suggest that the running time of our algorithm for the extension problem is close to optimal. We further conduct an empirical analysis of our discovery algorithm on real-world databases to confirm that the hitting set perspective on data profiling has merits also in practice. We show that the resulting enumeration times undercut their theoretical worst-case bounds on practical data, and that the memory consumption of our method is much smaller than that of previous solutions. During the analysis we make two observations about the connection between databases and their corresponding hypergraphs. On the one hand, the hypergraph representations containing all relevant information are usually significantly smaller than the original inputs. On the other hand, obtaining those hypergraphs is the actual bottleneck of any practical application. The latter often takes much longer than enumerating the solutions, which is in stark contrast to the fact that the preprocessing is guaranteed to be polynomial while the enumeration may take exponential time. To make the first observation rigorous, we introduce a maximum-entropy model for non-uniform random hypergraphs and prove that their expected number of minimal hyperedges undergoes a phase transition with respect to the total number of edges. The result also explains why larger databases may have smaller hypergraphs. Motivated by the second observation, we present a new kind of UCC discovery algorithm called Hitting Set Enumeration with Partial Information and Validation (HPIValid). It utilizes the fast enumeration times in practice in order to speed up the computation of the corresponding hypergraph. This way, we sidestep the bottleneck while maintaining the advantages of the hitting set perspective. An exhaustive empirical evaluation shows that HPIValid outperforms the current state of the art in UCC discovery. It is capable of processing databases that were previously out of reach for data profiling. N2 - Data Profiling ist die Erhebung von Metadaten über relationale Datenbanken. Eine wichtige Klasse von Metadaten sind Abhängigkeiten zwischen verschiedenen Spalten. Für diese gibt es zwei wesentliche algorithmische Probleme. Beim Detektionsproblem soll entschieden werden, ob eine Datenbank eine Abhängigkeit eines bestimmt Typs und Größe aufweist; beim Entdeckungsproblem müssen dagegen alle gültigen Abhängigkeiten aufgezählt werden. Wir behandeln beide Probleme für drei Typen von Abhängigkeiten: eindeutige Spaltenkombinationen (UCCs), funktionale Abhängigkeiten (FDs) und Inklusionsabhängigkeiten (INDs). Wir untersuchen zunächst deren parametrisierte Komplexität und beweisen, dass die Detektion von UCCs und FDs W[2]-vollständig ist, wobei die Größe der Abhängigkeit als Parameter dient. Ferner identifizieren wir die Detektion von INDs als eines der ersten natürlichen W[3]-vollständigen Probleme. Danach klären wir die Aufzählungskomplexität der drei Entdeckungsprobleme, indem wir lösungserhaltende Äquivalenzen zu bekannten Aufzählungsproblemen konstruieren. Die Entdeckung von UCCs zeigt sich dabei als äquivalent zum berühmten Transversal-Hypergraph-Problem, bei dem die Hitting Sets eines Hypergraphens aufzuzählen sind. Die Entdeckung von FDs ist äquivalent zum simultanen Aufzählen der Hitting Sets mehrerer Hypergraphen und INDs sind äquivalent zu den erfüllenden Belegungen antimonotoner, 3-normalisierter boolescher Formeln. Anschließend beschäftigen wir uns mit dem Entwurf und der Analyse von Entdeckungsalgorithmen für eindeutige Spaltenkombinationen. Es ist unbekannt, ob alle UCCs einer Datenbank in worst-case ausgabepolynomieller Zeit berechnet werden können, da dies genauso schwer ist wie das allgemeine Transversal-Hypergraph-Problem. Wir konzentrieren uns daher bei der Analyse auf Instanzen, die strukturelle Ähnlichkeiten mit Datenbanken aus der Praxis aufweisen; insbesondere solche, deren Lösungen sehr klein sind. Die Äquivalenz zwischen UCCs und Hitting Sets überträgt zwar die algorithmische Schwere, erlaubt es uns aber auch Konzepte aus der Theorie von Hypergraphen auf das Data Profiling anzuwenden. Wir entwickeln daraus einen Entdeckungsalgorithmus, dessen Berechnungen auf beliebigen Eingaben nur polynomiellen Platz benötigen. Ist zusätzlich die Maximalgröße der minimalen UCCs durch eine Konstante beschränkt, so hat der Algorithmus außerdem polynomiell beschränkten Delay. Der zentrale Baustein unseres Ansatzes ist das Erweiterbarkeitsproblem für minimale Hitting Sets, das heißt, die Entscheidung, ob eine gegebene Knotenmenge in einer minimalen Lösung vorkommt. Wir zeigen, dass dies, mit der Größe der Knotenmenge als Parameter, ein weiteres natürliches Problem ist, welches vollständig für die Komplexitätsklasse W[3] ist. Außerdem beweisen wir bedingte untere Laufzeitschranken unter der Annahme gängiger Schwere-Vermutungen wie der Starken Exponentialzeithypothese (SETH). Dies belegt, dass die Laufzeit unseres Algorithmus für das Erweiterbarkeitsproblem beinahe optimal ist. Eine empirische Untersuchung unseres Entdeckungsalgorithmus auf realen Daten bestätigt, dass die Hitting-Set-Perspektive auch praktische Vorteile für das Data Profiling hat. So sind die Berechnungzeiten für das Finden der UCCs bereits sehr schnell und der Speicherverbrauch unseres Ansatzes ist deutlich geringer als der existierender Methoden. Die Untersuchung zeigt auch zwei interessante Verbindungen zwischen Datenbanken und ihren zugehörigen Hypergraphen: Einerseits sind die Hypergraphen, die alle relevanten Informationen enthalten, meist viel kleiner als die Eingabe-Datenbanken, andererseits ist die Berechnung dieser Hypergraphen die eigentliche Engstelle in der Praxis. Sie nimmt in der Regel viel mehr Zeit in Anspruch, als das Aufzählen aller Lösungen. Dies steht im deutlichen Gegensatz zu den bekannten theoretischen Resultaten, die besagen, dass die Hypergraph-Vorberechnung polynomiell ist, während der Aufzählungsschritt exponentielle Zeit benötigen kann. Um die erste Beobachtung zu formalisieren, führen wir ein Maximum-Entropie-Modell für nicht-uniforme Hypergraphen ein und zeigen, dass die erwartete Anzahl ihrer minimalen Hyperkanten einen Phasenübergang druchläuft. Unsere Ergebnisse erklären auch warum größere Datenbanken mitunter kleinere Hypergraphen haben. Die zweite Beobachtung inspiriert uns zu einen Entdeckungsalgorithmus neuer Art, „Hitting Set Enumeration with Partial Information and Validation“ (HPIValid). Dieser nutzt die schnellen Aufzählungszeiten auf praktischen Daten aus, um die langwierige Berechnung des zu Grunde liegenden Hypergraphens zu beschleunigen. Dadurch umgehen wir die Engstelle und können gleichzeitig die Vorteile der Hitting-Set-Perspektive beibehalten. Eine ausgiebige empirische Analyse zeigt, dass HPIValid den aktuellen Stand der Technik im Bereich der UCC-Entdeckung deutlich übertrifft. HPIValid kann Datenbanken verarbeiten, für die Data Profiling zuvor unmöglich war. T2 - Aufzählungsalgorithmen für das Data Profiling KW - Chernoff-Hoeffding theorem KW - data profiling KW - enumeration algorithms KW - hitting sets KW - PhD thesis KW - transversal hypergraph KW - unique column combinations KW - Satz von Chernoff-Hoeffding KW - Dissertation KW - Data Profiling KW - Aufzählungsalgorithmen KW - Hitting Sets KW - Transversal-Hypergraph KW - eindeutige Spaltenkombination Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556726 ER - TY - THES A1 - Bartz, Christian T1 - Reducing the annotation burden: deep learning for optical character recognition using less manual annotations N2 - Text is a ubiquitous entity in our world and daily life. We encounter it nearly everywhere in shops, on the street, or in our flats. Nowadays, more and more text is contained in digital images. These images are either taken using cameras, e.g., smartphone cameras, or taken using scanning devices such as document scanners. The sheer amount of available data, e.g., millions of images taken by Google Streetview, prohibits manual analysis and metadata extraction. Although much progress was made in the area of optical character recognition (OCR) for printed text in documents, broad areas of OCR are still not fully explored and hold many research challenges. With the mainstream usage of machine learning and especially deep learning, one of the most pressing problems is the availability and acquisition of annotated ground truth for the training of machine learning models because obtaining annotated training data using manual annotation mechanisms is time-consuming and costly. In this thesis, we address of how we can reduce the costs of acquiring ground truth annotations for the application of state-of-the-art machine learning methods to optical character recognition pipelines. To this end, we investigate how we can reduce the annotation cost by using only a fraction of the typically required ground truth annotations, e.g., for scene text recognition systems. We also investigate how we can use synthetic data to reduce the need of manual annotation work, e.g., in the area of document analysis for archival material. In the area of scene text recognition, we have developed a novel end-to-end scene text recognition system that can be trained using inexact supervision and shows competitive/state-of-the-art performance on standard benchmark datasets for scene text recognition. Our method consists of two independent neural networks, combined using spatial transformer networks. Both networks learn together to perform text localization and text recognition at the same time while only using annotations for the recognition task. We apply our model to end-to-end scene text recognition (meaning localization and recognition of words) and pure scene text recognition without any changes in the network architecture. In the second part of this thesis, we introduce novel approaches for using and generating synthetic data to analyze handwriting in archival data. First, we propose a novel preprocessing method to determine whether a given document page contains any handwriting. We propose a novel data synthesis strategy to train a classification model and show that our data synthesis strategy is viable by evaluating the trained model on real images from an archive. Second, we introduce the new analysis task of handwriting classification. Handwriting classification entails classifying a given handwritten word image into classes such as date, word, or number. Such an analysis step allows us to select the best fitting recognition model for subsequent text recognition; it also allows us to reason about the semantic content of a given document page without the need for fine-grained text recognition and further analysis steps, such as Named Entity Recognition. We show that our proposed approaches work well when trained on synthetic data. Further, we propose a flexible metric learning approach to allow zero-shot classification of classes unseen during the network’s training. Last, we propose a novel data synthesis algorithm to train off-the-shelf pixel-wise semantic segmentation networks for documents. Our data synthesis pipeline is based on the famous Style-GAN architecture and can synthesize realistic document images with their corresponding segmentation annotation without the need for any annotated data! N2 - Text umgibt uns überall. Wir finden Text in allen Lebenslagen, z.B. in einem Geschäft, an Gebäuden, oder in unserer Wohnung. Viele dieser Textentitäten können heutzutage auch in digitalen Bildern gefunden werden, welche auf verschiedene Art und Weise erstellt werden können, z.B. mittels einer Kamera in einem Smartphone oder durch einen Dokumentenscanner. Die Anzahl verfügbarer digitaler Bilder, z.B. Millionen – wenn nicht Milliarden von Bildern – in Google Streetview, macht eine manuelle Analyse der Bilddaten unmöglich. Obwohl es im Gebiet der Optical Character Recognition (OCR) in den letzten Jahren viel Fortschritt gab, gibt es doch noch viele Bereiche, die noch nicht vollständig erforscht worden sind. Der immer zunehmende Einsatz von Methoden des maschinellen Lernens, insbesondere der Einsatz von Deep Learning Technologien, im Bereich der OCR, führt zu dem großen Problem der Verfügbarkeit von annotierten Trainingsdaten. Die Beschaffung annotierter Daten mittels manueller Annotation ist zeitintensiv und sehr teuer. In dieser Arbeit zeigen wir neue Wege und Verfahren auf, wie das Problem der Beschaffung annotierter Daten für die Anwendung von modernsten Deep Learning Verfahren im Bereich der OCR gelöst werden könnte. Hierbei zeigen wir neue Verfahren in zwei Unterbereichen der OCR. Einerseits untersuchen wir, wie wir die Annotationskosten reduzieren könnten, indem wir inexakte Annotationen benutzen um z.B. die Kosten der Annotation von echten Daten im Bereich der Texterkennung aus natürlichen Bildern zu reduzieren. Dieses System wird mittels weak supervision trainiert und erreicht Ergebnisse, die auf dem Stand der Technik bzw. darüber liegen. Unsere Methode basiert auf zwei unabhängigen neuronalen Netzwerken, die mittels eines Spatial Transformers verbunden werden. Beide Netzwerke werden zusammen trainiert und lernen zusammen, wie Text gefunden und gelesen werden kann. Dabei nutzen wir aber nur Annotationen und Supervision für das Lesen (recognition) des Textes, nicht für die Textfindung. Wir zeigen weiterhin, dass unser System für eine Mehrzahl von Aufgaben im Bereich der Texterkennung aus natürlichen Bildern genutzt werden kann, ohne Veränderungen im Netzwerk vornehmen zu müssen. Andererseits untersuchen wir, wie wir Verfahren zur Erstellung von synthetischen Daten benutzen können, um die Kosten und den Aufwand der manuellen Annotation zu verringern und zeigen Ergebnisse aus dem Bereich der Analyse von Handschrift in historischen Archivdokumenten. Zuerst präsentieren wir ein System zur Erkennung, ob ein Bild überhaupt Handschrift enthält. Hier schlagen wir eine neue Datengenerierungsmethode vor. Die generierten Daten werden zum Training eines Klassifizierungsmodells genutzt. Unsere experimentellen Ergebnisse belegen, dass unsere Idee auch auf echten Daten aus einem Archiv eingesetzt werden kann. Als Zweites führen wir einen neuen Schritt in einer Dokumentenanalyseplattform ein: Handschriftklassifizierung. Hier ordnen wir Bilder einzelner handgeschriebener Wörter anhand ihrer visuellen Struktur in Klassen, wie Zahlen, Datumsangaben oder Wörter ein. Die Einführung dieses Analyseschrittes erlaubt es uns den besten Algorithmus für den nächsten Schritt, die eigentliche Handschrifterkennung, zu finden. Der Analyseschritt erlaubt es uns auch, bereits Aussagen über den semantischen Inhalt eines Dokumentes zu treffen, ohne weitere Analyseschritte, wie Named Entity Recognition, durchführen zu müssen. Wir zeigen, dass unser Ansatz sehr gut funktioniert, wenn er auf synthetischen Daten trainiert wird; wir zeigen weiterhin, dass unser Ansatz auch für zero-shot Klassifikation eingesetzt werden kann. Zum Schluss präsentieren wir ein neues Verfahren zur Generierung von Trainingsdaten für die pixelgenaue semantische Segmentierung in Bildern von Dokumenten. Unser Verfahren basiert auf der bekannten StyleGAN Architektur und ist in der Lage Bilder mit entsprechender Annotation automatisch zu generieren. Hierbei werden keine echten annotierten Daten benötigt und das Verfahren kann auf jeder Form von Dokumenten eingesetzt werden. KW - computer vision KW - optical character recognition KW - archive analysis KW - data synthesis KW - weak supervision KW - Archivanalyse KW - maschinelles Sehen KW - Datensynthese KW - Texterkennung KW - schwach überwachtes maschinelles Lernen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555407 ER - TY - THES A1 - Samprogna Mohor, Guilherme T1 - Exploring the transferability of flood loss models across flood types N2 - The estimation of financial losses is an integral part of flood risk assessment. The application of existing flood loss models on locations or events different from the ones used to train the models has led to low performance, showing that characteristics of the flood damaging process have not been sufficiently well represented yet. To improve flood loss model transferability, I explore various model structures aiming at incorporating different (inland water) flood types and pathways. That is based on a large survey dataset of approximately 6000 flood-affected households which addresses several aspects of the flood event, not only the hazard characteristics but also information on the affected building, socioeconomic factors, the household's preparedness level, early warning, and impacts. Moreover, the dataset reports the coincidence of different flood pathways. Whilst flood types are a classification of flood events reflecting their generating process (e.g. fluvial, pluvial), flood pathways represent the route the water takes to reach the receptors (e.g. buildings). In this work, the following flood pathways are considered: levee breaches, river floods, surface water floods, and groundwater floods. The coincidence of several hazard processes at the same time and place characterises a compound event. In fact, many flood events develop through several pathways, such as the ones addressed in the survey dataset used. Earlier loss models, although developed with one or multiple predictor variables, commonly use loss data from a single flood event which is attributed to a single flood type, disregarding specific flood pathways or the coincidence of multiple pathways. This gap is addressed by this thesis through the following research questions: 1. In which aspects do flood pathways of the same (compound inland) flood event differ? 2. How much do factors which contribute to the overall flood loss in a building differ in various settings, specifically across different flood pathways? 3. How well can Bayesian loss models learn from different settings? 4. Do compound, that is, coinciding flood pathways result in higher losses than a single pathway, and what does the outcome imply for future loss modelling? Statistical analysis has found that households affected by different flood pathways also show, in general, differing characteristics of the affected building, preparedness, and early warning, besides the hazard characteristics. Forecasting and early warning capabilities and the preparedness of the population are dominated by the general flood type, but characteristics of the hazard at the object-level, the impacts, and the recovery are more related to specific flood pathways, indicating that risk communication and loss models could benefit from the inclusion of flood-pathway-specific information. For the development of the loss model, several potentially relevant predictors are analysed: water depth, duration, velocity, contamination, early warning lead time, perceived knowledge about self-protection, warning information, warning source, gap between warning and action, emergency measures, implementation of property-level precautionary measures (PLPMs), perceived efficacy of PLPMs, previous flood experience, awareness of flood risk, ownership, building type, number of flats, building quality, building value, house/flat area, building area, cellar, age, household size, number of children, number of elderly residents, income class, socioeconomic status, and insurance against floods. After a variable selection, descriptors of the hazard, building, and preparedness were deemed significant, namely: water depth, contamination, duration, velocity, building area, building quality, cellar, PLPMs, perceived efficacy of PLPMs, emergency measures, insurance, and previous flood experience. The inclusion of the indicators of preparedness is relevant, as they are rarely involved in loss datasets and in loss modelling, although previous studies have shown their potential in reducing losses. In addition, the linear model fit indicates that the explanatory factors are, in several cases, differently relevant across flood pathways. Next, Bayesian multilevel models were trained, which intrinsically incorporate uncertainties and allow for partial pooling (i.e. different groups of data, such as households affected by different flood pathways, can learn from each other), increasing the statistical power of the model. A new variable selection was performed for this new model approach, reducing the number of predictors from twelve to seven variables but keeping factors of the hazard, building, and preparedness, namely: water depth, contamination, duration, building area, PLPMs, insurance, and previous flood experience. The new model was trained not only across flood pathways but also across regions of Germany, divided according to general socioeconomic factors and insurance policies, and across flood events. The distinction across regions and flood events did not improve loss modelling and led to a large overlap of regression coefficients, with no clear trend or pattern. The distinction of flood pathways showed credibly distinct regression coefficients, leading to a better understanding of flood loss modelling and indicating one potential reason why model transferability has been challenging. Finally, new model structures were trained to include the possibility of compound inland floods (i.e. when multiple flood pathways coincide on the same affected asset). The dataset does not allow for verifying in which sequence the flood pathway waves occurred and predictor variables reflect only their mixed or combined outcome. Thus, two Bayesian models were trained: 1. a multi-membership model, a structure which learns the regression coefficients for multiple flood pathways at the same time, and 2. a multilevel model wherein the combination of coinciding flood pathways makes individual categories. The multi-membership model resulted in credibly different coefficients across flood pathways but did not improve model performance in comparison to the model assuming only a single dominant flood pathway. The model with combined categories signals an increase in impacts after compound floods, but due to the uncertainty in model coefficients and estimates, it is not possible to ascertain such an increase as credible. That is, with the current level of uncertainty in differentiating the flood pathways, the loss estimates are not credibly distinct from individual flood pathways. To overcome the challenges faced, non-linear or mixed models could be explored in the future. Interactions, moderation, and mediation effects, as well as non-linear effects, should also be further studied. Loss data collection should regularly include preparedness indicators, and either data collection or hydraulic modelling should focus on the distinction of coinciding flood pathways, which could inform loss models and further improve estimates. Flood pathways show distinct (financial) impacts, and their inclusion in loss modelling proves relevant, for it helps in clarifying the different contribution of influencing factors to the final loss, improving understanding of the damaging process, and indicating future lines of research. N2 - Die Schätzung finanzieller Schäden ist ein wesentlicher Bestandteil der Hochwasserrisikoanalyse. Die Anwendung bestehender Hochwasserschadensmodelle auf anderen Orten oder Ereignisse als jene, die zur Kalibrierung der Modelle verwendet wurden, hat zu einer geringen Modellgüte geführt. Dies zeigt, dass die Merkmale des Hochwasserschadensprozesses in den Modellen noch nicht hinreichend repräsentiert sind. Um die Übertragbarkeit von Hochwasserschadensmodellen zu verbessern, habe ich verschiedene Modellstrukturen untersucht, die darauf abzielen, unterschiedliche Hochwassertypen und wirkungspfade einzubeziehen. Dies geschieht auf der Grundlage eines großen Datensatzes von ca. 6000 Fällen überschwemmungsgeschädigter Haushalte, der mehrere Aspekte des Hochwasserereignisses berücksichtigt. Diese sind nicht nur die Gefährdungsmerkmale, sondern auch Informationen über das betroffene Gebäude, sozioökonomische Faktoren, die Vorsorge des Haushalts, die Frühwarnung und die Auswirkungen. Darüber hinaus enthält der Datensatz Informationen über das Vorkommen verschiedener Hochwasserwirkungspfade. Im Gegensatz zu den Hochwassertypen, die eine Klassifizierung von Hochwasserereignissen darstellen und deren Entstehungsprozess widerspiegeln (z. B. Fluss- oder Regenhochwasser), repräsentieren die Hochwasserwirkungspfade den Weg, den das Wasser nimmt, um die Rezeptoren (z. B. die Gebäude) zu erreichen. In dieser Arbeit werden folgende Hochwasserwirkungspfade betrachtet: Deichbrüche, Flusshochwasser, Überflutung durch oberflächlich abfließendes Wasser und Grundwasserhochwasser. Das Zusammentreffen mehrerer Gefahrenprozesse zur selben Zeit und am selben Ort kennzeichnet ein Verbundereignis (compound event). Tatsächlich entwickeln sich viele Hochwasserereignisse über mehrere Wirkungspfade, z. B. die vorher erwähnten. Frühere Schadensmodelle, die zwar mit einer oder mehreren Prädiktorvariablen entwickelt wurden, verwenden in der Regel Schadensdaten eines einzelnen Hochwasserereignisses, das einem bestimmten Hochwassertyp zugeordnet wird. Spezifische Hochwasserwirkungspfade oder das Zusammentreffen mehrerer Wirkungspfade werden dabei vernachlässigt. An dieser Forschungslücke setzt die vorliegende Arbeit mit folgenden Forschungsfragen an: 1) Inwiefern unterscheiden sich die Hochwasserwirkungspfade desselben (zusammengesetzten) Hochwasserereignisses? 2) Inwieweit unterscheiden sich die Faktoren, die zum gesamten Hochwasserschaden an einem Gebäude beitragen, in verschiedenen Situationen, insbesondere bei verschiedenen Hochwasserwirkungspfaden? 3) Wie gut können Bayes'sche Schadensmodelle aus verschiedenen Situationen lernen? 4) Führen gemischte, d. h. mehrere zusammentreffende Hochwasserwirkungspfade, zu höheren Schäden als ein einzelner Pfad und was bedeuten die Ergebnisse für die künftige Schadensmodellierung? Die statistische Analyse zeigt, dass Haushalte, die von verschiedenen Hochwasserwirkungspfaden betroffen sind, im Allgemeinen neben den Gefahrenmerkmalen auch unterschiedliche Eigenschaften des betroffenen Gebäudes sowie der Vorsorge und der Frühwarnung aufweisen. Die Variablen des Frühwarnsystems und die Vorsorge der Bevölkerung werden von dem allgemeinen Hochwassertyp dominiert, wohingegen die Merkmale der Gefahr auf Objektebene, die Auswirkungen und die Wiederherstellung von den spezifischeren Hochwasserwirkungspfaden dominiert. Dies deutet darauf hin, dass Risikokommunikation und Schadensmodelle von der Einbeziehung hochwasserwirkungspfad-spezifischer Informationen profitieren könnten. Für die Entwicklung des Schadensmodells wurden mehrere potenziell relevante Prädiktoren analysiert: Wassertiefe, Dauer, Geschwindigkeit, Verschmutzung, Vorwarnzeit, wahrgenommenes Wissen über Selbstschutz, Warninformation, Warnquelle, Zeitspanne zwischen Warnung und Handlung, Notfallmaßnahmen, Umsetzung von Vorsorgemaßnahmen auf Grundstücksebene (PLPMs), wahrgenommene Wirksamkeit von PLPMs, frühere Hochwassererfahrungen, Bewusstsein für das Hochwasserrisiko, Eigentumsverhältnisse, Gebäudetyp, Anzahl der Wohnungen, Gebäudequalität, Gebäudewert, Haus-/Wohnungsfläche, Gebäudefläche, Keller, Alter der befragten Person, Haushaltsgröße, Anzahl der Kinder, Anzahl der älteren Menschen, monatliches Einkommen sowie sozioökonomischer Status und Versicherung gegen Hochwasser. Nach einer Variablenauswahl wurden folgende Deskriptoren der Gefahr, des Gebäudes und der Vorbereitung als signifikant eingestuft: Wassertiefe, Verschmutzung, Überflutungsdauer, Geschwindigkeit, Gebäudefläche, Gebäudequalität, Keller, PLPMs, wahrgenommene Wirksamkeit von PLPMs, Notfallmaßnahmen, Versicherung und frühere Hochwassererfahrung. Die Einbeziehung der letztgenannten Gruppe von Faktoren ist von Bedeutung, da Indikatoren für die Vorsorge nur selten in Schadensdatensätze und Schadensmodellierung integriert werden, obwohl frühere Studien gezeigt haben, dass sie zur Verringerung von Schäden beitragen können. Die lineare Modellanpassung zeigte, dass die erklärenden Faktoren in mehreren Fällen je nach Hochwasserpfad unterschiedlich relevant sind. Als Nächstes wurden Bayes'sche Mehrebenenmodelle trainiert, die Unsicherheiten immanent einbeziehen und ein partielles Pooling ermöglichen. Das heißt, verschiedene Datengruppen (Haushalte, die von verschiedenen Hochwasserwirkungspfaden betroffen sind) können voneinander lernen, was die statistische Aussagekraft des Modells erhöht. Für diesen neuen Modellansatz wurde eine aktualisierte Variablenauswahl getroffen, bei der die Anzahl der Prädiktoren von zwölf auf sieben reduziert wurde, aber Faktoren der Gefahr, des Gebäudes und der Vorbereitung beibehalten wurden. Diese sind Wassertiefe, Verschmutzung, Dauer, Gebäudefläche, PLPMs, Versicherung und frühere Hochwassererfahrung. Das neue Modell wurde nicht nur über Hochwasserwirkungspfade, sondern auch über Regionen in Deutschland – unterteilt nach allgemeinen sozioökonomischen Faktoren und Versicherungspolicen – sowie über Hochwasserereignisse trainiert. Die Unterscheidung nach Regionen und Hochwasserereignissen verbesserte die Schadensmodellierung nicht und führte zu einer großen Überlappung der Regressionskoeffizienten ohne klaren Trend oder eindeutiges Muster. Die Unterscheidung nach Hochwasserwirkungspfaden ergab glaubhaft unterschiedliche Regressionskoeffizienten, was zu einem besseren Verständnis der Modellierung von Hochwasserschäden führte und einen möglichen Grund für die schwierige Übertragbarkeit der Modelle auf andere Situationen darstellt. Schließlich wurden neue Modellstrukturen trainiert, um die Möglichkeit gemischter (Binnen)überschwemmungen, d. h. das Zusammentreffen mehrerer Hochwasserwirkungspfade auf demselben Objekt, zu berücksichtigen. Anhand des Datensatzes lässt sich nicht überprüfen, in welcher Reihenfolge die Hochwasserpfadwellen auftraten, und die Prädiktorvariablen zeigen nur deren gemischtes oder kombiniertes Ergebnis. Daher wurden zwei Bayes'sche Modelle trainiert: 1) ein Multi-Membership-Modell als Struktur, die die Regressionskoeffizienten für mehrere Hochwasserwirkungspfade gleichzeitig lernt, und 2) ein Mehrebenenmodell, bei dem die Kombination zusammentreffender Hochwasserwirkungspfade einzelne Kategorien bildet. Ersteres führte zu glaubhaft unterschiedlichen Koeffizienten für die verschiedenen Hochwasserwirkungspfade, verbesserte aber nicht die Modellleistung im Vergleich zu dem Modell, das nur einen einzigen, dominanten Hochwasserpfad annimmt. Das Modell mit kombinierten Wirkungspfadkategorien deutet auf eine Zunahme der Auswirkungen nach gemischten Überschwemmungen hin. Aufgrund der Unsicherheit der Modellkoeffizienten und -schätzungen ist es jedoch nicht möglich, eine solche Zunahme als glaubwürdig plausibel zu bewerten. Das heißt, bei dem derzeitigen Grad an Unsicherheit hinsichtlich der Differenzierung der Hochwasserwirkungspfade sind die Schadensschätzungen nicht glaubwürdig von den einzelnen Hochwasserwirkungspfaden zu unterscheiden. Zur Überwindung der bestehenden Probleme könnten nichtlineare oder gemischte Modelle untersucht werden. Zudem sollten Interaktionseffekte, Moderations- und Mediationseffekte sowie nichtlineare Effekte weiter erforscht werden. Bei der Schadensdaten\-erhebung sollten außerdem regelmäßig Indikatoren für die Vorsorge einbezogen werden, und entweder bei der Datenerhebung oder bei der hydraulischen Modellierung sollte der Schwerpunkt auf der Unterscheidung kombinierter Hochwasserwirkungspfade liegen, was die Schadensmodelle bereichern und die Schätzungen weiter verbessern könnte. Hochwasserwirkungspfade zeigen differente (finanzielle) Auswirkungen und ihre Einbeziehung in die Schadensmodellierung hat sich als relevant erwiesen, da sie dazu beitragen, den unterschiedlichen Beitrag der Einflussfaktoren zum endgültigen Schaden zu klären, das Verständnis des Schadensprozesses zu verbessern und künftige Forschungslinien aufzuzeigen. T2 - Untersuchung der Übertragbarkeit von Hochwasserschadensmodellen über Hochwassertypen KW - flood KW - financial loss KW - flood loss modelling KW - Bayesian model KW - multilevel modelling KW - flood pathway KW - Hochwasser KW - finanzielle Schäden KW - Schätzung finanzieller Schäden KW - Bayes'sche Modelle KW - Mehrebenenmodelle KW - Hochwasserwirkungspfad Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-557141 ER - TY - THES A1 - Schanner, Maximilian Arthus T1 - Correlation based modeling of the archeomagnetic field T1 - Korrelationsbasierte Modellierung des archäomagnetischen Feldes N2 - The geomagnetic main field is vital for live on Earth, as it shields our habitat against the solar wind and cosmic rays. It is generated by the geodynamo in the Earth’s outer core and has a rich dynamic on various timescales. Global models of the field are used to study the interaction of the field and incoming charged particles, but also to infer core dynamics and to feed numerical simulations of the geodynamo. Modern satellite missions, such as the SWARM or the CHAMP mission, support high resolution reconstructions of the global field. From the 19 th century on, a global network of magnetic observatories has been established. It is growing ever since and global models can be constructed from the data it provides. Geomagnetic field models that extend further back in time rely on indirect observations of the field, i.e. thermoremanent records such as burnt clay or volcanic rocks and sediment records from lakes and seas. These indirect records come with (partially very large) uncertainties, introduced by the complex measurement methods and the dating procedure. Focusing on thermoremanent records only, the aim of this thesis is the development of a new modeling strategy for the global geomagnetic field during the Holocene, which takes the uncertainties into account and produces realistic estimates of the reliability of the model. This aim is approached by first considering snapshot models, in order to address the irregular spatial distribution of the records and the non-linear relation of the indirect observations to the field itself. In a Bayesian setting, a modeling algorithm based on Gaussian process regression is developed and applied to binned data. The modeling algorithm is then extended to the temporal domain and expanded to incorporate dating uncertainties. Finally, the algorithm is sequentialized to deal with numerical challenges arising from the size of the Holocene dataset. The central result of this thesis, including all of the aspects mentioned, is a new global geomagnetic field model. It covers the whole Holocene, back until 12000 BCE, and we call it ArchKalmag14k. When considering the uncertainties that are produced together with the model, it is evident that before 6000 BCE the thermoremanent database is not sufficient to support global models. For times more recent, ArchKalmag14k can be used to analyze features of the field under consideration of posterior uncertainties. The algorithm for generating ArchKalmag14k can be applied to different datasets and is provided to the community as an open source python package. N2 - Das geomagnetische Hauptfeld ist essenziell für das Leben auf der Erde, da es unseren Lebensraum gegen den Sonnenwind und kosmische Strahlung abschirmt. Es wird vom Geodynamo im Erdkern erzeugt und zeigt eine komplexe Dynamik auf unterschiedlichen Zeitskalen. Globale Modelle des Magnetfelds werden zur Studie der Wechselwirkung von einströmenden geladenen Teilchen genutzt, aber auch um Kerndynamiken zu untersuchen und um sie in numerische Simulationen des Geodynamos einzuspeisen. Moderne Satellitenmissionen, wie SWARM und CHAMP, stützen hochauflösende Rekonstruktionen des globalen Felds. Seit dem 19. Jahrhundert wird ein globales Netzwerk von magnetischen Observatorien aufgebaut. Es wächst stetig und globale Modelle können aus den Daten, die es liefert, konstruiert werden. Geomagnetische Feldmodelle, die weiter in der Zeit zurückreichen, basieren auf indirekten Beobachtungen des Felds, d.h. auf thermoremanenten Daten, wie gebrannten Tonen oder vulkanischen Gesteinen, und auf Sedimentdaten aus Seen und Meeren. Diese indirekten Beobachtungen werden mit (teilweise sehr hohen) Unsicherheiten geliefert, die aus den komplexen Datierungs- und Messmethoden resultieren. Ziel dieser Arbeit ist die Entwicklung einer neuen Modellierungsmethode für das globale geomagnetische Feld während des Holozäns, welche die Unsicherheiten berücksichtigt und realistische Schätzungen für die Verlässlichkeit des Modells liefert. Dabei werden lediglich thermoremanente Daten betrachtet. Diesem Ziel wird sich zunächst genähert, indem ein Schnappschuss-Modell konstruiert wird, um die unregelmäßige räumliche Verteilung der Daten und die nichtlineare Beziehung zwischen Daten und Magnetfeld zu untersuchen. In einem Bayesianischen Rahmen wird ein auf Gaussprozessen basierender Algorithmus entwickelt und zunächst auf diskretisierte Daten angewendet. Dieser Algorithmus wird dann um eine zeitabhängige Komponente ergänzt und erweitert, um Datierungsfehler zu berücksichtigen. Zuletzt wird der Algorithmus sequenzialisiert, um mit numerischen Herausforderungen umzugehen, die aufgrund der Größe des Holozän-Datensatzes bestehen. Das zentrale Ergebnis dieser Arbeit, welches alle genannten Aspekte beinhaltet, ist ein neues globales geomagnetisches Feldmodell. Es deckt das gesamte Holozän ab, bis ins Jahr 12000 BCE, und wir nennen es ArchKalmag14k. Bei Betrachtung der Unsicherheiten, die gemeinsam mit dem Modell ermittelt werden, wird deutlich, dass die thermoremanente Datenbasis nicht ausreicht, um globale Modelle vor dem Jahr 6000 BCE zu stützen. Für jüngere Zeiträume kann ArchKalmag14k genutzt werden, um Merkmale des Erdmagnetfelds unter Berücksichtigung der a posteriori Unsicherheiten zu analysieren. Der Algorithmus, mit dem ArchKalmag14k erzeugt wurde, kann auf weitere Datensätze angewendet werden und wird als quelloffenes python-Paket zur Verfügung gestellt. KW - geomagnetism KW - applied mathematics KW - Gaussian processes KW - Kalman filter KW - Gauß-Prozesse KW - Kalman Filter KW - angewandte Mathematik KW - Geomagnetismus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555875 ER - TY - THES A1 - Dreseler, Markus T1 - Automatic tiering for in-memory database systems N2 - A decade ago, it became feasible to store multi-terabyte databases in main memory. These in-memory databases (IMDBs) profit from DRAM's low latency and high throughput as well as from the removal of costly abstractions used in disk-based systems, such as the buffer cache. However, as the DRAM technology approaches physical limits, scaling these databases becomes difficult. Non-volatile memory (NVM) addresses this challenge. This new type of memory is persistent, has more capacity than DRAM (4x), and does not suffer from its density-inhibiting limitations. Yet, as NVM has a higher latency (5-15x) and a lower throughput (0.35x), it cannot fully replace DRAM. IMDBs thus need to navigate the trade-off between the two memory tiers. We present a solution to this optimization problem. Leveraging information about access frequencies and patterns, our solution utilizes NVM's additional capacity while minimizing the associated access costs. Unlike buffer cache-based implementations, our tiering abstraction does not add any costs when reading data from DRAM. As such, it can act as a drop-in replacement for existing IMDBs. Our contributions are as follows: (1) As the foundation for our research, we present Hyrise, an open-source, columnar IMDB that we re-engineered and re-wrote from scratch. Hyrise enables realistic end-to-end benchmarks of SQL workloads and offers query performance which is competitive with other research and commercial systems. At the same time, Hyrise is easy to understand and modify as repeatedly demonstrated by its uses in research and teaching. (2) We present a novel memory management framework for different memory and storage tiers. By encapsulating the allocation and access methods of these tiers, we enable existing data structures to be stored on different tiers with no modifications to their implementation. Besides DRAM and NVM, we also support and evaluate SSDs and have made provisions for upcoming technologies such as disaggregated memory. (3) To identify the parts of the data that can be moved to (s)lower tiers with little performance impact, we present a tracking method that identifies access skew both in the row and column dimensions and that detects patterns within consecutive accesses. Unlike existing methods that have substantial associated costs, our access counters exhibit no identifiable overhead in standard benchmarks despite their increased accuracy. (4) Finally, we introduce a tiering algorithm that optimizes the data placement for a given memory budget. In the TPC-H benchmark, this allows us to move 90% of the data to NVM while the throughput is reduced by only 10.8% and the query latency is increased by 11.6%. With this, we outperform approaches that ignore the workload's access skew and access patterns and increase the query latency by 20% or more. Individually, our contributions provide novel approaches to current challenges in systems engineering and database research. Combining them allows IMDBs to scale past the limits of DRAM while continuing to profit from the benefits of in-memory computing. N2 - Seit etwa einem Jahrzehnt können Datenbanken mit einer Größe von mehreren Terabytes im Hauptspeicher abgelegt werden. Diese Hauptspeicherdatenbanken (In-Memory Databases) profitieren einerseits von der niedrigen Latenz und dem hohen Durchsatz von DRAM und andererseits vom Fehlen teurer Abstraktionsschichten, wie dem Buffer Cache, welcher in Festplatten-basierten Datenbanksystemen von Nöten war. Dadurch, dass die Entwicklung der DRAM-Technologie mehr und mehr auf physikalische Grenzen stößt, wird es jedoch zunehmend schwierig, Hauptspeicherdatenbanken zu skalieren. Non-volatile Memory (NVM) adressiert diese Herausforderung. Dieser neue Speichertyp ist persistent, hat eine um einen Faktor 4 höhere Kapazität als DRAM und leidet nicht unter den Einschränkungen, welche die Erhöhung der Speicherdichte von DRAM limitieren. Da NVM jedoch eine höhere Latenz (5-15x) und einen niedrigeren Durchsatz (0.35x) aufweist als DRAM, kann es DRAM noch nicht vollständig ersetzen. Bei der Entwicklung von Hauptspeicherdatenbanken muss daher der Zielkonflikt zwischen den beiden Speichertypen ausbalanciert werden. Die vorliegende Arbeit präsentiert eine Lösung für dieses Optimierungsproblem. Indem wir Informationen zu Zugriffshäufigkeiten und -mustern auswerten, können wir die zusätzliche Kapazität von NVM ausnutzen und gleichzeitig die mit NVM verbundene Erhöhung von Zugriffskosten minimieren. Anders als bei bestehenden Ansätzen, welche auf einen Buffer Cache aufsetzen, bleiben bei unserer Ansatz die Kosten von Zugriffen auf DRAM unverändert. Dadurch kann unsere Lösung als unmittelbarer Ersatz für existierende Hauptspeicherdatenbanken genutzt werden. Unsere Arbeit leistet hierfür die folgenden Beiträge: (1) Als Grundlage für unsere Forschung präsentieren wir Hyrise, eine quelloffene, spaltenorientierte Hauptspeicherdatenbank, welche wir von Grund auf neu entwickelt haben. Hyrise ermöglicht realistische End-to-End Benchmarks von SQL Workloads und weist dabei eine Performance auf, welche mit anderen Datenbanksystemen aus Industrie und Forschung vergleichbar ist. Hierbei ist Hyrise leicht zu verstehen und modifizieren. Dies wurde durch den wiederholten Einsatz in Forschung und Lehre demonstriert. (2) Wir präsentieren ein neuartiges Speicherverwaltungs-Framework, welches verschiedene Speicherebenen (Tiers) unterstützt. Indem wir die Allokations- und Zugriffsmethoden dieser Speicherebenen kapseln, ermöglichen wir es, bestehende Datenstrukturen auf diese Ebenen aufzuteilen ohne ihre Implementierung anpassen zu müssen. Neben DRAM und NVM unterstützt unser Ansatz SSDs und ist auf zukünftige Technologien wie Disaggregated Memory vorbereitet. (3) Um jene Teile der Daten zu identifizieren, welche auf langsamere Ebenen verschoben werden können, ohne dass die Performance des Systems als Ganzes negativ beeinträchtigt wird, stellen wir mit unseren Access Countern eine Tracking-Methode vor, welche ungleich verteilte Zugriffshäufigkeiten sowohl in der Zeilen- als auch in der Spaltendimension erkennt. Ebenfalls erkennt die Tracking-Methode Zugriffsmuster in aufeinanderfolgenden Zugriffsoperationen. Trotz ihrer hohen Genauigkeit weisen unsere Access Counter keine messbaren Mehrkosten auf. Dies unterscheidet sie von bestehenden Ansätzen, welche ungleichverteilte Zugriffsmuster weniger gut erkennen, gleichzeitig aber Mehrkosten von 20% verursachen. (4) Abschließend stellen wir einen Tiering-Algorithmus vor, welcher die Verteilung von Daten auf die verschiedenen Speicherebenen optimiert. Am Beispiel des TPC-H-Benchmarks zeigen wir, wie 90% der Daten auf NVM verschoben werden können, wobei der Durchsatz nur um 10.8% reduziert und die durchschnittliche Antwortzeit um 11.6% erhöht wird. Damit übertreffen wir Ansätze, welche Ungleichverteilungen in den Zugriffshäufigkeiten und -mustern ignorieren. Einzeln betrachtet stellen unsere Beiträge neue Herangehensweisen für aktuelle Herausforderungen in der systemnahen Entwicklung und der Datenbankforschung dar. In ihrem Zusammenspiel ermöglichen sie es, Hauptspeicherdatenbanken über die Grenzen von DRAM hinaus zu skalieren und dabei weiterhin von den Vorteilen des In-Memory Computings zu profitieren. T2 - Automatisches Tiering für Hauptspeicherdatenbanken KW - dbms KW - imdb KW - tiering KW - nvm KW - hyrise KW - scm KW - dbms KW - imdb KW - mmdb KW - Datenbanken KW - tiering KW - nvm KW - hyrise KW - scm Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558253 ER - TY - THES A1 - Plauth, Max Frederik T1 - Improving the Accessibility of Heterogeneous System Resources for Application Developers using Programming Abstractions T1 - Verbesserung der Zugänglichkeit heterogener Systemressourcen für Anwendungsentwickler durch Programmierabstraktionen N2 - The heterogeneity of today's state-of-the-art computer architectures is confronting application developers with an immense degree of complexity which results from two major challenges. First, developers need to acquire profound knowledge about the programming models or the interaction models associated with each type of heterogeneous system resource to make efficient use thereof. Second, developers must take into account that heterogeneous system resources always need to exchange data with each other in order to work on a problem together. However, this data exchange is always associated with a certain amount of overhead, which is why the amounts of data exchanged should be kept as low as possible. This thesis proposes three programming abstractions to lessen the burdens imposed by these major challenges with the goal of making heterogeneous system resources accessible to a wider range of application developers. The lib842 compression library provides the first method for accessing the compression and decompression facilities of the NX-842 on-chip compression accelerator available in IBM Power CPUs from user space applications running on Linux. Addressing application development of scale-out GPU workloads, the CloudCL framework makes the resources of GPU clusters more accessible by hiding many aspects of distributed computing while enabling application developers to focus on the aspects of the data parallel programming model associated with GPUs. Furthermore, CloudCL is augmented with transparent data compression facilities based on the lib842 library in order to improve the efficiency of data transfers among cluster nodes. The improved data transfer efficiency provided by the integration of transparent data compression yields performance improvements ranging between 1.11x and 2.07x across four data-intensive scale-out GPU workloads. To investigate the impact of programming abstractions for data placement in NUMA systems, a comprehensive evaluation of the PGASUS framework for NUMA-aware C++ application development is conducted. On a wide range of test systems, the evaluation demonstrates that PGASUS does not only improve the developer experience across all workloads, but that it is also capable of outperforming NUMA-agnostic implementations with average performance improvements of 1.56x. Based on these programming abstractions, this thesis demonstrates that by providing a sufficient degree of abstraction, the accessibility of heterogeneous system resources can be improved for application developers without occluding performance-critical properties of the underlying hardware. N2 - Die Heterogenität heutiger Rechnerarchitekturen konfrontiert Anwendungsentwickler mit einem immensen Maß an Komplexität, welches sich aus zwei großen Herausforderungen ergibt. Erstens müssen Entwickler fundierte Kenntnisse über die Programmiermodelle oder Interaktionsmodelle verfügen, welche eine Voraussetzung sind um die jeweiligen heterogenen Systemressourcen effizient nutzen zu können. Zweitens müssen Entwickler berücksichtigen, dass heterogene Systemressourcen immer auch Daten untereinander austauschen müssen, um ein Problem gemeinsam zu bearbeiten. Dieser Datenaustausch ist aber auch immer mit einem gewissen Mehraufwand verbunden, weshalb die ausgetauschten Datenmengen so gering wie möglich gehalten werden sollten. Diese Dissertation schlägt drei Programmierabstraktionen vor und ermöglicht es so, Anwendungsentwickler bei der Bewältigung dieser Herausforderungen zu entlasten, so dass heterogene Systemressourcen für eine größere Anzahl von Anwendungsentwicklern zugänglich werden. Die lib842-Kompressionsbibliothek bietet Anwendungen erstmals die Möglichkeit, die Kompressions- und Dekompressionsfunktionen des in IBM Power Prozessoren integrierten NX-842 Kompressionsbeschleunigers unter Linux zu verwenden. Das CloudCL-Framework richtet sich an die Entwicklung von GPU-beschleunigten, verteilten Anwendungen und macht die Ressourcen von GPU-Clustern vereinfacht nutzbar, indem es viele Aspekte des verteilten Rechnens ausblendet und es so Anwendungsentwicklern ermöglicht, sich auf die Aspekte des auf GPUs üblichen, datenparallelen Programmiermodells zu konzentrieren. CloudCL wurde weitergehend über transparente Datenkompressionsfunktionalität auf Basis der lib842 Programmbibliothek erweitert, um die Datenübertragungseffizienz zwischen Clusterknoten zu verbessern. Die verbesserte Datentransfereffizienz führt zu Leistungsverbesserungen zwischen 1, 11-fach und 2, 07- fach bei der Verwendung von vier datenintesiven, verteilten, und GPU-beschleunigten Arbeitslasten. Um die Auswirkungen von Programmierabstraktionen auf die Datenplatzierung in NUMA-Systemen zu untersuchen, wird eine umfassende Evaluierung des PGASUSFrameworks für NUMA-gewahre C++-Anwendungsentwicklung durchgeführt. Unter Verwendung einer breiten Palette von Testsystemen zeigt die Evaluierung, dass PGASUS nicht nur die Entwicklung von NUMA-gewahren Anwendungen erleichtert, sondern auch in der Lage ist, die Leistung von NUMA-agnostischen Implementierungen im Mittel um 1, 56× zu übertreffen. Auf der Grundlage dieser Programmierabstraktionen zeigt diese Dissertation, dass heterogene Systemressourcen durch die Bereitstellung angemessener Abstraktionsmechanismen einfacher von Anwendungsentwicklern erschlossen werden können, ohne dass leistungsrelevante Eigenschaften der zugrunde liegenden Hardware verdeckt werden. KW - heterogeneous computing KW - programming abstraction KW - heterogenes Rechnen KW - Programmierabstraktionen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558118 ER - TY - THES A1 - Tattarini, Giulia T1 - A job is good, but is a good job healthier? BT - Longitudinal analyses on the health consequences of unemployment and precarious employment in Europe N2 - What are the consequences of unemployment and precarious employment for individuals' health in Europe? What are the moderating factors that may offset (or increase) the health consequences of labor-market risks? How do the effects of these risks vary across different contexts, which differ in their institutional and cultural settings? Does gender, regarded as a social structure, play a role, and how? To answer these questions is the aim of my cumulative thesis. This study aims to advance our knowledge about the health consequences that unemployment and precariousness cause over the life course. In particular, I investigate how several moderating factors, such as gender, the family, and the broader cultural and institutional context, may offset or increase the impact of employment instability and insecurity on individual health. In my first paper, 'The buffering role of the family in the relationship between job loss and self-perceived health: Longitudinal results from Europe, 2004-2011', I and my co-authors measure the causal effect of job loss on health and the role of the family and welfare states (regimes) as moderating factors. Using EU-SILC longitudinal data (2004-2011), we estimate the probability of experiencing 'bad health' following a transition to unemployment by applying linear probability models and undertake separate analyses for men and women. Firstly, we measure whether changes in the independent variable 'job loss' lead to changes in the dependent variable 'self-rated health' for men and women separately. Then, by adding into the model different interaction terms, we measure the moderating effect of the family, both in terms of emotional and economic support, and how much it varies across different welfare regimes. As an identification strategy, we first implement static fixed-effect panel models, which control for time-varying observables and indirect health selection—i.e., constant unobserved heterogeneity. Secondly, to control for reverse causality and path dependency, we implement dynamic fixed-effect panel models, adding a lagged dependent variable to the model. We explore the role of the family by focusing on close ties within households: we consider the presence of a stable partner and his/her working status as a source of social and economic support. According to previous literature, having a partner should reduce the stress from adverse events, thanks to the symbolic and emotional dimensions that such a relationship entails, regardless of any economic benefits. Our results, however, suggest that benefits linked to the presence of a (female) partner also come from the financial stability that (s)he can provide in terms of a second income. Furthermore, we find partners' employment to be at least as important as the mere presence of the partner in reducing the negative effect of job loss on the individual's health by maintaining the household's standard of living and decreasing economic strain on the family. Our results are in line with previous research, which has highlighted that some people cope better than others with adverse life circumstances, and the support provided by the family is a crucial resource in that regard. We also reported an important interaction between the family and the welfare state in moderating the health consequences of unemployment, showing how the compensation effect of the family varies across welfare regimes. The family plays a decisive role in cushioning the adverse consequences of labor market risks in Southern and Eastern welfare states, characterized by less developed social protection systems and –especially the Southern – high level of familialism. The first paper also found important gender differences concerning job loss, family and welfare effects. Of particular interest is the evidence suggesting that health selection works differently for men and women, playing a more prominent role for women than for men in explaining the relationship between job loss and self-perceived health. The second paper, 'Gender roles and selection mechanisms across contexts: A comparative analysis of the relationship between unemployment, self-perceived health, and gender.' investigates more in-depth the gender differential in health driven by unemployment. Being a highly contested issue in literature, we aim to study whether men are more penalized than women or the other way around and the mechanisms that may explain the gender difference. To do that, we rely on two theoretical arguments: the availability of alternative roles and social selection. The first argument builds on the idea that men and women may compensate for the detrimental health consequences of unemployment through the commitment to 'alternative roles,' which can provide for the resources needed to fulfill people's socially constructed needs. Notably, the availability of alternative options depends on the different positions that men and women have in society. Further, we merge the availability of the 'alternative roles' argument with the health selection argument. We assume that health selection could be contingent on people's social position as defined by gender and, thus, explain the gender differential in the relationship between unemployment and health. Ill people might be less reluctant to fall or remain (i.e., self-select) in unemployment if they have alternative roles. In Western societies, women generally have more alternative roles than men and thus more discretion in their labor market attachment. Therefore, health selection should be stronger for them, explaining why unemployment is less menace for women than for their male counterparts. Finally, relying on the idea of different gender regimes, we extended these arguments to comparison across contexts. For example, in contexts where being a caregiver is assumed to be women's traditional and primary roles and the primary breadwinner role is reserved to men, unemployment is less stigmatized, and taking up alternative roles is more socially accepted for women than for men (Hp.1). Accordingly, social (self)selection should be stronger for women than for men in traditional contexts, where, in the case of ill-health, the separation from work is eased by the availability of alternative roles (Hp.2). By focusing on contexts that are representative of different gender regimes, we implement a multiple-step comparative approach. Firstly, by using EU-SILC longitudinal data (2004-2015), our analysis tests gender roles and selection mechanisms for Sweden and Italy, representing radically different gender regimes, thus providing institutional and cultural variation. Then, we limit institutional heterogeneity by focusing on Germany and comparing East- and West-Germany and older and younger cohorts—for West-Germany (SOEP data 1995-2017). Next, to assess the differential impact of unemployment for men and women, we compared (unemployed and employed) men with (unemployed and employed) women. To do so, we calculate predicted probabilities and average marginal effect from two distinct random-effects probit models. Our first step is estimating random-effects models that assess the association between unemployment and self-perceived health, controlling for observable characteristics. In the second step, our fully adjusted model controls for both direct and indirect selection. We do this using dynamic correlated random-effects (CRE) models. Further, based on the fully adjusted model, we test our hypotheses on alternative roles (Hp.1) by comparing several contexts – models are estimated separately for each context. For this hypothesis, we pool men and women and include an interaction term between unemployment and gender, which has the advantage to allow for directly testing whether gender differences in the effect of unemployment exist and are statistically significant. Finally, we test the role of selection mechanisms (Hp.2), using the KHB method to compare coefficients across nested nonlinear models. Specifically, we test the role of selection for the relationship between unemployment and health by comparing the partially-adjusted and fully-adjusted models. To allow selection mechanisms to operate differently between genders, we estimate separate models for men and women. We found support to our first hypotheses—the context where people are embedded structures the relationship between unemployment, health, and gender. We found no gendered effect of unemployment on health in the egalitarian context of Sweden. Conversely, in the traditional context of Italy, we observed substantive and statistically significant gender differences in the effect of unemployment on bad health, with women suffering less than men. We found the same pattern for comparing East and West Germany and younger and older cohorts in West Germany. On the contrary, our results did not support our theoretical argument on social selection. We found that in Sweden, women are more selected out of employment than men. In contrast, in Italy, health selection does not seem to be the primary mechanism behind the gender differential—Italian men and women seem to be selected out of employment to the same extent. Namely, we do not find any evidence that health selection is stronger for women in more traditional countries (Hp2), despite the fact that the institutional and the cultural context would offer them a more comprehensive range of 'alternative roles' relative to men. Moreover, our second hypothesis is also rejected in the second and third comparisons, where the cross-country heterogeneity is reduced to maximize cultural differences within the same institutional context. Further research that addresses selection into inactivity is needed to evaluate the interplay between selection and social roles across gender regimes. While the health consequences of unemployment have been on the research agenda for a pretty long time, the interest in precarious employment—defined as the linking of the vulnerable worker to work that is characterized by uncertainty and insecurity concerning pay, the stability of the work arrangement, limited access to social benefits, and statutory protections—has emerged only later. Since the 80s, scholars from different disciplines have raised concerns about the social consequences of de-standardization of employment relationships. However, while work has become undoubtedly more precarious, very little is known about its causal effect on individual health and the role of gender as a moderator. These questions are at the core of my third paper : 'Bad job, bad health? A longitudinal analysis of the interaction between precariousness, gender and self-perceived health in Germany'. Herein, I investigate the multidimensional nature of precarious employment and its causal effect on health, particularly focusing on gender differences. With this paper, I aim at overcoming three major shortcomings of earlier studies: The first one regards the cross-sectional nature of data that prevents the authors from ruling out unobserved heterogeneity as a mechanism for the association between precarious employment and health. Indeed, several unmeasured individual characteristics—such as cognitive abilities—may confound the relationship between precarious work and health, leading to biased results. Secondly, only a few studies have directly addressed the role of gender in shaping the relationship. Moreover, available results on the gender differential are mixed and inconsistent: some found precarious employment being more detrimental for women's health, while others found no gender differences or stronger negative association for men. Finally, previous attempts to an empirical translation of the employment precariousness (EP) concept have not always been coherent with their theoretical framework. EP is usually assumed to be a multidimensional and continuous phenomenon; it is characterized by different dimensions of insecurity that may overlap in the same job and lead to different "degrees of precariousness." However, researchers have predominantly focused on one-dimensional indicators—e.g., temporary employment, subjective job insecurity—to measure EP and study the association with health. Besides the fact that this approach partially grasps the phenomenon's complexity, the major problem is the inconsistency of evidence that it has produced. Indeed, this line of inquiry generally reveals an ambiguous picture, with some studies finding substantial adverse effects of temporary over permanent employment, while others report only minor differences. To measure the (causal) effect of precarious work on self-rated health and its variation by gender, I focus on Germany and use four waves from SOEP data (2003, 2007, 2011, and 2015). Germany is a suitable context for my study. Indeed, since the 1980s, the labor market and welfare system have been restructured in many ways to increase the German economy's competitiveness in the global market. As a result, the (standard) employment relationship has been de-standardized: non-standard and atypical employment arrangements—i.e., part-time work, fixed-term contracts, mini-jobs, and work agencies—have increased over time while wages have lowered, even among workers with standard work. In addition, the power of unions has also fallen over the last three decades, leaving a large share of workers without collective protection. Because of this process of de-standardization, the link between wage employment and strong social rights has eroded, making workers more powerless and more vulnerable to labor market risks than in the past. EP refers to this uneven distribution of power in the employment relationship, which can be detrimental to workers' health. Indeed, by affecting individuals' access to power and other resources, EP puts precarious workers at risk of experiencing health shocks and influences their ability to gain and accumulate health advantages (Hp.1). Further, the focus on Germany allows me to investigate my second research question on the gender differential. Germany is usually regarded as a traditionalist gender regime: a context characterized by a configuration of roles. Here, being a caregiver is assumed to be women's primary role, whereas the primary breadwinner role is reserved for men. Although many signs of progress have been made over the last decades towards a greater equalization of opportunities and more egalitarianism, the breadwinner model has barely changed towards a modified version. Thus, women usually take on the double role of workers (the so-called secondary earner) and caregivers, and men still devote most of their time to paid work activities. Moreover, the overall upward trend towards more egalitarian gender ideologies has leveled off over the last decades, moving notably towards more traditional gender ideologies. In this setting, two alternative hypotheses are possible. Firstly, I assume that the negative relationship between EP and health is stronger for women than for men. This is because women are systematically more disadvantaged than men in the public and private spheres of life, having less access to formal and informal sources of power. These gender-related power asymmetries may interact with EP-related power asymmetries resulting in a stronger effect of EP on women's health than on men's health (Hp.2). An alternative way of looking at the gender differential is to consider the interaction that precariousness might have with men's and women's gender identities. According to this view, the negative relationship between EP and health is weaker for women than for men (Hp.2a). In a society with a gendered division of labor and a strong link between masculine identities and stable and well-rewarded job—i.e., a job that confers the role of primary family provider—a male worker with precarious employment might violate the traditional male gender role. Men in precarious jobs may perceive themselves (and by others) as possessing a socially undesirable characteristic, which conflicts with the stereotypical idea of themselves as the male breadwinner. Engaging in behaviors that contradict stereotypical gender identity may decrease self-esteem and foster feelings of inferiority, helplessness, and jealousy, leading to poor health. I develop a new indicator of EP that empirically translates a definition of EP as a multidimensional and continuous phenomenon. I assume that EP is a latent construct composed of seven dimensions of insecurity chosen according to the theory and previous empirical research: Income insecurity, social insecurity, legal insecurity, employment insecurity, working-time insecurity, representation insecurity, worker's vulnerability. The seven dimensions are proxied by eight indicators available in the four waves of the SOEP dataset. The EP composite indicator is obtained by performing a multiple correspondence analysis (MCA) on the eight indicators. This approach aims to construct a summary scale in which all dimensions contribute jointly to the measured experience of precariousness and its health impact. Further, the relationship between EP and 'general self-perceived health' is estimated by applying ordered probit random-effects estimators and calculating average marginal effect (further AME). Then, to control for unobserved heterogeneity, I implement correlated random-effects models that add to the model the within-individual means of the time-varying independent variables. To test the significance of the gender differential, I add an interaction term between EP and gender in the fully adjusted model in the pooled sample. My correlated random-effects models showed EP's negative and substantial 'effect' on self-perceived health for both men and women. Although nonsignificant, the evidence seems in line with previous cross-sectional literature. It supports the hypothesis that employment precariousness could be detrimental to workers' health. Further, my results showed the crucial role of unobserved heterogeneity in shaping the health consequences of precarious employment. This is particularly important as evidence accumulates, yet it is still mostly descriptive. Moreover, my results revealed a substantial difference among men and women in the relationship between EP and health: when EP increases, the risk of experiencing poor health increases much more for men than for women. This evidence falsifies previous theory according to whom the gender differential is contingent on the structurally disadvantaged position of women in western societies. In contrast, they seem to confirm the idea that men in precarious work could experience role conflict to a larger extent than women, as their self-standard is supposed to be the stereotypical breadwinner worker with a good and well-rewarded job. Finally, results from the multiple correspondence analysis contribute to the methodological debate on precariousness, showing that a multidimensional and continuous indicator can express a latent variable of EP. All in all, complementarities are revealed in the results of unemployment and employment precariousness, which have two implications: Policy-makers need to be aware that the total costs of unemployment and precariousness go far beyond the economic and material realm penetrating other fundamental life domains such as individual health. Moreover, they need to balance the trade-off between protecting adequately unemployed people and fostering high-quality employment in reaction to the highlighted market pressures. In this sense, the further development of a (universalistic) welfare state certainly helps mitigate the adverse health effects of unemployment and, therefore, the future costs of both individuals' health and welfare spending. In addition, the presence of a working partner is crucial for reducing the health consequences of employment instability. Therefore, policies aiming to increase female labor market participation should be promoted, especially in those contexts where the welfare state is less developed. Moreover, my results support the significance of taking account of a gender perspective in health research. The findings of the three articles show that job loss, unemployment, and precarious employment, in general, have adverse effects on men's health but less or absent consequences for women's health. Indeed, this suggests the importance of labor and health policies that consider and further distinguish the specific needs of the male and female labor force in Europe. Nevertheless, a further implication emerges: the health consequences of employment instability and de-standardization need to be investigated in light of the gender arrangements and the transforming gender relationships in specific cultural and institutional contexts. My results indeed seem to suggest that women's health advantage may be a transitory phenomenon, contingent on the predominant gendered institutional and cultural context. As the structural difference between men's and women's position in society is eroded, egalitarianism becomes the dominant normative status, so will probably be the gender difference in the health consequences of job loss and precariousness. Therefore, while gender equality in opportunities and roles is a desirable aspect for contemporary societies and a political goal that cannot be postponed further, this thesis raises a further and maybe more crucial question: What kind of equality should be pursued to provide men and women with both good life quality and equal chances in the public and private spheres? In this sense, I believe that social and labor policies aiming to reduce gender inequality in society should focus on improving women's integration into the labor market, implementing policies targeting men, and facilitating their involvement in the private sphere of life. Equal redistribution of social roles could activate a crucial transformation of gender roles and the cultural models that sustain and still legitimate gender inequality in Western societies. KW - unemployment KW - employment precariousness KW - self-rated health KW - gender KW - family KW - welfare and gender regimes Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536723 ER - TY - THES A1 - Kahl, Sandra T1 - Evolutionary adaptive responses to rapid climate change in plants T1 - Evolutionäre Anpassungsstrategien von Pflanzen an den Klimawandel BT - a case study of the widely distributed species Silene vulgaris BT - ein Fallbeispiel der weit verbreiteten Art Silene vulgaris N2 - The ongoing climate change is altering the living conditions for many organisms on this planet at an unprecedented pace. Hence, it is crucial for the survival of species to adapt to these changing conditions. In this dissertation Silene vulgaris is used as a model organism to understand the adaption strategies of widely distributed plant species to the current climate change. Especially plant species that possess a wide geographic range are expected to have a high phenotypic plasticity or to show genetic differentiation in response to the different climate conditions they grow in. However, they are often underrepresented in research. In the greenhouse experiment presented in this thesis, I examined the phenotypic responses and plasticity in S. vulgaris to estimate its’ adaptation potential. Seeds from 25 wild European populations were collected along a latitudinal gradient and grown in a greenhouse under three different precipitation (65 mm, 75 mm, 90 mm) and two different temperature regimes (18°C, 21°C) that resembled a possible climate change scenario for central Europe. Afterwards different biomass and fecundity-related plant traits were measured. The treatments significantly influenced the plants but did not reveal a latitudinal difference in response to climate treatments for most plant traits. The number of flowers per individual however, showed a stronger plasticity in northern European populations (e.g., Swedish populations) where numbers decreased more drastically with increased temperature and decreased precipitation. To gain an even deeper understanding of the adaptation of S. vulgaris to climate change it is also important to reveal the underlying phylogeny of the sampled populations. Therefore, I analysed their population genetic structure through whole genome sequencing via ddRAD. The sequencing revealed three major genetic clusters in the S. vulgaris populations sampled in Europe: one cluster comprised Southern European populations, one cluster Western European populations and another cluster contained central European populations. A following analysis of experimental trait responses among the clusters to the climate-change scenario showed that the genetic clusters significantly differed in biomass-related traits and in the days to flowering. However, half of the traits showed parallel response patterns to the experimental climate-change scenario. In addition to the potential geographic and genetic adaptation differences to climate change this dissertation also deals with the response differences between the sexes in S. vulgaris. As a gynodioecious species populations of S. vulgaris consist of female and hermaphrodite individuals and the sexes can differ in their morphological traits which is known as sexual dimorphism. As climate change is becoming an important factor influencing plant morphology it remains unclear if and how different sexes may respond in sexually dimorphic species. To examine this question the sex of each individual plant was determined during the greenhouse experiment and the measured plant traits were analysed accordingly. In general, hermaphrodites had a higher number of flowers but a lower number of leaves than females. With regards to the climate change treatment, I found that hermaphrodites showed a milder negative response to higher temperatures in the number of flowers produced and in specific leaf area (SLA) compared to females. Synthesis – The significant treatment response in Silene vulgaris, independent of population origin in most traits suggests a high degree of universal phenotypic plasticity. Also, the three European intraspecific genetic lineages detected showed comparable parallel response patterns in half of the traits suggesting considerable phenotypic plasticity. Hence, plasticity might represent a possible adaptation strategy of this widely distributed species during ongoing and future climatic changes. The results on sexual dimorphism show that females and hermaphrodites are differing mainly in their number of flowers and females are affected more strongly by the experimental climate-change scenario. These results provide a solid knowledge basis on the sexual dimorphism in S. vulgaris under climate change, but further research is needed to determine the long-term impact on the breeding system for the species. In summary this dissertation provides a comprehensive insight into the adaptation mechanisms and consequences of a widely distributed and gynodioecious plant species and leverages our understanding of the impact of anthropogenic climate change on plants. N2 - Der derzeitige Klimawandel verändert die Lebensbedingungen für viele Tiere und Pflanzen auf unserem Planeten in nie da gewesenem Maße. Damit Arten überleben, ist es von besonderer Wichtigkeit, dass sich diese an die sich ändernden Klimabedingungen anpassen können. Die vorliegende Dissertation befasst sich mit der Modellpflanze Silene vulgaris und versucht zu ergründen, wie sich solch weit verbreitete Pflanzenarten an den Klimawandel anpassen. Dabei ist zu erwarten, dass sie eine hohe phänotypische Plastizität besitzen, durch die sie sich gut anpassen können oder, dass sie sich durch eine genetische Differenzierung als Antwort auf die vorherrschenden Umweltbedingungen auszeichnen. Im experimentellen Ansatz dieser Dissertation untersuchte ich daher die phänotypischen Anpassungen und die phänotypische Plastizität von S. vulgaris an ein mögliches Klimawandelszenario für Zentraleuropa. Dabei wurden die Samen von 25 europäischen Populationen gesammelt und in einem Gewächshausexperiment unter drei verschiedenen Niederschlagsbedingungen (65 mm, 75 mm, 90 mm) und zwei verschiedenen Temperaturbedingungen (18°C, 21°C) herangezogen. Im Anschluss wurden verschiedene Biomasse- und Fertilitätsmerkmale gemessen. Für ein tiefergehendes Verständnis der Anpassungsmöglichkeiten von S. vulgaris an den Klimawandel ist es zudem wichtig, auch die zugrundeliegende Phylogenie der Populationen zu verstehen. In diesem Zusammenhang nutzte ich eine genomweite Sequenziermethode mittels ddRAD. Die Bedingungen im Gewächshausexperiment beeinflussten die Pflanzen signifikant in ihren phänotypischen Merkmalen, jedoch ließ sich kein Unterschied zwischen Population unterschiedlicher Herkunft erkennen. Lediglich die Anzahl der Blüten zeigte eine größere Plastizität in nördlichen europäischen Populationen, wo sich die Blütenzahl stärker dezimierte unter höheren Temperaturen und stärkerer Trockenheit. Die populationsgenetische Analyse ergab drei distinkte phylogenetische Gruppen für die untersuchten europäischen Populationen von S. vulgaris: eine Gruppe beinhaltete südeuropäische Populationen aus Spanien und Südfrankreich, eine weitere Gruppe bestand aus den gesammelten Individuen der westfranzösischen Populationen, während die dritte Gruppe, die Populationen aus Mittel- und Nordeuropa enthielt. Diese genetischen Gruppen wurden anschließend ebenfalls der Merkmalsanalyse unter den Gewächshausbedingungen unterzogen. Dabei stellte sich heraus, dass sich die genetischen Gruppen in ihren phänotypischen Merkmalen unterschieden, jedoch eine ähnliche Anpassung ihrer Merkmale an die experimentellen Klimawandelbedingungen zeigten. Der dritte Aspekt dieser Dissertation befasste sich mit möglichen Anpassungsunterschieden zwischen den Geschlechtern in S. vulgaris. Als gynodiözische Art bestehen ihre Populationen sowohl aus weiblichen, also auch aus zwittrigen Individuen. Die phänotypischen Merkmale beider Geschlechter können sich dabei unterscheiden, was man als Sexualdimorphismus bezeichnet. Es ist bereits bekannt, dass sich Pflanzenmerkmale durch den anhaltenden Klimawandel bereits verändern, jedoch ist es nicht gut erforscht, ob und wie sich die unterschiedlichen Geschlechter bei einer sexuell dimorphen Art unter diesem Selektionsdruck verhalten. Während des Gewächshausexperiments wurden daher die Geschlechter der Individuen bestimmt und die phänotypischen Unterschiede zwischen weiblichen und zwittrigen Pflanzen analysiert. Allgemein lässt sich sagen, dass zwittrige Individuen mehr Blüten aber weniger Blätter hatten als weibliche. Im Hinblick auf die experimentellen Klimawandelbedingungen konnte ich zudem feststellen, dass Hermaphroditen in ihrer spezifischen Blattfläche und der Blütenanzahl weniger stark negativ auf höhere Temperaturen reagierten. Synthese – Die signifikanten Merkmalsanpassungen an die Gewächshausbedingungen waren unabhängig von der geographischen Herkunft oder genetischen Gruppe der Individuen. Dies lässt ein hohes Maß an universeller, phänotypischer Plastizität vermuten. Dementsprechend kann davon ausgegangen werden, dass phänotypische Plastizität ein möglicher Anpassungsmechanismus für diese weit verbreitete Art an den Klimawandel sein könnte. Im Hinblick auf den Sexualdimorphismus in S. vulgaris lässt sich sagen, dass sich beide Geschlechter vornehmlich in der Anzahl der Blüten unterscheiden und dass weibliche Pflanzen stärker von den Bedingungen des Gewächshausexperiments beeinflusst wurden. Diese Dissertation konnte damit erstmals darüber Aufschluss geben, wie sich S. vulgaris im Hinblick auf ihren Sexualdimorphismus unter Klimawandelbedingungen verhält. Weitere Forschung wird nun benötigt, um auch den Langzeiteffekt des Klimawandels auf das Fortpflanzungssystem dieser Art abschätzen zu können. Zusammenfassend lässt sich sagen, dass die vorliegende Arbeit einen umfassenden Einblick in die Anpassungsmechanismen einer weit verbreiteten Pflanzenart an den anthropogenen Klimawandel gibt. Zudem bestärkt sie unser Verständnis der Auswirkungen, die sich daraus für eine gynodiözische Art, wie S. vulgaris ergeben. KW - Silene vulgaris KW - climate change KW - plant adaptation KW - Silene vulgaris KW - Klimawandel KW - Pflanzenanpassung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556483 ER - TY - THES A1 - Mertzen, Daniela T1 - A cross-linguistic investigation of similarity-based interference in sentence comprehension T1 - Eine cross-linguistische Untersuchung ähnlichkeitsbasierter Interferenz in der Satzverarbeitung N2 - The aim of this dissertation was to conduct a larger-scale cross-linguistic empirical investigation of similarity-based interference effects in sentence comprehension. Interference studies can offer valuable insights into the mechanisms that are involved in long-distance dependency completion. Many studies have investigated similarity-based interference effects, showing that syntactic and semantic information are employed during long-distance dependency formation (e.g., Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Nevertheless, there are some important open questions in the interference literature that are critical to our understanding of the constraints involved in dependency resolution. The first research question concerns the relative timing of syntactic and semantic interference in online sentence comprehension. Only few interference studies have investigated this question, and, to date, there is not enough data to draw conclusions with regard to their time course (Van Dyke, 2007; Van Dyke & McElree, 2011). Our first cross-linguistic study explores the relative timing of syntactic and semantic interference in two eye-tracking reading experiments that implement the study design used in Van Dyke (2007). The first experiment tests English sentences. The second, larger-sample experiment investigates the two interference types in German. Overall, the data suggest that syntactic and semantic interference can arise simultaneously during retrieval. The second research question concerns a special case of semantic interference: We investigate whether cue-based retrieval interference can be caused by semantically similar items which are not embedded in a syntactic structure. This second interference study builds on a landmark study by Van Dyke & McElree (2006). The study design used in their study is unique in that it is able to pin down the source of interference as a consequence of cue overload during retrieval, when semantic retrieval cues do not uniquely match the retrieval target. Unlike most other interference studies, this design is able to rule out encoding interference as an alternative explanation. Encoding accounts postulate that it is not cue overload at the retrieval site but the erroneous encoding of similar linguistic items in memory that leads to interference (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). While Van Dyke & McElree (2006) reported cue-based retrieval interference from sentence-external distractors, the evidence for this effect was weak. A subsequent study did not show interference of this type (Van Dyke et al., 2014). Given these inconclusive findings, further research is necessary to investigate semantic cue-based retrieval interference. The second study in this dissertation provides a larger-scale cross-linguistic investigation of cue-based retrieval interference from sentence-external items. Three larger-sample eye-tracking studies in English, German, and Russian tested cue-based interference in the online processing of filler-gap dependencies. This study further extends the previous research by investigating interference in each language under varying task demands (Logačev & Vasishth, 2016; Swets et al., 2008). Overall, we see some very modest support for proactive cue-based retrieval interference in English. Unexpectedly, this was observed only under a low task demand. In German and Russian, there is some evidence against the interference effect. It is possible that interference is attenuated in languages with richer case marking. In sum, the cross-linguistic experiments on the time course of syntactic and semantic interference from sentence-internal distractors support existing evidence of syntactic and semantic interference during sentence comprehension. Our data further show that both types of interference effects can arise simultaneously. Our cross-linguistic experiments investigating semantic cue-based retrieval interference from sentence-external distractors suggest that this type of interference may arise only in specific linguistic contexts. N2 - Ziel dieser Dissertation war es, eine größer-angelegte, sprachübergreifende, empirische Untersuchung von Interferenzeffekten beim Satzverstehen durchzuführen. Interferenzstudien bieten wertvolle Einblicke in die Mechanismen, die während der Satzverarbeitung, insbesondere bei der Bildung von nicht-lokalen Dependenzen eine Rolle spielen. Studien zu ähnlichkeitsbasierten Interferenzeffekten haben gezeigt, dass syntaktische und semantische Informationen bei der Bildung von nicht-lokalen Dependenzen verwendet werden (z. B. Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Dennoch bleiben in der Interferenzliteratur einige wichtige Fragen unbeantwortet, die für unser Verständnis der Satzverarbeitungsmechanismen von Bedeutung sind. Die erste Forschungsfrage betrifft den zeitlichen Ablauf syntaktischer und semantischer Interferenz während des Satzverstehens. Nur wenige Interferenzstudien haben diese Frage untersucht, jedoch sind aktuell nicht genügend Daten vorhanden, um Schlussfolgerungen bezüglich des zeitlichen Verlaufs zu ziehen (Van Dyke, 2007; Van Dyke & McElree, 2011). Die erste sprachübergreifende Studie in dieser Dissertation untersucht den zeitlichen Ablauf von syntaktischer und semantischer Interferenz mithilfe zweier Eyetracking-Leseexperimente. Diese nutzen das von Van Dyke (2007) implementierte Studiendesign. Das erste Experiment testet englische Sätze. Das zweite Experiment, welches eine größere Stichprobe untersucht, testet Interferenzeffekte im Deutschen. Insgesamt deuten die Daten darauf hin, dass syntaktische und semantische Interferenzeffekte zeitgleich auftreten können. Die zweite Forschungsfrage untersucht einen Spezialfall der semantischen Interferenz: Es wird untersucht, ob cue-abhängige Abrufinterferenz durch Items verursacht werden kann, die nicht in die syntaktische Struktur eingebettet sind. Diese zweite Interferenzstudie nutzt das Studiendesign von Van Dyke & McElree (2006), welches in der Lage ist, die Quelle der Interferenzeffekte als Folge von “cue overload” zu bestimmen, d.h., wenn semantische cues während des Abrufs aus dem Gedächtnis nicht eindeutig mit dem Zielwort übereinstimmen. Im Gegensatz zu anderen Interferenzstudien kann dieses Design Enkodierungsinterferenz als alternative Erklärung ausschließen. Enkodierungsansätze nehmen an, dass nicht ein “cue overload”, sondern eine fehlerhafte Kodierung ähnlicher Items im Gedächtnis Interferenz zur Folge hat (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). Obwohl die Van Dyke & McElree (2006) Studie angibt, cue-basierte Interferenz zu beobachten, ist die Evidenz für diesen Effekt schwach. Eine Folgestudie findet keine Evidenz für Interferenzeffekte dieser Art (Van Dyke et al., 2014). Die nicht eindeutigen Ergebnisse erfordern weitere Untersuchungen semantischer cue-basierter Interferenz. Die zweite Studie in dieser Dissertation untersucht cue-basierte Interferenzeffekte durch Items, die nicht in die syntaktische Struktur eingebettet sind. Drei Eyetracking-Studien, im Englischen, Deutschen und Russischen, untersuchen cue-basierte Interferenz während der Verarbeitung von “filler-gap” Dependenzen. Diese Studie ergänzt bisherige Studien, indem sie Interferenz in mehreren Sprachen sowie unter unterschiedlich komplexen Aufgabenanforderungen untersucht (Logačev & Vasishth, 2016; Swets et al., 2008). Insgesamt zeigen die Daten nur sehr schwache Evidenz für cue-basierte Interferenz im Englischen, und ausschließlich unter wenig komplexen Aufgabenanforderungen. Im Deutschen und Russischen sprechen die Daten gegen einen Interferenzeffekt, was darauf hinweisen könnte, dass Interferenzeffekte in Sprachen mit reicher Kasusmarkierung nur abgeschwächt vorzufinden sind. Insgesamt zeigen die sprachübergreifenden Experimente zum zeitlichen Verlauf syntaktischer und semantischer Interferenz durch satz-interne Items, dass beide Arten von Interferenzeffekten gleichzeitig auftreten können. Unsere sprachübergreifenden Experimente zur Untersuchung semantischer Interferenzen durch satz-externe Items deuten darauf hin, dass diese Art von Interferenz nur kontextspezifisch auftritt. KW - psycholinguistics KW - sentence processing KW - cue-based retrieval KW - similarity-based interference KW - eye-tracking KW - Psycholinguistik KW - Satzverarbeitung KW - Cue-abhängiger Abruf KW - ähnlichkeitsbasierte Gedächtnisinterferenz KW - Eye-tracking Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556685 ER - TY - THES A1 - Brill, Fabio Alexander T1 - Applications of machine learning and open geospatial data in flood risk modelling N2 - Der technologische Fortschritt erlaubt es, zunehmend komplexe Vorhersagemodelle auf Basis immer größerer Datensätze zu produzieren. Für das Risikomanagement von Naturgefahren sind eine Vielzahl von Modellen als Entscheidungsgrundlage notwendig, z.B. in der Auswertung von Beobachtungsdaten, für die Vorhersage von Gefahrenszenarien, oder zur statistischen Abschätzung der zu erwartenden Schäden. Es stellt sich also die Frage, inwiefern moderne Modellierungsansätze wie das maschinelle Lernen oder Data-Mining in diesem Themenbereich sinnvoll eingesetzt werden können. Zusätzlich ist im Hinblick auf die Datenverfügbarkeit und -zugänglichkeit ein Trend zur Öffnung (open data) zu beobachten. Thema dieser Arbeit ist daher, die Möglichkeiten und Grenzen des maschinellen Lernens und frei verfügbarer Geodaten auf dem Gebiet der Hochwasserrisikomodellierung im weiteren Sinne zu untersuchen. Da dieses übergeordnete Thema sehr breit ist, werden einzelne relevante Aspekte herausgearbeitet und detailliert betrachtet. Eine prominente Datenquelle im Bereich Hochwasser ist die satellitenbasierte Kartierung von Überflutungsflächen, die z.B. über den Copernicus Service der Europäischen Union frei zur Verfügung gestellt werden. Große Hoffnungen werden in der wissenschaftlichen Literatur in diese Produkte gesetzt, sowohl für die akute Unterstützung der Einsatzkräfte im Katastrophenfall, als auch in der Modellierung mittels hydrodynamischer Modelle oder zur Schadensabschätzung. Daher wurde ein Fokus in dieser Arbeit auf die Untersuchung dieser Flutmasken gelegt. Aus der Beobachtung, dass die Qualität dieser Produkte in bewaldeten und urbanen Gebieten unzureichend ist, wurde ein Verfahren zur nachträglichenVerbesserung mittels maschinellem Lernen entwickelt. Das Verfahren basiert auf einem Klassifikationsalgorithmus der nur Trainingsdaten von einer vorherzusagenden Klasse benötigt, im konkreten Fall also Daten von Überflutungsflächen, nicht jedoch von der negativen Klasse (trockene Gebiete). Die Anwendung für Hurricane Harvey in Houston zeigt großes Potenzial der Methode, abhängig von der Qualität der ursprünglichen Flutmaske. Anschließend wird anhand einer prozessbasierten Modellkette untersucht, welchen Einfluss implementierte physikalische Prozessdetails auf das vorhergesagte statistische Risiko haben. Es wird anschaulich gezeigt, was eine Risikostudie basierend auf etablierten Modellen leisten kann. Solche Modellketten sind allerdings bereits für Flusshochwasser sehr komplex, und für zusammengesetzte oder kaskadierende Ereignisse mit Starkregen, Sturzfluten, und weiteren Prozessen, kaum vorhanden. Im vierten Kapitel dieser Arbeit wird daher getestet, ob maschinelles Lernen auf Basis von vollständigen Schadensdaten einen direkteren Weg zur Schadensmodellierung ermöglicht, der die explizite Konzeption einer solchen Modellkette umgeht. Dazu wird ein staatlich erhobener Datensatz der geschädigten Gebäude während des schweren El Niño Ereignisses 2017 in Peru verwendet. In diesem Kontext werden auch die Möglichkeiten des Data-Mining zur Extraktion von Prozessverständnis ausgelotet. Es kann gezeigt werden, dass diverse frei verfügbare Geodaten nützliche Informationen für die Gefahren- und Schadensmodellierung von komplexen Flutereignissen liefern, z.B. satellitenbasierte Regenmessungen, topographische und hydrographische Information, kartierte Siedlungsflächen, sowie Indikatoren aus Spektraldaten. Zudem zeigen sich Erkenntnisse zu den Schädigungsprozessen, die im Wesentlichen mit den vorherigen Erwartungen in Einklang stehen. Die maximale Regenintensität wirkt beispielsweise in Städten und steilen Schluchten stärker schädigend, während die Niederschlagssumme in tiefliegenden Flussgebieten und bewaldeten Regionen als aussagekräftiger befunden wurde. Ländliche Gebiete in Peru weisen in der präsentierten Studie eine höhere Vulnerabilität als die Stadtgebiete auf. Jedoch werden auch die grundsätzlichen Grenzen der Methodik und die Abhängigkeit von spezifischen Datensätzen and Algorithmen offenkundig. In der übergreifenden Diskussion werden schließlich die verschiedenen Methoden – prozessbasierte Modellierung, prädiktives maschinelles Lernen, und Data-Mining – mit Blick auf die Gesamtfragestellungen evaluiert. Im Bereich der Gefahrenbeobachtung scheint eine Fokussierung auf neue Algorithmen sinnvoll. Im Bereich der Gefahrenmodellierung, insbesondere für Flusshochwasser, wird eher die Verbesserung von physikalischen Modellen, oder die Integration von prozessbasierten und statistischen Verfahren angeraten. In der Schadensmodellierung fehlen nach wie vor die großen repräsentativen Datensätze, die für eine breite Anwendung von maschinellem Lernen Voraussetzung ist. Daher ist die Verbesserung der Datengrundlage im Bereich der Schäden derzeit als wichtiger einzustufen als die Auswahl der Algorithmen. N2 - Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail. A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask. Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious. In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms. KW - flood risk KW - machine learning KW - open data KW - damage modelling KW - data-mining KW - Schadensmodellierung KW - Data-Mining KW - Hochwasserrisiko KW - maschinelles Lernen KW - offene Daten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555943 ER -