TY - THES A1 - Zoerner, Dietmar T1 - Förderung von Aufmerksamkeit und Motivationserhalt durch digitale spielbasierte Lernsysteme mit spezifischer Eignung bei Autismus T1 - Promotion of attention and preservation of motivation through digital game-based learning systems with particular suitability for autism N2 - Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist. Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren. Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht. Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde. Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden. N2 - Institutional education is associated with multifaceted and specific obstacles for autistic learners. This is especially true in the context of inclusion, the relevance of which is given not least by the United Nations Convention on the Rights of Persons with Disabilities. This thesis discusses numerous learning-relevant peculiarities in the context of autism and shows discrepancies with institutional teaching concepts that are not always sufficiently appropriate. A central thesis is that the unusually intense attention of autistic students to their special interests can be used to facilitate learning with foreign content. Based on this, solutions are discussed, which result in an innovative concept for a digital multi-devicebased learning game. A key challenge in designing game-based learning is to adequately integrate learning content into a compelling narrative context. Using the example of exercises for the emotional interpretation of facial expressions, which are used for learning socioemotional competencies especially in the context of therapy concepts for autism, an appropriate narration is presented, which enables the low-disturbance integration of this very specific learning content. The effects of the individual conceptual elements are examined based on a prototypically developed learning game. Based on this, a quantitative study shows the good acceptance and user-friendliness of the game and especially proves the comprehensibility of the narration and the game elements. Another focus is the minimally invasive investigation of possible disturbances of the game experience by switching between different end devices, for which an innovative measurement method was developed. As a result, this work sheds light on the importance and limitations of game-based approaches for autistic learners. A large part of the presented concepts can be transferred to other types of learning scenarios. The technical framework developed for the realization of narrative learning paths is also prepared to be used for other learning scenarios, especially in an institutional context. KW - Autismus KW - Spielbasiertes Lernen KW - Aufmerksamkeit KW - Attention KW - Autism KW - game based learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523725 ER - TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Wunderling, Nico T1 - Nichtlineare Dynamiken und Interaktionen von Kippelementen im Erdsystem T1 - Nonlinear dynamics and interactions of tipping elements in the Earth system N2 - With ongoing anthropogenic global warming, some of the most vulnerable components of the Earth system might become unstable and undergo a critical transition. These subsystems are the so-called tipping elements. They are believed to exhibit threshold behaviour and would, if triggered, result in severe consequences for the biosphere and human societies. Furthermore, it has been shown that climate tipping elements are not isolated entities, but interact across the entire Earth system. Therefore, this thesis aims at mapping out the potential for tipping events and feedbacks in the Earth system mainly by the use of complex dynamical systems and network science approaches, but partially also by more detailed process-based models of the Earth system. In the first part of this thesis, the theoretical foundations are laid by the investigation of networks of interacting tipping elements. For this purpose, the conditions for the emergence of global cascades are analysed against the structure of paradigmatic network types such as Erdös-Rényi, Barabási-Albert, Watts-Strogatz and explicitly spatially embedded networks. Furthermore, micro-scale structures are detected that are decisive for the transition of local to global cascades. These so-called motifs link the micro- to the macro-scale in the network of tipping elements. Alongside a model description paper, all these results are entered into the Python software package PyCascades, which is publicly available on github. In the second part of this dissertation, the tipping element framework is first applied to components of the Earth system such as the cryosphere and to parts of the biosphere. Afterwards it is applied to a set of interacting climate tipping elements on a global scale. Using the Earth system Model of Intermediate Complexity (EMIC) CLIMBER-2, the temperature feedbacks are quantified, which would arise if some of the large cryosphere elements disintegrate over a long span of time. The cryosphere components that are investigated are the Arctic summer sea ice, the mountain glaciers, the Greenland and the West Antarctic Ice Sheets. The committed temperature increase, in case the ice masses disintegrate, is on the order of an additional half a degree on a global average (0.39-0.46 °C), while local to regional additional temperature increases can exceed 5 °C. This means that, once tipping has begun, additional reinforcing feedbacks are able to increase global warming and with that the risk of further tipping events. This is also the case in the Amazon rainforest, whose parts are dependent on each other via the so-called moisture-recycling feedback. In this thesis, the importance of drought-induced tipping events in the Amazon rainforest is investigated in detail. Despite the Amazon rainforest is assumed to be adapted to past environmental conditions, it is found that tipping events sharply increase if the drought conditions become too intense in a too short amount of time, outpacing the adaptive capacity of the Amazon rainforest. In these cases, the frequency of tipping cascades also increases to 50% (or above) of all tipping events. In the model that was developed in this study, the southeastern region of the Amazon basin is hit hardest by the simulated drought patterns. This is also the region that already nowadays suffers a lot from extensive human-induced changes due to large-scale deforestation, cattle ranching or infrastructure projects. Moreover, on the larger Earth system wide scale, a network of conceptualised climate tipping elements is constructed in this dissertation making use of a large literature review, expert knowledge and topological properties of the tipping elements. In global warming scenarios, tipping cascades are detected even under modest scenarios of climate change, limiting global warming to 2 °C above pre-industrial levels. In addition, the structural roles of the climate tipping elements in the network are revealed. While the large ice sheets on Greenland and Antarctica are the initiators of tipping cascades, the Atlantic Meridional Overturning Circulation (AMOC) acts as the transmitter of cascades. Furthermore, in our conceptual climate tipping element model, it is found that the ice sheets are of particular importance for the stability of the entire system of investigated climate tipping elements. In the last part of this thesis, the results from the temperature feedback study with the EMIC CLIMBER-2 are combined with the conceptual model of climate tipping elements. There, it is observed that the likelihood of further tipping events slightly increases due to the temperature feedbacks even if no further CO$_2$ would be added to the atmosphere. Although the developed network model is of conceptual nature, it is possible with this work for the first time to quantify the risk of tipping events between interacting components of the Earth system under global warming scenarios, by allowing for dynamic temperature feedbacks at the same time. N2 - Bei fortdauerndem anthropogenem Klimawandel, könnten einige der vulnerabelsten Komponenten des Erdsystem instabil werden und in einen anderen Zustand übergehen. Diese Komponenten des Erdsystems sind die sogenannten Kippelemente. Bei ihnen wird angenommen, dass sie einen Kipppunkt besitzen ab dem sie in einen qualitativ anderen Zustand übergehen können. Sollte das passieren, hätte das schwerwiegende Konsequenzen für die Biosphäre und menschliche Gesellschaften. Des Weiteren ist gezeigt worden, dass Kippelemente keine isolierte Reigionen oder Prozesse sind, sondern über das gesamte Erdsystem hinweg interagieren. Das Ziel dieser Arbeit ist es daher, die Wahrscheinlichkeit für Kippereignisse sowie deren Feedbacks im Erdsystem zu quantifizieren. Zu diesem Zweck kommen vor allem Frameworks aus der Wissenschaft komplexer Systeme und Netzwerke zum Einsatz. Für einige Teilaspekte dieser Arbeit wird aber auch ein detaillierteres und prozessbasierteres Erdsystemmodell verwendet. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen gelegt, indem komplexe Netzwerke bestehend aus interagierenden Kippelementen untersucht werden. Hier werden Voraussetzungen für das Auftreten globaler Kippkaskaden anhand der Struktur paradigmatischer Netzwerktypen analysiert. Diese Typen sind Netzwerke wie Erdös-Rényi, Barabási-Albert, Watts-Strogatz Netzwerke oder auch explizit räumlich eingebettete Netzwerke. Darüber hinaus sind bestimmte Mikrostrukturen in Netzwerken dafür entscheidend, ob sich eine lokale Kaskaden auf das globale Netzwerk ausbreiten kann. Diese Strukturen sind das Bindeglied zwischen der Mikro- und der Makroebene des Netzwerks und werden Motive genannt. Zusammen mit einer Publikation zur Modellbeschreibung, werden alle diese Ergebnisse im Python-Softwarepaket PyCascades veröffentlicht, das auf github öffentlich verfügbar ist. Im zweiten Teil dieser Dissertation wird das Kippelementframework zunächst auf Kompenenten des Erdsystems angewendet wie der Kryosphäre und Teilen der Biosphäre, und danach auf globaler Skala für interagierende Klimakippelemente. In einem ersten Schritt werden mit dem Erdsystemmodell mittlerer Komplexität CLIMBER-2 die Temperaturfeedbacks ermittelt, die entstehen würden, wenn große Gebiete der Kryosphäre auf lange Sicht eisfrei werden. In dieser Berechnung werden das arktische Sommermeereis, die Gebirgsgletscher, der grönländische und der westantarktische Eisschild berücksichtigt. Die quantifizierte Temperaturerhöhung liegt in der Größenordnung von einem halben Grad zusätzlicher globaler Erwärmung (0.39--0.46°C). Lokale bis regionale Temperaturerhöhungen können allerdings 5°C übersteigen. Wenn also das Kippen einiger Elemente begonnen hat, bedeutet dieses Ergebnis, dass Temperaturfeedbacks in der Lage sind, das Risiko weiterer Kippereignisse zu erhöhen. Dies ist auch der Fall im Amazonasregenwald, dessen Unterregionen über den sogenannten Feuchtig-keits-Recycling-Feedback miteinander in Beziehung stehen und voneinander abhängen. In dieser Dissertation wird die Bedeutung von Kippereignissen im Detail untersucht, die aufgrund von Dürreperioden zustande kommen. Obwohl man davon ausgehen kann, dass der Regenwald sich an zurückliegende und gegenwärtige Klimabedingungen angepasst hat, kann festgestellt werden, dass die Häu-figkeit von Kippereignissen stark zunimmt, wenn die jeweilige Trockenperiode eine gewisse Intensität übersteigt und damit die Anpassungsfähigkeit des Amazonasregenwalds überschritten wird. In solchen Fällen steigt auch die Häufigkeit von Kippkaskaden unter allen Kippereignissen auf 50% (und mehr) an. In dem Modell, das in dieser Studie entwickelt wurde, zeigt sich, dass der Südosten des Amazonasbeckens am stärksten von den simulierten Trockenheitsmustern betroffen ist. Das ist gleichzeitig die Region, die bereits heute stark unter anthropogener Veränderung leidet, unter anderem aufgrund von großflächiger Abholzung, Viehzucht oder Infrastrukturprojekten. Zudem wird in dieser Dissertation auf der größeren, erdsystemweiten Skala ein Netzwerk konzeptionalisierter Klimakippelemente aufgebaut. Zu diesem Zweck wird eine umfangreiche Literaturrecherche durchgeführt, die zusammen mit Expertenwissen und den topologischen Eigenschaften der Kippelemente in die Studien mit einfließt. In Klimawandelszenarien können dann Kippkaskaden beobachtet werden, selbst wenn die globale Erderwärmung auf 2°C über dem vorindustriellen Niveau begrenzt werden kann. Außerdem werden die strukturellen Rollen der Klimakippelemente im Netzwerk ermittelt. Während die großen Eisschilde auf Grönland und der Westantarktis viele Kippkaskaden initiieren, ist die Atlantische Umwälzzirkulation für die Weitergabe vieler dieser Kaskaden verantwortlich. In unserem konzeptionellen Modell für Klimakippelemente wird darüber hinaus festgestellt, dass die Eisschilde von besonderer Bedeutung für die Stabilität des Gesamtsystems sind. Im letzen Teil dieser Dissertation werden die Ergebnisse der Feedbackstudie (CLIMBER-2-Studie) zusammengebracht mit dem konzeptionellen Klimakippelementmodell. Dabei zeigt sich, dass die Wahrscheinlichkeit zusätzlicher Kippereignisse aufgrund der berücksichtigten Temperaturfeedbacks auch ohne das Zuführen eines zusätzlichen CO2-Eintrags in die Atmosphäre leicht ansteigt. Trotz der konzeptionellen Natur des entwickelten Netzwerkmodells, ist es mit dieser Arbeit erstmals möglich eine Risikoabschätzung über das Auftreten von Kippkaskaden im Erdsystem vorzunehmen. Darüber hinaus können, unter der Annahme globaler Erwärmungsszenarien, auch dynamische Temperaturfeedbacks berücksichtigt werden. KW - tipping element KW - nonlinear dynamics KW - tipping cascade KW - climate change KW - complex networks KW - Klimawandel KW - komplexe Netzwerke KW - nichtlineare Dynamiken KW - Kippkaskade KW - Kippelement Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525140 ER - TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Woehlecke, Sandra T1 - Das erweiterte Fachwissen für den schulischen Kontext als Leitlinie für eine additive fachliche Lehrveranstaltung im Lehramtsstudium Biologie T1 - School-related content knowledge as a guideline for an additive subject-based course for preservice biology teachers N2 - Das Fachwissen von Lehrkräften weist für die Ausprägung fachdidaktischer Expertise eine hohe Bedeutung auf. Welche Merkmale universitäre Lehrveranstaltungen aufweisen sollten, um Lehramtsstudierenden ein berufsspezifisches Fachwissen zu vermitteln, ist jedoch überwiegend noch unklar. Innerhalb des Projekts PSI-Potsdam wurde auf theoretischer Grundlage das fachübergreifende Modell des erweiterten Fachwissens für den schulischen Kontext entwickelt. Als Ansatz zur Verbesserung des Biologie-Lehramtsstudiums diente dieses Modell als Konzeptionsgrundlage für eine additive Lehrveranstaltung. Hierbei werden Lerngelegenheiten geboten, um das universitär erworbene Fachwissen über zellbiologische Inhalte auf schulische Kontexte anzuwenden, z.B. durch die Dekonstruktion und anschließende Rekonstruktion von schulischen Lerntexten. Die Wirkung des Seminars wurde in mehreren Zyklen im Forschungsformat der Fachdidaktischen Entwicklungsforschung beforscht. Eine der zentralen Forschungsfragen lautet dabei: Wie kann eine Lerngelegenheit für Lehramtsstudierende der Biologie gestaltet sein, um ein erweitertes Fachwissen für den schulischen Kontext für den zellbiologischen Themenbereich „Struktur und Funktion der Biomembran“ zu fördern? Anhand fallübergreifender Analysen (n = 29) wird im empirischen Teil aufgezeigt, welche Einstellungen zum Lehramtsstudium in der Stichprobe bestehen. Als ein wichtiges Ergebnis kann hierbei herausgestellt werden, dass sich das Fachinteresse hinsichtlich schulisch und universitär vermittelter Inhalte bei den untersuchten Studierenden auffallend unterscheidet, wobei dem Schulwissen ein deutlich höheres Interesse entgegengebracht wird. Die Berufsrelevanz fachlicher Inhalte wird seitens der Studierenden häufig am Schulwissen festgemacht. Innerhalb konkreter Einzelfallanalysen (n = 6) wird anhand von Lernpfaden dargestellt, wie sich über mehrere Design-Experimente hinweg fachliche Konzepte entwickelt haben. Bei der Beschreibung wird vor allem auf Schlüsselstellen und Hürden im Lernprozess fokussiert. Aus diesen Ergebnissen folgend werden vorgenommene Iterationen für die einzelnen Zyklen beschrieben, die ebenfalls anhand der iterativen Entwicklung der Design-Prinzipien dargelegt werden. Es konnte gezeigt werden, dass die Schlüsselstellen sehr individuell aufgrund der subjektiv fokussierten Inhalte zu Tage treten. Meist treten sie jedoch im Zusammenhang mit der Verknüpfung verschiedener fachlicher Konzepte oder durch kooperative Aufschlüsselungen von Konzepten auf. Fachliche Hürden konnten hingegen in Form von fachlich unangemessenen Vorstellungen fallübergreifend identifiziert werden. Dies betrifft unter anderem die Vorstellung der Biomembran als Wand, die mit den Vorstellungen einer Schutzfunktion und einer formgebenden Funktion der Biomembran einhergeht. Weiterhin wird beleuchtet, wie das erweiterte Fachwissen für den schulischen Kontext zur Bearbeitung der Lernaufgaben angewendet wurde. Es hat sich gezeigt, dass sich bestimmte Lerngelegenheiten eigenen, um bestimmte Facetten des erweiterten Fachwissens zu fördern. Insgesamt scheint das Modell des erweiterten Fachwissens für den schulischen Kontext äußerst geeignet zu sein, um anhand der Facetten und deren Beschreibungen Lerngelegenheiten oder Gestaltungsprinzipien für diese zu konzipieren. Für das untersuchte Lehr-Lernarrangement haben sich kleinere Adaptationen des Modells als sinnvoll erwiesen. Hinsichtlich der Methodologie konnten Ableitungen für die Anwendung der fachdidaktischen Entwicklungsforschung für additive fachliche Lehrveranstaltungen dieser Art herausgestellt werden. Um den Professionsbezug der fachwissenschaftlichen Anteile im Lehramtsstudium zu verbessern, ist der weitere Einbezug des erweiterten Fachwissens für den schulischen Kontext in die fachwissenschaftlichen Studienanteile überaus wünschenswert. N2 - The content knowledge of teachers is of great importance for the development of pedagogical content knowledge and its application in teaching. However, the characteristics of university courses in order to provide pre-service biology teachers with job-specific content knowledge are still unclear. Within the project PSI-Potsdam a theory-based interdisciplinary model of school-related content knowledge (SRCK) was developed. This model served as a conceptual basis for an additive course within the biology teacher training curriculum. Learning opportunities are offered to apply the university-acquired subject matter knowledge to school contexts (e.g. through the deconstruction and subsequent reconstruction of texts for school purposes). The effects of the seminar, especially the learning processes, were observed in several cycles in the format of design research. One of the central research questions is: How can a learning opportunity for perspective Biology teachers be designed, to promote SRCK with regard to the topic “structure and function of the biomembrane"? Cross-case analyses (n = 29) show existing attitudes towards teacher training. As an important result, it can be emphasized, that the subject interest in school- and university-taught content differs strikingly among the students. School knowledge is shown a significantly higher interest. The professional relevance of subject-related content is often determined by a perceived proximity to school knowledge. Within concrete individual case analyses (n = 6), learning paths are used to show how subject-specific concepts have developed over several design experiments. The description focuses primarily on key points and obstacles in the learning process. Within this framework, iterations made for the individual cycles are described. It could be shown that the key points come to light very individually due to the focused content. In most cases, however, they occur in connection with the linking of different concepts or through cooperative explanations of concepts. Obstacles in the learning processes, on the other hand, could be identified across cases in the form of inappropriate ideas. This concerns, among other things, the idea of the biomembrane as a wall, which goes hand in hand with the ideas of a protective function and a shaping function of the biomembrane. Furthermore, a number of possibilities could be shown, how the SRCK was applied in the learning tasks. It was established that certain learning opportunities are appropriate to promote certain facets of SRCK. Overall, the model of SRCK seems to be extremely suitable in order to design learning opportunities. For the investigated teaching-learning arrangement, smaller adaptations of the model have proven as useful. In order to improve the professional relevance of the teacher training programme, the further inclusion of the SRCK in the subject-specific study components is highly desirable. KW - Professionswissen KW - Fachwissen KW - Studierendenvorstellungen KW - Biomembran KW - Erweitertes Fachwissen für den schulischen Kontext KW - professional competence KW - Design Research KW - Design Research KW - content knowledge KW - biomembrane KW - school-related content knowledge Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-521209 ER - TY - THES A1 - Wilhelm, Alina T1 - Stochastic re-acceleration of particles in supernova remnants T1 - Stochastische Nachbeschleunigung von Teilchen in Supernovaüberresten N2 - Supernova remnants (SNRs) are discussed as the most promising sources of galactic cosmic rays (CR). The diffusive shock acceleration (DSA) theory predicts particle spectra in a rough agreement with observations. Upon closer inspection, however, the photon spectra of observed SNRs indicate that the particle spectra produced at SNRs shocks deviate from the standard expectation. This work suggests a viable explanation for a softening of the particle spectra in SNRs. The basic idea is the re-acceleration of particles in the turbulent region immediately downstream of the shock. This thesis shows that at the re-acceleration of particles by the fast-mode waves in the downstream region can be efficient enough to impact particle spectra over several decades in energy. To demonstrate this, a generic SNR model is presented, where the evolution of particles is described by the reduced transport equation for CR. It is shown that the resulting particle and the corresponding synchrotron spectra are significantly softer compared to the standard case. Next, this work outlines RATPaC, a code developed to model particle acceleration and corresponding photon emissions in SNRs. RATPaC solves the particle transport equation in test-particle mode using hydrodynamic simulations of the SNR plasma flow. The background magnetic field can be either computed from the induction equation or follows analytic profiles. This work presents an extended version of RATPaC that accounts for stochastic re-acceleration by fast-mode waves that provide diffusion of particles in momentum space. This version is then applied to model the young historical SNR Tycho. According to radio observations, Tycho’s SNR features the radio spectral index of approximately −0.65. In previous modeling approaches, this fact has been attributed to the strongly distinctive Alfvénic drift, which is assumed to operate in the shock vicinity. In this work, the problems and inconsistencies of this scenario are discussed. Instead, stochastic re-acceleration of electrons in the immediate downstream region of Tycho’s SNR is suggested as a cause for the soft radio spectrum. Furthermore, this work investigates two different scenarios for magnetic-field distributions inside Tycho’s SNR. It is concluded that magnetic-field damping is needed to account for the observed filaments in the radio range. Two models are presented for Tycho’s SNR, both of them feature strong hadronic contribution. Thus, a purely leptonic model is considered as very unlikely. Additionally, to the detailed modeling of Tycho’s SNR, this dissertation presents a relatively simple one-zone model for the young SNR Cassiopeia A and an interpretation for the recently analyzed VERITAS and Fermi-LAT data. It shows that the γ-ray emission of Cassiopeia A cannot be explained without a hadronic contribution and that the remnant accelerates protons up to TeV energies. Thus, Cassiopeia A is found to be unlikely a PeVatron. N2 - Supernovaüberreste werden als meistversprechende Quellen für die galaktische kosmische Strahlung angesehen. Die Theorie der diffusen Schockbeschleunigung prognostiziert ein Teilchenspektrum, das grob mit den Beobachtungen übereinstimmt. Dennoch weisen die Emissionsspektren von mehreren Supernovaüberresten bei näherer Betrachtung darauf hin, dass die an der Schockwelle erzeugten Teilchenspektren von der üblichen Erwartung abweichen. Im Rahmen dieser Dissertation wird eine tragfähige Erklärung für die weicheren Teilchenspektren in Supernovaüberresten vorgestellt. Die Grundidee ist dabei eine Nachbeschleunigung von Teilchen in einem turbulenten Bereich stromabwärts unmittelbar hinter der Stoßfront. Die vorliegende Arbeit demonstriert, dass die Nachbeschleunigung von Teilchen mittels der schnellen magnetoakustischen Wellen direkt hinter dem Shock das Teilchenspektrum signifikant beeinflussen kann. Um dies zu zeigen, wird ein generisches Modell für Supernovaüberreste benutzt, bei dem die Zeitentwicklung der Teilchen durch die reduzierte Transportgleichung der kosmischen Strahlung beschrieben wird. Es zeigt sich, dass die resultierenden Teilchen- sowie dazugehörigen Synchrotronspektren im Vergleich zum Standardfall deutlich weicher sind. Als Nächstes beschreibt diese Dissertation einen Code namens RATPaC, der zur Modellierung der Teilchenbeschleunigung und entsprechenden Photonenemissionen in Supernovaüberresten entwickelt wurde. RATPaC löst die Transportgleichung der kosmischen Strahlung im Test-Teilchen-Regime unter Verwendung hydrodynamischer Simulationen für den Plasmastrom eines Supernovaüberrestes. Das Magnetfeld kann entweder mithilfe der Induktionsgleichung berechnet werden oder folgt einer analytischen Verteilung. Diese Arbeit präsentiert eine erweiterte Version von RATPaC, die unter anderem die stochastische Nachbeschleunigung mittels der schnellen magnetoakustischen Wellen und damit die Teilchendiffusion im Impulsraum enthält. Diese Version wird angewendet, um den jungen historischen Supernovaüberrest Tycho zu modellieren. Gemäß den Beobachtungen im Radiobereich weist Tycho einen spektralen Index von ungefähr -0.65 auf. In den früheren Modellierungsansätzen wurde diese Tatsache dem stark ausgeprägten Alfvénischen Drift in der Schockumgebung zugeschrieben. Im Rahmen dieser Arbeit werden Probleme und Inkonsistenzen dieses Szenarios erläutert und diskutiert. Die Nachbeschleunigung von Elektronen unmittelbar stromabwärts hinter dem Schock wird stattdessen als mögliche Ursache für das weiche Photonenspektrum im Radiobereich vorgeschlagen. Darüber hinaus werden in dieser Dissertation zwei unterschiedliche Szenarien für die Magnetfeldverteilung in Tychos Supernovaüberrest untersucht. Es wird festgestellt, dass die Dämpfung des Magnetfeldes erforderlich ist, um die beobachteten Filamente im Radiobereich zu erklären. Insgesamt werden zwei Modelle für Tychos Supernovaüberrest vorgestellt, die beide einen ausgeprägten hadronischen Beitrag aufweisen. Daraus wird festgestellt, dass ein rein leptonishes Model äußerst unwahrscheinlich ist. Zusätzlich zur detaillierten Modellierung von Tycho präsentiert diese Dissertation ein relativ einfaches Ein-Zonen-Modell für den jungen Supernovaüberrest Cassiopeia A und eine Interpretation für seine vor Kurzem analysierten VERITAS- und Fermi-LAT-Daten. Im Rahmen dieser Arbeit wird gezeigt, dass die -Strahlung von Cassiopeia A ohne einen hadronischen Beitrag nicht erklärt werden kann. Der Überrest soll dabei Protonen bis auf TeV-Energielevel beschleunigen. Somit ist es sehr unwahrscheinlich, dass es sich bei Cassiopeia A um ein PeVatron handelt. KW - supernova remnants KW - particle acceleration KW - Cassiopeia A KW - SN 1572 KW - cosmic rays KW - Supernovaüberreste KW - kosmische Strahlung KW - Teilchenbeschleunigung KW - Cassiopeia A KW - SN 1572 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512915 ER - TY - THES A1 - Wienecke, Maik T1 - Wohin mit der sozialistischen Persönlichkeit? T1 - Where did the socialist personality go? BT - Transformatives Lehren und Lernen von Geographielehrkräften in Ostdeutschland BT - Transformative learning and teaching of geography in East Germany T2 - Potsdamer Geographische Praxis N2 - Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war. Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten? Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation. Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte. Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren. N2 - In East German schools geography was one of those subjects with an extensive share of political content connected with the communist ideology of Marxism and Leninism. Additionally, pupils’ educational skills oriented toward the same ideological and humanistic parameters were also highly valued. The main focus was creating socialist citizens with socialist personalities. This paper tries to sift out what was demanded from the teachers in former East Germany to make this a reality in schools. Due to the fall of the Berlin wall a reorganization of the East German educational system was necessary. In this case the paper tries to find answers to the questions of how geography teachers managed to handle this shake-up and, ultimately, if or how they were convinced about it. Therefore, interviews were implemented with teachers who taught geography at school both in East Germany and in the reunited Germany. The main questions related to the preferred way of teaching before and after the political system transformation. The results show a low level of differences between geography lessons in East and West German schools. So maybe there was no need or will to change contents and styles of the lessons. It seems that already during the last decade of the GDR most of the interviewed teachers reduced the amount of ideological and political content just to extend the physical geography. So, for them it was possible to continue working after the fall of the Berlin wall without big difficulties. Also, there seemed to be many similarities between the value educations in East and West Germany. Only the main difference – the socialist ideology – was cancelled. Today the subject geography belongs to the department of social sciences at school, but during the interviews a lot of the teachers made clear that in their point of view geography is a part of the natural sciences section. That is surprising because even in East Germany most of the content was related to the social part as well. The responsibility to educate children in the communist way had of course vanished and nearly all of the interviewed teachers are happy with that. But still today they continue to emphasize the East German value education with its humanistic foundation. T3 - Potsdamer Geographische Praxis - 16 KW - DDR KW - Ideologie KW - Geographieunterricht KW - Sozialismus KW - Transformation KW - GDR KW - East Germany KW - ideology KW - teaching geography KW - socialism KW - transformation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515911 SN - 978-3-86956-518-7 SN - 2194-1599 SN - 2194-1602 IS - 16 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wetzel, Maria T1 - Pore space alterations and their impact on hydraulic and mechanical rock properties quantified by numerical simulations T1 - Numerische Simulationen zum Einfluss von Porenraumveränderungen auf die Entwicklung hydraulischer und mechanischer Gesteinseigenschaften N2 - Geochemical processes such as mineral dissolution and precipitation alter the microstructure of rocks, and thereby affect their hydraulic and mechanical behaviour. Quantifying these property changes and considering them in reservoir simulations is essential for a sustainable utilisation of the geological subsurface. Due to the lack of alternatives, analytical methods and empirical relations are currently applied to estimate evolving hydraulic and mechanical rock properties associated with chemical reactions. However, the predictive capabilities of analytical approaches remain limited, since they assume idealised microstructures, and thus are not able to reflect property evolution for dynamic processes. Hence, aim of the present thesis is to improve the prediction of permeability and stiffness changes resulting from pore space alterations of reservoir sandstones. A detailed representation of rock microstructure, including the morphology and connectivity of pores, is essential to accurately determine physical rock properties. For that purpose, three-dimensional pore-scale models of typical reservoir sandstones, obtained from highly resolved micro-computed tomography (micro-CT), are used to numerically calculate permeability and stiffness. In order to adequately depict characteristic distributions of secondary minerals, the virtual samples are systematically altered and resulting trends among the geometric, hydraulic, and mechanical rock properties are quantified. It is demonstrated that the geochemical reaction regime controls the location of mineral precipitation within the pore space, and thereby crucially affects the permeability evolution. This emphasises the requirement of determining distinctive porosity-permeability relationships by means of digital pore-scale models. By contrast, a substantial impact of spatial alterations patterns on the stiffness evolution of reservoir sandstones are only observed in case of certain microstructures, such as highly porous granular rocks or sandstones comprising framework-supporting cementations. In order to construct synthetic granular samples a process-based approach is proposed including grain deposition and diagenetic cementation. It is demonstrated that the generated samples reliably represent the microstructural complexity of natural sandstones. Thereby, general limitations of imaging techniques can be overcome and various realisations of granular rocks can be flexibly produced. These can be further altered by virtual experiments, offering a fast and cost-effective way to examine the impact of precipitation, dissolution or fracturing on various petrophysical correlations. The presented research work provides methodological principles to quantify trends in permeability and stiffness resulting from geochemical processes. The calculated physical property relations are directly linked to pore-scale alterations, and thus have a higher accuracy than commonly applied analytical approaches. This will considerably improve the predictive capabilities of reservoir models, and is further relevant to assess and reduce potential risks, such as productivity or injectivity losses as well as reservoir compaction or fault reactivation. Hence, the proposed method is of paramount importance for a wide range of natural and engineered subsurface applications, including geothermal energy systems, hydrocarbon reservoirs, CO2 and energy storage as well as hydrothermal deposit exploration. N2 - Geochemische Lösungs- und Fällungsprozesse verändern die Struktur des Porenraums und können dadurch die hydraulischen und mechanischen Gesteinseigenschaften erheblich beeinflussen. Die Quantifizierung dieser Parameteränderung und ihre Berücksichtigung in Reservoirmodellen ist entscheidend für eine nachhaltige Nutzung des geologischen Untergrunds. Aufgrund fehlender Alternativen werden dafür bisher analytische Methoden genutzt. Da diese Ansätze eine idealisierte Mikrostruktur annehmen, können insbesondere Änderungen der Gesteinseigenschaften infolge von dynamischen Prozessen nicht zuverlässig abgebildet werden. Ziel der vorliegenden Doktorarbeit ist es deshalb, die Entwicklung von Gesteinspermeabilitäten und -steifigkeiten aufgrund von Porenraumveränderungen genauer vorherzusagen. Für die möglichst exakte Bestimmung physikalischer Gesteinsparameter ist eine detaillierte Darstellung der Mikrostruktur notwendig. Basierend auf mikro-computertomographischen Scans werden daher hochaufgelöste, dreidimensionale Modelle typischer Reservoirsandsteine erstellt und Gesteinspermeabilität und -steifigkeit numerisch berechnet. Um charakteristische Verteilungen von Sekundärmineralen abzubilden, wird der Porenraum dieser virtuellen Sandsteinproben systematisch verändert und die resultierenden Auswirkungen auf die granulometrischen, hydraulischen und elastischen Gesteinseigenschaften bestimmt. Die Ergebnisse zeigen deutlich, dass charakteristische Fällungsmuster unterschiedlicher geochemischer Reaktionsregime die Permeabilität erheblich beeinflussen. Folglich ist die Nutzung von porenskaligen Modellen zur Bestimmung der Porosität-Permeabilitätsbeziehungen unbedingt notwendig. Im Gegensatz dazu ist die Verteilung von Sekundärmineralen für die Gesteinssteifigkeit nur bei bestimmten Mikrostrukturen von Bedeutung, hierzu zählen hochporöse Sandsteine oder solche mit Korngerüst-stützenden Zementierungen. In der Arbeit wird außerdem ein Ansatz zur Konstruktion granularer Gesteine vorgestellt, welcher sowohl die Kornsedimentation als auch die diagenetische Verfestigung umfasst. Es wird gezeigt, dass die synthetischen Proben die mikrostrukturelle Komplexität natürlicher Reservoirsandsteine gut abbilden. Dadurch können generelle Limitationen von bildgebenden Verfahren überwunden und unterschiedlichste virtuelle Repräsentationen von granularen Gesteinen generiert werden. Die synthetischen Proben können zukünftig in virtuellen Experimenten verwendet werden, um die Auswirkungen von Lösungs- und Fällungsreaktionen auf verschiedene petrophysikalische Korrelationen zu untersuchen. Die vorgestellte Arbeit liefert methodische Grundlagen zur Quantifizierung von Permeabilitäts- und Steifigkeitsänderungen infolge geochemischer Prozesse. Die berechneten petrophysikalischen Beziehungen basieren direkt auf mikrostrukturellen Veränderungen des Porenraums. Daher bieten sie eine genauere Vorhersage der Gesteinseigenschaften als herkömmliche analytische Methoden, wodurch sich die Aussagekraft von Reservoirmodellen erheblich verbessert. Somit können Risiken, wie Produktivitäts- oder Injektivitätsverluste sowie Reservoirkompaktion oder Störungsreaktivierung, verringert werden. Die präsentierten Ergebnisse sind daher relevant für verschiedenste Bereiche der geologischen Untergrundnutzung wie CO2- oder Energiespeicherung, Geothermie, Kohlenwasserstoffgewinnung sowie die Erkundung hydrothermaler Lagerstätten. KW - digital rock physics KW - synthetic sandstone KW - permeability evolution KW - elastic rock properties KW - micro-CT KW - Digitale Gesteinsphysik KW - Elastische Gesteinseigenschaften KW - Mikro-CT KW - Permeabilitätsentwicklung KW - Synthetische Sandsteine Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512064 ER - TY - THES A1 - Weise, Matthias T1 - Auswahl von Selektions- und Manipulationstechniken für Virtual Reality-Anwendungen T1 - Choosing selection and manipulation techniques for Virtual Reality applications N2 - Die stetige Weiterentwicklung von VR-Systemen bietet neue Möglichkeiten der Interaktion mit virtuellen Objekten im dreidimensionalen Raum, stellt Entwickelnde von VRAnwendungen aber auch vor neue Herausforderungen. Selektions- und Manipulationstechniken müssen unter Berücksichtigung des Anwendungsszenarios, der Zielgruppe und der zur Verfügung stehenden Ein- und Ausgabegeräte ausgewählt werden. Diese Arbeit leistet einen Beitrag dazu, die Auswahl von passenden Interaktionstechniken zu unterstützen. Hierfür wurde eine repräsentative Menge von Selektions- und Manipulationstechniken untersucht und, unter Berücksichtigung existierender Klassifikationssysteme, eine Taxonomie entwickelt, die die Analyse der Techniken hinsichtlich interaktionsrelevanter Eigenschaften ermöglicht. Auf Basis dieser Taxonomie wurden Techniken ausgewählt, die in einer explorativen Studie verglichen wurden, um Rückschlüsse auf die Dimensionen der Taxonomie zu ziehen und neue Indizien für Vor- und Nachteile der Techniken in spezifischen Anwendungsszenarien zu generieren. Die Ergebnisse der Arbeit münden in eine Webanwendung, die Entwickelnde von VR-Anwendungen gezielt dabei unterstützt, passende Selektions- und Manipulationstechniken für ein Anwendungsszenario auszuwählen, indem Techniken auf Basis der Taxonomie gefiltert und unter Verwendung der Resultate aus der Studie sortiert werden können. N2 - The constant advancement of VR systems offers new possibilities of interaction with virtual objects in three-dimensional space, but also poses new challenges for developers of VR applications. Selection and manipulation techniques have to be chosen in dependence of the application scenario, the users and the available input and output devices. This work contributes to support the selection of suitable interaction techniques. A representative quantity of selection and manipulation techniques has been investigated and a taxonomy has been developed based on existing classification systems which allows the analysis of the techniques with respect to properties relevant for interaction. Based on this taxonomy, techniques were selected and compared in an exploratory study in order to draw conclusions about the dimensions of the taxonomy and to generate new evidence for advantages and disadvantages of the techniques in specific application scenarios. The results of the work lead to a web application, which supports the developer of VR applications in choosing suitable selection and manipulation techniques for an application scenario by filtering techniques based on the taxonomy and sorting them using the results of the study. KW - Virtual Reality KW - Interaktionstechniken KW - Mensch-Computer-Interaktion KW - Virtual Reality KW - interaction techniques KW - human computer interaction Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-534586 ER - TY - THES A1 - Weger Coenen, Lindsey T1 - Exploring potential impacts from transitions in German and European energy on GHG and air pollutant emissions and on ozone air quality N2 - Energy is at the heart of the climate crisis—but also at the heart of any efforts for climate change mitigation. Energy consumption is namely responsible for approximately three quarters of global anthropogenic greenhouse gas (GHG) emissions. Therefore, central to any serious plans to stave off a climate catastrophe is a major transformation of the world's energy system, which would move society away from fossil fuels and towards a net-zero energy future. Considering that fossil fuels are also a major source of air pollutant emissions, the energy transition has important implications for air quality as well, and thus also for human and environmental health. Both Europe and Germany have set the goal of becoming GHG neutral by 2050, and moreover have demonstrated their deep commitment to a comprehensive energy transition. Two of the most significant developments in energy policy over the past decade have been the interest in expansion of shale gas and hydrogen, which accordingly have garnered great interest and debate among public, private and political actors. In this context, sound scientific information can play an important role by informing stakeholder dialogue and future research investments, and by supporting evidence-based decision-making. This thesis examines anticipated environmental impacts from possible, relevant changes in the European energy system, in order to impart valuable insight and fill critical gaps in knowledge. Specifically, it investigates possible future shale gas development in Germany and the United Kingdom (UK), as well as a hypothetical, complete transition to hydrogen mobility in Germany. Moreover, it assesses the impacts on GHG and air pollutant emissions, and on tropospheric ozone (O3) air quality. The analysis is facilitated by constructing emission scenarios and performing air quality modeling via the Weather Research and Forecasting model coupled with chemistry (WRF-Chem). The work of this thesis is presented in three research papers. The first paper finds that methane (CH4) leakage rates from upstream shale gas development in Germany and the UK would range between 0.35% and 1.36% in a realistic, business-as-usual case, while they would be significantly lower - between 0.08% and 0.15% - in an optimistic, strict regulation and high compliance case, thus demonstrating the value and potential of measures to substantially reduce emissions. Yet, while the optimistic case is technically feasible, it is unlikely that the practices and technologies assumed would be applied and accomplished on a systematic, regular basis, owing to economics and limited monitoring resources. The realistic CH4 leakage rates estimated in this study are comparable to values reported by studies carried out in the US and elsewhere. In contrast, the optimistic rates are similar to official CH4 leakage data from upstream gas production in Germany and in the UK. Considering that there is a lack of systematic, transparent and independent reports supporting the official values, this study further highlights the need for more research efforts in this direction. Compared with national energy sector emissions, this study suggests that shale gas emissions of volatile organic compounds (VOCs) could be significant, though relatively insignificant for other air pollutants. Similar to CH4, measures could be effective for reducing VOCs emissions. The second paper shows that VOC and nitrogen oxides (NOx) emissions from a future shale gas industry in Germany and the UK have potentially harmful consequences for European O3 air quality on both the local and regional scale. The results indicate a peak increase in maximum daily 8-hour average O3 (MDA8) ranging from 3.7 µg m-3 to 28.3 µg m-3. Findings suggest that shale gas activities could result in additional exceedances of MDA8 at a substantial percentage of regulatory measurement stations both locally and in neighboring and distant countries, with up to circa one third of stations in the UK and one fifth of stations in Germany experiencing additional exceedances. Moreover, the results reveal that the shale gas impact on the cumulative health-related metric SOMO35 (annual Sum of Ozone Means Over 35 ppb) could be substantial, with a maximum increase of circa 28%. Overall, the findings suggest that shale gas VOC emissions could play a critical role in O3 enhancement, while NOx emissions would contribute to a lesser extent. Thus, the results indicate that stringent regulation of VOC emissions would be important in the event of future European shale gas development to minimize deleterious health outcomes. The third paper demonstrates that a hypothetical, complete transition of the German vehicle fleet to hydrogen fuel cell technology could contribute substantially to Germany's climate and air quality goals. The results indicate that if the hydrogen were to be produced via renewable-powered water electrolysis (green hydrogen), German carbon dioxide equivalent (CO2eq) emissions would decrease by 179 MtCO2eq annually, though if electrolysis were powered by the current electricity mix, emissions would instead increase by 95 MtCO2eq annually. The findings generally reveal a notable anticipated decrease in German energy emissions of regulated air pollutants. The results suggest that vehicular hydrogen demand is 1000 PJ annually, which would require between 446 TWh and 525 TWh for electrolysis, hydrogen transport and storage. When only the heavy duty vehicle segment (HDVs) is shifted to green hydrogen, the results of this thesis show that vehicular hydrogen demand drops to 371 PJ, while a deep emissions cut is still realized (-57 MtCO2eq), suggesting that HDVs are a low-hanging fruit for contributing to decarbonization of the German road transport sector with hydrogen energy. N2 - Energie ist der Kern der Klimakrise—aber auch der Kern jeglicher Bemühungen zur Eindämmung des Klimawandels. Der Energieverbrauch ist heute für ungefähr drei Viertel der weltweiten Treibhausgasemissionen verantwortlich. Grundlegend für einen ernsthaft gemeinten Plan eine Klimakatastrophe abzuwenden ist daher eine umfassende Umgestaltung des weltweiten Energiesystems von fossilen Brennstoffen weg in Richtung zukünftige Netto-Null-Emissionen. Angesichts der Tatsache, dass fossile Brennstoffe auch eine Hauptquelle für Luftschadstoffemissionen sind, hat die Energiewende wichtige Auswirkungen auf die Luftqualität und damit auch auf die Gesundheit von Mensch und Umwelt. Sowohl Europa als auch Deutschland haben sich zum Ziel gesetzt, bis 2050 treibhausgasneutral zu werden und zeigen darüber hinaus ihr tiefes Engagement für eine umfassende Energiewende. Zwei der wichtigsten Entwicklungen in der Energiepolitik im letzten Jahrzehnt waren das Interesse an der Ausweitung von Schiefergas und Wasserstoff, das entsprechend großes Interesse und große Diskussionen in der Öffentlichkeit, im Privaten und in der Politik erzeugt hat. In diesem Zusammenhang können fundierte wissenschaftliche Informationen eine wichtige Rolle spielen, indem sie Interessenvertreter und zukünftige Forschungsinvestitionen informieren und evidenzbasierte Entscheidungen unterstützen. Diese Doktorarbeit untersucht die Umweltauswirkungen möglicher, relevanter Veränderungen im europäischen Energiesystem, um wertvolle Erkenntnisse zu vermitteln und kritische Wissenslücken zu schließen. Insbesondere werden mögliche zukünftige Schiefergasentwicklungen in Deutschland und im Vereinigten Königreich (UK) sowie ein hypothetischer, vollständiger Übergang zur Wasserstoffmobilität in Deutschland untersucht. Darüber hinaus werden die Auswirkungen auf die Treibhausgas- und Luftschadstoffemissionen sowie auf die Luftqualität von troposphärischem Ozon (O3) bewertet. Die Analyse wird durch die Erstellung von Emissionsszenarien und die Durchführung von Luftqualitätsmodellen über die Chemie-Version des "Weather Research and Forecasting Model" (WRF-Chem) erleichtert. Die Forschung dieser Doktorarbeit wird in drei wissenschaftlichen Artikeln vorgestellt. Der erste Artikel beschreibt, dass die Methan (CH4)-Leckraten aus einer vorgelagerten Schiefergasproduktion in Deutschland und Großbritannien in einem gewöhnlichen Fall zwischen 0.35% und 1.36% liegen würden, während sie in einem optimistischen, streng regulierten Fall signifikant zwischen 0.08% und 0.15% niedriger wären, und zeigt damit die Bedeutung und das Potenzial von Maßnahmen zur wesentlichen Reduzierung der Emissionen auf. Obwohl der optimistische Fall technisch machbar ist, ist es aufgrund der Wirtschaftlichkeit und der begrenzten Überwachungsressourcen unwahrscheinlich, dass die angenommenen Praktiken und Technologien systematisch und regelmäßig angewendet und durchgeführt werden. Die in dieser Studie geschätzten realistischen CH4-Leckraten sind vergleichbar mit Werten, die in Studien in den USA und anderswo angegeben wurden. Im Gegensatz dazu ähneln die optimistischen Raten den offziellen CH4- Leckraten aus der vorgelagerten Gasproduktion in Deutschland und Großbritannien. In Anbetracht des Mangels an systematischen, transparenten und unabhängigen Berichten, die die offziellen Werte stützen, unterstreicht diese Studie die Notwendigkeit weiterer Forschungsanstrengungen in diese Richtung. Im Vergleich zu den Emissionen des nationalen Energiesektors deutet diese Studie darauf hin, dass die Schiefergasemissionen flüchtiger organischer Verbindungen (VOC) erheblich sein könnten, andere Luftschadstoffe jedoch relativ unbedeutend bleiben. Ähnlich wie bei CH4 könnten Maßnahmen zur Reduzierung der VOC-Emissionen wirksam sein. Der zweite Artikel beschreibt, dass VOC- und Stickoxidemissionen (NOx) einer zukünftigen Schiefergasindustrie in Deutschland und Großbritannien potenziell schädliche Folgen für die europäische O3-Luftqualität sowohl auf lokaler als auch auf regionaler Ebene haben. Die Ergebnisse zeigen einen Spitzenanstieg des maximalen täglichen 8-Stunden-Durchschnitts von O3 (MDA8) im Bereich von 3.7 µg m-3 bis 28.3 µg m-3. Die Ergebnisse deuten darauf hin, dass Schiefergasaktivitäten zu zusätzlichen Grenzwertüberschreitungen des MDA8 bei einem erheblichen Prozentsatz der regulatorischen Messstationen sowohl vor Ort als auch in Nachbar- und entfernten Ländern führen können, wobei bei bis zu etwa einem Drittel der Stationen in Großbritannien und einem Fünftel der Stationen in Deutschland zusätzliche Überschreitungen auftreten. Darüber hinaus zeigen die Ergebnisse, dass die Auswirkungen von Schiefergas auf die kumulative gesundheitsbezogene Metrik SOMO35 (jährliche Summe des Ozonmittel über 35 ppb) mit einem maximalen Anstieg von ca. 28% erheblich sein könnten. Insgesamt deuten die Ergebnisse darauf hin, dass die VOC-Emissionen von Schiefergas eine entscheidende Rolle bei der O3-Erhöhung spielen könnten, während die NOx-Emissionen in geringerem Maße dazu beitragen würden. Unsere Ergebnisse zeigen daher, dass eine strenge Regulierung der VOC-Emissionen im Falle einer künftigen europäischen Schiefergasentwicklung wichtig ist, um schädliche gesundheitliche Folgen zu minimieren. Der dritte Artikel beschreibt, dass ein hypothetischer, vollständiger Übergang der deutschen Fahrzeugflotte zur Wasserstoff-Brennstoffzellentechnologie wesentlich zu Deutschlands Klima- und Luftqualitätszielen beitragen kann. Die Ergebnisse deuten darauf hin, dass bei einer Erzeugung des Wasserstoffs durch erneuerbare Wasserelektrolyse (grüner Wasserstoff) die Emissionen des deutschen Kohlendioxidäquivalents (CO2eq) jährlich um 179 MtCO2eq sinken würden. Wenn die Elektrolyse jedoch mit dem aktuellen Strommix betrieben würde, würden sich die Emissionen stattdessen um jährlich 95 MtCO2eq erhöhen. Die Ergebnisse zeigen im Allgemeinen einen bemerkenswerten Rückgang der Luftschadstoffemissionen in Deutschland. Weiterhin legen sie nahe, dass der Wasserstoffbedarf von Fahrzeugen 1000 PJ pro Jahr beträgt, was zwischen 446 TWh und 525 TWh für Elektrolyse, Wasserstofftransport und -speicherung erfordern würde. Wenn nur das Segment der Schwerlastfahrzeuge (HDVs) auf grünen Wasserstoff umgestellt wird, zeigen unsere Ergebnisse, dass der Wasserstoffbedarf der Fahrzeuge auf 371 PJ sinkt, während immer noch eine tiefgreifende Emissionsreduzierung erzielt wird (-57 MtCO2eq). Dies zeigt, dass die Umstellung der HDVs auf grünen Wasserstoff einen entscheidenden Beitrag zur Dekarbonisierung des deutschen Straßenverkehrs leisten kann. T2 - Erforschung möglicher Auswirkungen von Veränderungen deutscher und europäischer Energie auf Treibhausgas- und Luftschadstoffemissionen sowie auf die Ozonluftqualität KW - European energy KW - Emission scenarios KW - Greenhouse gas mitigation KW - Air quality modeling KW - Air pollution KW - Ozone KW - Shale gas KW - Hydrogen economy KW - German road transport KW - Fuel cell electric vehicle KW - Europäische Energie KW - Emissionsszenarien KW - Treibhausgasminderung KW - Luftqualitätsmodellen KW - Luftverschmutzung KW - Ozon KW - Schiefergas KW - Wasserstoffwirtschaft KW - Deutscher Straßenverkehr KW - Brennstoffzellenfahrzeug Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-496986 ER - TY - THES A1 - van der Veen, Iris T1 - Defining moisture sources and (palaeo)environmental conditions using isotope geochemistry in the NW Himalaya N2 - Anthropogenic climate change alters the hydrological cycle. While certain areas experience more intense precipitation events, others will experience droughts and increased evaporation, affecting water storage in long-term reservoirs, groundwater, snow, and glaciers. High elevation environments are especially vulnerable to climate change, which will impact the water supply for people living downstream. The Himalaya has been identified as a particularly vulnerable system, with nearly one billion people depending on the runoff in this system as their main water resource. As such, a more refined understanding of spatial and temporal changes in the water cycle in high altitude systems is essential to assess variations in water budgets under different climate change scenarios. However, not only anthropogenic influences have an impact on the hydrological cycle, but changes to the hydrological cycle can occur over geological timescales, which are connected to the interplay between orogenic uplift and climate change. However, their temporal evolution and causes are often difficult to constrain. Using proxies that reflect hydrological changes with an increase in elevation, we can unravel the history of orogenic uplift in mountain ranges and its effect on the climate. In this thesis, stable isotope ratios (expressed as δ2H and δ18O values) of meteoric waters and organic material are combined as tracers of atmospheric and hydrologic processes with remote sensing products to better understand water sources in the Himalayas. In addition, the record of modern climatological conditions based on the compound specific stable isotopes of leaf waxes (δ2Hwax) and brGDGTs (branched Glycerol dialkyl glycerol tetraethers) in modern soils in four Himalayan river catchments was assessed as proxies of the paleoclimate and (paleo-) elevation. Ultimately, hydrological variations over geological timescales were examined using δ13C and δ18O values of soil carbonates and bulk organic matter originating from sedimentological sections from the pre-Siwalik and Siwalik groups to track the response of vegetation and monsoon intensity and seasonality on a timescale of 20 Myr. I find that Rayleigh distillation, with an ISM moisture source, mainly controls the isotopic composition of surface waters in the studied Himalayan catchments. An increase in d-excess in the spring, verified by remote sensing data products, shows the significant impact of runoff from snow-covered and glaciated areas on the surface water isotopic values in the timeseries. In addition, I show that biomarker records such as brGDGTs and δ2Hwax have the potential to record (paleo-) elevation by yielding a significant correlation with the temperature and surface water δ2H values, respectively, as well as with elevation. Comparing the elevation inferred from both brGDGT and δ2Hwax, large differences were found in arid sections of the elevation transects due to an additional effect of evapotranspiration on δ2Hwax. A combined study of these proxies can improve paleoelevation estimates and provide recommendations based on the results found in this study. Ultimately, I infer that the expansion of C4 vegetation between 20 and 1 Myr was not solely dependent on atmospheric pCO2, but also on regional changes in aridity and seasonality from to the stable isotopic signature of the two sedimentary sections in the Himalaya (east and west). This thesis shows that the stable isotope chemistry of surface waters can be applied as a tool to monitor the changing Himalayan water budget under projected increasing temperatures. Minimizing the uncertainties associated with the paleo-elevation reconstructions were assessed by the combination of organic proxies (δ2Hwax and brGDGTs) in Himalayan soil. Stable isotope ratios in bulk soil and soil carbonates showed the evolution of vegetation influenced by the monsoon during the late Miocene, proving that these proxies can be used to record monsoon intensity, seasonality, and the response of vegetation. In conclusion, the use of organic proxies and stable isotope chemistry in the Himalayas has proven to successfully record changes in climate with increasing elevation. The combination of δ2Hwax and brGDGTs as a new proxy provides a more refined understanding of (paleo-)elevation and the influence of climate. N2 - Die Auswirkungen des menschgemachten Klimawandels wirken sich auch auf den Wasserkreislauf aus. Während manche Regionen höhere Niederschlagsmengen zu erwarten haben, werden andere mit stärkeren und häufigeren Trockenperioden zu konfrontiert sein. Diese Veränderungen haben einen unmittelbaren Einfluss auf Evaporation, Langzeit-Wasserreservoire, Grundwasserbildung, Schneefall und Gletscher. Da Gebirge und Hochplateaus überdurchschnittlich von den Auswirkungen des Klimawandels betroffen sind, ist die Wasserversorgung der Menschen entlang der dort entspringenden Flüsse gefährdet. Insbesondere der Himalaya gilt als instabile Region, dessen Abflüsse die Wasserversorgung von annähernd einer Milliarde Menschen gewährleisten. Um zu erwartende Veränderungen des Wasserbudgets in Abhängigkeit von verschiedenen möglichen Klimawandelszenarien abschätzen zu können, ist ein detaillierteres Verständnis des Wasserkreislaufs in Hochgebirgen und -plateaus erforderlich. Neben dem globalen Klimawandel gibt es weitere Faktoren, die sich auf den Wasserkreislauf auswirken. Das Wechselspiel zwischen Gebirgsbildung und klimatischen Bedingungen beeinflusst den Wasserkreislauf auf geologischen Zeitskalen. Entsprechende Veränderungen und ihre Auswirkungen lassen sich jedoch nur eingeschränkt bestimmen. Mittels geeigneter Proxies für höhenbedingte Änderungen der Hydrologie lassen sich der Orogeneseverlauf sowie dessen klimatische Auswirkungen allerdings genauer rekonstruieren. In der vorliegenden Arbeit werden die Verhältnisse stabiler Isotope (als δ2H und δ18O ausgedrückt) von meteorischen Wassern sowie von organischem Material mit Methoden der Satellitenfernerkundung als Indikator für atmosphärische und hydrologische Prozesse kombiniert, um ein besseres Verständnis der verschiedenen Wasserquellen des Himalaya zu erlangen. Darüber hinaus wurde der Link zwischen modernen klimatischen Bedingungen und verbindungsspezifischen stabilen Isotopen von Blattwachsen (δ2Hwax) sowie von brGDGTs (branched Glycerol dialkyl glycerol tetraethers) rezenter Bodenproben aus den Einzugsgebieten vierer Flüsse des Himalaya hergestellt, um sie als Paläo-Klima- und Paläo-Höhenproxy verwenden zu können. Zu guter Letzt wurden hydrologische Veränderungen auf einer Zeitskala von 20 Mio. Jahren anhand von δ13C- and δ18O-Werten von Bodencarbonat und organischem Material aus Sedimentschnitten der pre-Siwalik und Siwalik-Einheiten nachvollzogen. Die Erkenntnisse dieser tragen zu einer deutlich genaueren Rekonstruktion von Vegetationsänderungen und der Entwicklung der Monsun-Intensität sowie -Saisonalität bei. Die Isotopenzusammensetzung der Oberflächenwasser der untersuchten Flüsse wird hauptsächlich durch Rayleigh-Destillation der im Wesentlichen vom Indischen Sommer Monsun eingetragenen Feuchtigkeit bestimmt. Der durch Satellitenfernerkundungsdaten bestätigte Anstieg des Deuterium-Exzesses (d-excess) im Frühjahr verdeutlicht den signifikanten Einfluss von Schnee- und Gletscherschmelze, der auch in Zeitreihen von Oberflächenwasserproben erkennbar ist. Sowohl brGDGT als auch δ2Hwax können potentiell die absolute Höhe zum Zeitpunkt ihrer Synthese abbilden, da sie stark mit der Lufttemperatur, bzw. mit Oberflächenwasser δ2H und somit indirekt auch mit der Höhe korreliert sind. Im direkten Vergleich der mittels brGDGT und δ2Hwax rekonstruierten Höhen ergaben sich insbesondere in ariden Teilen der Höhenprofile große Unterschiede. Diese sind hauptsächlich auf verstärkte Evapotranspiration und deren Auswirkung auf Pflanzenwasser und -wachse zurückzuführen. Basierend auf den Erkenntnissen der vorliegenden Arbeit können weitere vergleichende Untersuchungen beider Proxies genauere Paläo-Höhenstudien ermöglichen. Diese Arbeit zeigt, dass die Isotopie von Oberflächenwassern genutzt werden kann, um den sich ändernden Wasserhaushalt des Himalya im Kontext voraussichtlich weiter ansteigender Temperaturen zu beobachten. Unsicherheiten bei der Rekonstruktion von Paläo-Höhen konnten durch eine vergleichende Analyse zweier organischer Proxies (δ2Hwax and brGDGTs) aus Paläo-Bodenproben des Himalayas minimiert werden. Verhältnisse stabiler Isotope von Blattwachsen aus diesen Bodenproben spiegeln die Entwicklung der Vegetation unter dem Einfluss des Monsuns im späten Miozän wider. Zusammenfassend wurde erfolgreich gezeigt, dass organische Proxies und stabile Isotope höhenabhängige Änderungen des Klimas im Himalaya aufzeichnen können. Die Kombination von δ2Hwax and brGDGTs als neuer Proxy ermöglicht eine deutlich differenziertere Betrachtung von rekonstruierten Paläo-Höhen sowie Paläo-Klima. KW - stable isotope KW - Himalaya KW - n-alkanes KW - d-excess KW - biomarker KW - paleohydrology KW - GDGT KW - GDGT KW - Himalaya KW - Biomarker KW - Deuterium Exzesses KW - n-alkane KW - Paläohydrologie KW - stabilen Isotopen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-514397 ER - TY - THES A1 - Unfug, Christian T1 - Die Prätorianerpräfektur im dritten Jahrhundert T1 - The praetorian prefecture in the third century BT - die Entstehung einer „Kaiserlichen Magistratur“ N2 - Die Arbeit untersucht die historische Entwicklung der Prätorianerpräfektur im 3. Jh. und bewertet die Funktion im Rahmen der kaiserlichen Herrschaftsordnung. Aufgrund der militärischen und politischen Krisen des 3. Jh. und der daran angepassten Herrschaftsstrategien erhielten die Prätorianerpräfekten umfassende Aufgaben. Die disparate Quellen- und Forschungslage beschreibt den Machtzuwachs und die Funktionsaufwertung der Prätorianerpräfekten in dieser wichtigen Phase aber sehr unterschiedlich. Ausgehend von den spätantiken Berichten geht die mehrheitliche Forschung zudem von einem Machtverlust der Prätorianerpräfekten unter Konstantin aus, dem eine Reformierung der Prätorianerpräfektur zugesprochen wird. Dieser Machtverlust lässt sich zeitlich und funktional jedoch nicht sicher bestimmen. In der Forschung wird dieser funktionale Abstieg oft mit der konstantinischen Demilitarisierung und Regionalisierung der Prätorianerpräfektur begründet. Bisher fehlte eine aktuelle Gesamtdarstellung, die die Prätorianerpräfektur in der Herrschaftsordnung des 3. Jh. bewertet und kategorisiert, um eine funktionale Abgrenzung zur klassischen Prätorianerpräfektur und zur Regionalpräfektur im 4. Jh. vorzunehmen. Für diese funktionale Abgrenzung wurden in dieser Arbeit die Funktionsmerkmale und historischen Zusammenhänge der Prätorianerpräfektur im 3. Jh. abstrahiert und hieraus der Idealtypus einer „Kaiserlichen Magistratur“ gebildet. Die Ergebnisse dieser Abstrahierung zeigen die Prätorianerpräfektur im 3. Jh. als eine kommunikative Schnittstelle zwischen dem Kaiser und den leitenden Stellen der Zentral- und Provinzadministration. Die Prätorianerpräfektur übernahm hierbei eine leitende Stabsfunktion, die im Zusammenhang mit der höchsten inappellablen Gerichtsbarkeit die zweite Funktionsträgerebene nach dem Kaiser bildete. Diese Funktion übten die Prätorianerpräfekten ohne territoriale Bindung bis zum Ende der Tetrarchie bzw. bis zur frühen Herrschaft Konstantins aus. N2 - The study researches the historical development of the praetorian prefect in the third century and valuates this function in consideration of the emperor’s ruling system. Due to the military and political crisis of the third century and the adapted ruling strategies the praetorian prefects obtained extensive responsibilities. But the disparate sources and researches have described the powerful position of the praetorian prefecture and the growth of responsibilities in this important phase very different. Focused on the sources of the late antiquity most researches although supposed a substantial reform and a loss of power for the praetorian prefecture under Constantine. But the determination of the temporary and functional loss of power for the praetorian prefecture is uncertain. Many studies argued this functional downgrade with the Constantinian demilitarization and regionalization of the praetorian prefecture. So far there was a requirement for an actual overall view, that evaluates and categorizes the praetorian prefecture in the ruling system of the third century that allowed a functional differentiation to the classical praetorian prefecture and the regional prefecture of the fourth century. For that functional differentiation the functional attributes and historical correlations of the praetorian prefecture in the third century were generalized and formed in this study to the ideal type of an „Emperor’s Magistrate“. As a result of that approach the praetorian prefecture is shown as a communicative gateway between the emperor and the leading offices of the central and provincial administration. Here the praetorian prefecture obtained a leading staff function and constitutes in correlation with its highest inappeasable court the second functional level after the emperor. Without a territorial bond the praetorian prefecture administrates that function until the end of the Tetrarchy respectively to the early reign of Constantine. KW - Prätorianerpräfektur KW - praetorian KW - Römische Kaiserzeit KW - Verwaltungsgeschichte KW - Soldatenkaiser KW - Rechtsgeschichte KW - Militärgeschichte KW - Magistratur KW - magistracy KW - military history KW - praetorian prefecture KW - history of law KW - history of the Roman Empire KW - soldier emperor KW - barracks emperor KW - administrative history KW - Magistrat KW - magistrate KW - Prätorianerpräfekt KW - praetorian prefect KW - praefectus praetorio Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-511886 ER - TY - THES A1 - Torcato Mordido, Gonçalo Filipe T1 - Diversification, compression, and evaluation methods for generative adversarial networks N2 - Generative adversarial networks (GANs) have been broadly applied to a wide range of application domains since their proposal. In this thesis, we propose several methods that aim to tackle different existing problems in GANs. Particularly, even though GANs are generally able to generate high-quality samples, the diversity of the generated set is often sub-optimal. Moreover, the common increase of the number of models in the original GANs framework, as well as their architectural sizes, introduces additional costs. Additionally, even though challenging, the proper evaluation of a generated set is an important direction to ultimately improve the generation process in GANs. We start by introducing two diversification methods that extend the original GANs framework to multiple adversaries to stimulate sample diversity in a generated set. Then, we introduce a new post-training compression method based on Monte Carlo methods and importance sampling to quantize and prune the weights and activations of pre-trained neural networks without any additional training. The previous method may be used to reduce the memory and computational costs introduced by increasing the number of models in the original GANs framework. Moreover, we use a similar procedure to quantize and prune gradients during training, which also reduces the communication costs between different workers in a distributed training setting. We introduce several topology-based evaluation methods to assess data generation in different settings, namely image generation and language generation. Our methods retrieve both single-valued and double-valued metrics, which, given a real set, may be used to broadly assess a generated set or separately evaluate sample quality and sample diversity, respectively. Moreover, two of our metrics use locality-sensitive hashing to accurately assess the generated sets of highly compressed GANs. The analysis of the compression effects in GANs paves the way for their efficient employment in real-world applications. Given their general applicability, the methods proposed in this thesis may be extended beyond the context of GANs. Hence, they may be generally applied to enhance existing neural networks and, in particular, generative frameworks. N2 - Generative adversarial networks (GANs) wurden seit ihrer Einführung in einer Vielzahl von Anwendungsbereichen eingesetzt. In dieser Dissertation schlagen wir einige Verfahren vor, die darauf abzielen, verschiedene bestehende Probleme von GANs zu lösen. Insbesondere, fokussieren wir uns auf das Problem das GANs zwar qualitative hochwertige Samples generieren können, aber die Diversität ist oft sub-optimal. Darüber hinaus, stellt die allgemein übliche Zunahme der Anzahl der Modelle unter dem ursprünglichen GAN-Framework, als auch deren Modellgröße weitere Aufwendungskosten dar. Abschließend, ist die richtige Evaluierung einer generierten Menge, wenn auch herausfordernd, eine wichtige Forschungsrichtung, um letztendlich den Generierungsprozess von GANs zu verbessern. Wir beginnen mit der Einführung von zwei Diversifizierungsmethoden die das ursprüngliche GAN-Framework um mehrere Gegenspieler erweitern, um die Diversität zu erhöhen. Um den zusätzlichen Speicher- und Rechenaufwand zu reduzieren, führen wir dann eine neue Kompressionsmethode ein. Diese Methode basiert auf den Monte-Carlo-Methoden und Importance Sampling, für das Quantisieren und Pruning der Gewichte und Aktivierungen von schon trainierten neuronalen Netzwerken ohne zusätzliches Trainieren. Wir erweitern die erwähne Methode zusätzlich für das Quantisieren und Pruning von Gradienten während des Trainierens, was die Kommunikationskosten zwischen verschiedenen sogenannten „Workern“ in einer verteilten Trainingsumgebung reduziert. Bezüglich der Bewertung der generierten Samples, stellen wir mehrere typologie basierte Evaluationsmethoden vor, die sich auf Bild-und Text konzentrieren. Um verschiedene Anwendungsfälle zu erfassen, liefern unsere vorgestellten Methoden einwertige und doppelwertige Metriken. Diese können einerseits dazu genutzt werden, generierte Samples, oder die Qualität und Verteilung der Samples anhand einer Menge von echten Samples zu bewerten. Außerdem, verwenden zwei unserer vorgestellten Metriken so genanntes locality-sensitive Hashing, um die generierten Samples von stark komprimierten GANs genau zu bewerten. Die Analyse von Kompressionseffekten in GANs ebnet den Weg für ihren effizienten Einsatz für reale Anwendungen. Aufgrund der allgemeinen Anwendungsmöglichkeit von GANs, können die in dieser Arbeit vorgestellten Methoden auch über Kontext von GANs hinaus erweitert werden. Daher könnten sie allgemein auf existierende neuronale Netzwerke angewandt werden und insbesondere auf generative Frameworks. KW - deep learning KW - generative adversarial networks KW - erzeugende gegnerische Netzwerke KW - tiefes Lernen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535460 ER - TY - THES A1 - Teusner, Ralf T1 - Situational interventions and peer feedback in massive open online courses T1 - Situationsabhängige Interventionen und Peer-Feedback in Massive Open Online Courses BT - narrowing the gap between learners and instructors in online programming education N2 - Massive Open Online Courses (MOOCs) open up new opportunities to learn a wide variety of skills online and are thus well suited for individual education, especially where proffcient teachers are not available locally. At the same time, modern society is undergoing a digital transformation, requiring the training of large numbers of current and future employees. Abstract thinking, logical reasoning, and the need to formulate instructions for computers are becoming increasingly relevant. A holistic way to train these skills is to learn how to program. Programming, in addition to being a mental discipline, is also considered a craft, and practical training is required to achieve mastery. In order to effectively convey programming skills in MOOCs, practical exercises are incorporated into the course curriculum to offer students the necessary hands-on experience to reach an in-depth understanding of the programming concepts presented. Our preliminary analysis showed that while being an integral and rewarding part of courses, practical exercises bear the risk of overburdening students who are struggling with conceptual misunderstandings and unknown syntax. In this thesis, we develop, implement, and evaluate different interventions with the aim to improve the learning experience, sustainability, and success of online programming courses. Data from four programming MOOCs, with a total of over 60,000 participants, are employed to determine criteria for practical programming exercises best suited for a given audience. Based on over five million executions and scoring runs from students' task submissions, we deduce exercise difficulties, students' patterns in approaching the exercises, and potential flaws in exercise descriptions as well as preparatory videos. The primary issue in online learning is that students face a social gap caused by their isolated physical situation. Each individual student usually learns alone in front of a computer and suffers from the absence of a pre-determined time structure as provided in traditional school classes. Furthermore, online learning usually presses students into a one-size-fits-all curriculum, which presents the same content to all students, regardless of their individual needs and learning styles. Any means of a personalization of content or individual feedback regarding problems they encounter are mostly ruled out by the discrepancy between the number of learners and the number of instructors. This results in a high demand for self-motivation and determination of MOOC participants. Social distance exists between individual students as well as between students and course instructors. It decreases engagement and poses a threat to learning success. Within this research, we approach the identified issues within MOOCs and suggest scalable technical solutions, improving social interaction and balancing content difficulty. Our contributions include situational interventions, approaches for personalizing educational content as well as concepts for fostering collaborative problem-solving. With these approaches, we reduce counterproductive struggles and create a universal improvement for future programming MOOCs. We evaluate our approaches and methods in detail to improve programming courses for students as well as instructors and to advance the state of knowledge in online education. Data gathered from our experiments show that receiving peer feedback on one's programming problems improves overall course scores by up to 17%. Merely the act of phrasing a question about one's problem improved overall scores by about 14%. The rate of students reaching out for help was significantly improved by situational just-in-time interventions. Request for Comment interventions increased the share of students asking for help by up to 158%. Data from our four MOOCs further provide detailed insight into the learning behavior of students. We outline additional significant findings with regard to student behavior and demographic factors. Our approaches, the technical infrastructure, the numerous educational resources developed, and the data collected provide a solid foundation for future research. N2 - MOOCs (Massive Open Online Courses) ermöglichen es jedem Interessierten sich in verschiedenen Fachrichtungen online weiterzubilden. Sie fördern die persönliche individuelle Entwicklung und ermöglichen lebenslanges Lernen auch dort, wo geeignete Lehrer nicht verfügbar sind. Unsere Gesellschaft befindet sich derzeit in der sogenannten "digitalen Transformation". Von vielen Arbeitnehmern werden in diesem Zusammenhang zunehmend Fähigkeiten wie abstraktes Denken und logisches Schlussfolgern erwartet. Das Erlernen einer Programmiersprache ist eine geeignete Möglichkeit, diese Fähigkeiten zu erlangen. Obwohl Programmieren als geistige Disziplin angesehen wird, ist es zu einem gewissen Grad auch ein Handwerk, bei dem sich das individuelle Können insbesondere durch stetige praktische Anwendung entwickelt. Um Programmierkenntnisse effektiv in einem MOOC zu vermitteln, sollten daher praktische Aufgaben von vornherein in den Lehrstoff des Kurses integriert werden, um die vorgestellten Konzepte geeignet zu vertiefen und zu festigen. Neben den positiven Aspekten für die Lernenden weisen praktische Programmieraufgaben jedoch auch ein erhöhtes Frustpotential auf. Kryptische Fehlermeldungen und teils unbekannte Syntax überfordern insbesondere diejenigen Teilnehmer, welche zusätzlich mit konzeptionellen Missverständnissen zu kämpfen haben. Im Rahmen dieser Arbeit entwickeln und analysieren wir mehrere Interventionsmöglichkeiten um die Lernerfahrung und den Lernerfolg von Teilnehmern in Programmier-MOOCs zu verbessern. Daten von über 60.000 Teilnehmern aus vier Programmier-MOOCs bilden die Grundlage für eine Analyse von Kriterien für geeignete Programmieraufgaben für spezifische Teilnehmergruppen. Auf Basis von 5 Millionen Codeausführungen von Teilnehmern leiten wir Schwachstellen in Aufgaben und typische Herangehensweisen der Teilnehmer ab. Die Hauptschwierigkeit beim Lernen in einer virtuellen Umgebung ist die durch physische Isolation hervorgerufene soziale Entkopplung. Jeder Teilnehmer lernt alleine vor einem Bildschirm, ein gemeinsamer Stundenplan wie im klassischen Schulunterricht fehlt. Weiterhin präsentieren bestehende online Kurse den Teilnehmern in der Regel lediglich universell einsetzbare Lerninhalte, welche in keiner Weise auf die jeweiligen Bedürfnisse und Vorerfahrungen der individuellen Teilnehmer angepasst sind. Personalisierte Lerninhalte bzw. individuelles Feedback sind in MOOCs aufgrund der großen Anzahl an Teilnehmern und der nur kleinen Anzahl an Lehrenden oft nur schwer bzw. gar nicht zu realisieren. Daraus resultieren wiederum hohe Anforderungen an das individuelle Durchhaltevermögen und die Selbstmotivation der MOOC-Teilnehmer. Die soziale Entkopplung manifestiert sich sowohl zwischen den Teilnehmern untereinander als auch zwischen den Lehrenden und den Teilnehmern. Negative Folgen sind ein häufig verringertes Engagement und damit eine Gefährdung des Lernerfolgs. In dieser Arbeit schlagen wir als Gegenmaßnahme skalierbare technische Lösungen vor, um die soziale Interaktion zu verbessern und inhaltliche Schwierigkeiten zu überwinden. Unsere wissenschaftlichen Beiträge umfassen situationsabhängige Interventionen, Ansätze zur Personalisierung von Lerninhalten, sowie Konzepte und Anreize zur Verbesserung der Kollaboration der Teilnehmer untereinander. Mit diesen Maßnahmen schaffen wir es, kontraproduktive Blockaden beim Lernen zu lösen und stellen damit einen universell einsetzbaren Ansatz zur Verbesserung von zukünftigen Progammier-MOOCs bereit. Die aus unseren Experimenten gesammelten Daten zeigen, dass bei Programmierproblemen gewährtes Feedback von anderen Teilnehmern die Gesamtpunktzahl innerhalb des Teilnehmerfeldes durchschnittlich um bis zu 17% verbessert. Bereits das Formulieren des jeweiligen individuellen Problems verbesserte die Gesamtpunktzahl um etwa 14%. Durch situative Interventionen konnte weiterhin der Anteil der Teilnehmer, die nach Hilfe fragen, um bis zu 158% gesteigert werden. Die gesammelten Daten aus unseren vier MOOCs ermöglichen darüber hinaus detaillierte Einblicke in das Lernverhalten der Teilnehmer. Wir zeigen zusätzlich Erkenntnisse in Bezug auf das Verhalten der Teilnehmer und zu demografischen Faktoren auf. Die in dieser Arbeit beschriebenen Ansätze, die geschaffene technische Infrastruktur, das entworfene Lehrmaterial, sowie der umfangreiche gesammelte Datenbestand bilden darüber hinaus eine vielversprechende Grundlage für weitere zukünftige Forschung. KW - programming KW - MOOC KW - intervention KW - collaboration KW - peer feedback KW - Programmierung KW - MOOC KW - Interventionen KW - Kollaboration KW - Peer-feedback Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-507587 ER - TY - THES A1 - Teichmann, Erik T1 - Partial synchronization in coupled systems with repulsive and attractive interaction T1 - Partielle Synchronisation in Gekoppelten System mit Abstoßender und Anziehender Wechselwirkung N2 - Partial synchronous states exist in systems of coupled oscillators between full synchrony and asynchrony. They are an important research topic because of their variety of different dynamical states. Frequently, they are studied using phase dynamics. This is a caveat, as phase dynamics are generally obtained in the weak coupling limit of a first-order approximation in the coupling strength. The generalization to higher orders in the coupling strength is an open problem. Of particular interest in the research of partial synchrony are systems containing both attractive and repulsive coupling between the units. Such a mix of coupling yields very specific dynamical states that may help understand the transition between full synchrony and asynchrony. This thesis investigates partial synchronous states in mixed-coupling systems. First, a method for higher-order phase reduction is introduced to observe interactions beyond the pairwise one in the first-order phase description, hoping that these may apply to mixed-coupling systems. This new method for coupled systems with known phase dynamics of the units gives correct results but, like most comparable methods, is computationally expensive. It is applied to three Stuart-Landau oscillators coupled in a line with a uniform coupling strength. A numerical method is derived to verify the analytical results. These results are interesting but give importance to simpler phase models that still exhibit exotic states. Such simple models that are rarely considered are Kuramoto oscillators with attractive and repulsive interactions. Depending on how the units are coupled and the frequency difference between the units, it is possible to achieve many different states. Rich synchronization dynamics, such as a Bellerophon state, are observed when considering a Kuramoto model with attractive interaction in two subpopulations (groups) and repulsive interactions between groups. In two groups, one attractive and one repulsive, of identical oscillators with a frequency difference, an interesting solitary state appears directly between full and partial synchrony. This system can be described very well analytically. N2 - Partiell synchronisierte Zustände existieren zwischen voller Synchronisation und Asynchronie, in Systemen von gekoppelten Oszillatoren. Das Verständnis von partieller Synchronisation ist ein wichtiger Forschungszweig, da sie viele dynamische Zustände enthalten. Sie werden oft mithilfe von Phasendynamiken untersucht. Das ist jedoch ein Nachteil, da Phasendynamiken für gewöhnlich nur im Grenzfall von schwacher Kopplung, also einer Näherung in erster Ordnung der Kopplungsstärke, betrachtet werden. Die Verallgemeinerung zu höheren Ordnungen ist weiterhin ein offenes Problem. Systeme mit anziehender und abstoßender Kopplung zwischen den einzelnen Oszillatoren sind von speziellem Interesse in der Erforschung von partieller Synchronisation. Solch eine Mischung aus Kopplungsstärken führt zu bestimmten dynamischen Zuständen, die den Übergang von Synchronisation zu Asynchronie erklären könnten. Diese Arbeit untersucht solche Zustände in Systemen mit gemischten Kopplungsstärken. Zuerst wird eine neue Methode zur Bestimmung von Phasendynamiken in höheren Ordnungen eingeführt. Sie betrachtet mehr Kopplungsterme, als die einfachen paarweisen Interaktionen die in der ersten Ordnung der Kopplungsstärke auftreten, in der Hoffnung, dass diese Methode auch auf Systeme mit gemischter Kopplung anwendbar ist. Die neue Methode für Oszillatoren mit einer bekannten Phasendynamik, führt zu den richtigen Ergebnissen, ist aber aufwendig zu berechnen. Die Methode wird auf drei, in einer Linie gekoppelten, Stuart-Landau Oszillatoren angewendet. Eine numerische Methode wird abgeleitet, um die analytischen Ergebnisse zu verifizieren. Diese Ergebnisse sind interessant, aber durch die benötigte hohe Rechenleistung ist es weiterhin vorteilhaft einfachere Phasenmodelle zu untersuchen, die exotischere Zustände erreichen. Solch ein einfaches Model, das eher selten Beachtung findet, ist das Kuramoto Model mit anziehender und abstoßender Kopplung. Abhängig davon, wie die Oszillatoren gekoppelt und wie die Frequenzunterschiede zwischen den einzelnen Oszillatoren sind, ist es möglich viele verschiedene Zustände zu erreichen. Interessante Synchronisierungsdynamiken werden erreicht, wie zum Beispiel der Bellerophon Zustand, wenn ein Kuramoto Model mit zwei Gruppen, mit anziehender Kopplung innerhalb der Gruppen und abstoßender Kopplung zwischen den Gruppen, untersucht wird. Bei zwei Gruppen, eine anziehend und eine abstoßend, von identischen Oszillatoren mit einem Frequenzunterschied zwischen den Gruppen, wird ein interessanter solitärer Zustand beobachtet. Er befindet sich direkt am Übergang zwischen Synchronisation und partieller Synchronisation. Solch ein System ist sehr gut analytisch beschreibbar. KW - Synchronization KW - Dynamical Systems KW - Coupled Systems KW - gekoppelte System KW - dynamische Systeme KW - Synchronisation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-528943 ER - TY - THES A1 - Tabares Jimenez, Ximena del Carmen T1 - A palaeoecological approach to savanna dynamics and shrub encroachment in Namibia N2 - The spread of shrubs in Namibian savannas raises questions about the resilience of these ecosystems to global change. This makes it necessary to understand the past dynamics of the vegetation, since there is no consensus on whether shrub encroachment is a new phenomenon, nor on its main drivers. However, a lack of long-term vegetation datasets for the region and the scarcity of suitable palaeoecological archives, makes reconstructing past vegetation and land cover of the savannas a challenge. To help meet this challenge, this study addresses three main research questions: 1) is pollen analysis a suitable tool to reflect the vegetation change associated with shrub encroachment in savanna environments? 2) Does the current encroached landscape correspond to an alternative stable state of savanna vegetation? 3) To what extent do pollen-based quantitative vegetation reconstructions reflect changes in past land cover? The research focuses on north-central Namibia, where despite being the region most affected by shrub invasion, particularly since the 21st century, little is known about the dynamics of this phenomenon. Field-based vegetation data were compared with modern pollen data to assess their correspondence in terms of composition and diversity along precipitation and grazing intensity gradients. In addition, two sediment cores from Lake Otjikoto were analysed to reveal changes in vegetation composition that have occurred in the region over the past 170 years and their possible drivers. For this, a multiproxy approach (fossil pollen, sedimentary ancient DNA (sedaDNA), biomarkers, compound specific carbon (δ13C) and deuterium (δD) isotopes, bulk carbon isotopes (δ13Corg), grain size, geochemical properties) was applied at high taxonomic and temporal resolution. REVEALS modelling of the fossil pollen record from Lake Otjikoto was run to quantitatively reconstruct past vegetation cover. For this, we first made pollen productivity estimates (PPE) of the most relevant savanna taxa in the region using the extended R-value model and two pollen dispersal options (Gaussian plume model and Lagrangian stochastic model). The REVEALS-based vegetation reconstruction was then validated using remote sensing-based regional vegetation data. The results show that modern pollen reflects the composition of the vegetation well, but diversity less well. Interestingly, precipitation and grazing explain a significant amount of the compositional change in the pollen and vegetation spectra. The multiproxy record shows that a state change from open Combretum woodland to encroached Terminalia shrubland can occur over a century, and that the transition between states spans around 80 years and is characterized by a unique vegetation composition. This transition is supported by gradual environmental changes induced by management (i.e. broad-scale logging for the mining industry, selective grazing and reduced fire activity associated with intensified farming) and related land-use change. Derived environmental changes (i.e. reduced soil moisture, reduced grass cover, changes in species composition and competitiveness, reduced fire intensity) may have affected the resilience of Combretum open woodlands, making them more susceptible to change to an encroached state by stochastic events such as consecutive years of precipitation and drought, and by high concentrations of pCO2. We assume that the resulting encroached state was further stabilized by feedback mechanisms that favour the establishment and competitiveness of woody vegetation. The REVEALS-based quantitative estimates of plant taxa indicate the predominance of a semi-open landscape throughout the 20th century and a reduction in grass cover below 50% since the 21st century associated with the spread of encroacher woody taxa. Cover estimates show a close match with regional vegetation data, providing support for the vegetation dynamics inferred from multiproxy analyses. Reasonable PPEs were made for all woody taxa, but not for Poaceae. In conclusion, pollen analysis is a suitable tool to reconstruct past vegetation dynamics in savannas. However, because pollen cannot identify grasses beyond family level, a multiproxy approach, particularly the use of sedaDNA, is required. I was able to separate stable encroached states from mere woodland phases, and could identify drivers and speculate about related feedbacks. In addition, the REVEALS-based quantitative vegetation reconstruction clearly reflects the magnitude of the changes in the vegetation cover that occurred during the last 130 years, despite the limitations of some PPEs. This research provides new insights into pollen-vegetation relationships in savannas and highlights the importance of multiproxy approaches when reconstructing past vegetation dynamics in semi-arid environments. It also provides the first time series with sufficient taxonomic resolution to show changes in vegetation composition during shrub encroachment, as well as the first quantitative reconstruction of past land cover in the region. These results help to identify the different stages in savanna dynamics and can be used to calibrate predictive models of vegetation change, which are highly relevant to land management. N2 - Die Ausbreitung von Sträuchern in der namibischen Savanne wirft Fragen nach der Resilienz dieser Ökosysteme gegenüber globalen Veränderungen auf. Dies macht es notwendig, die Vegetationsdynamik in der Vergangenheit zu verstehen, da kein Konsens darüber besteht, ob die Verbuschung ein neues Phänomen ist oder über ihre Haupttreiber. Aufgrund des Mangels an Langzeitvegetationsdatensätzen für die Region und des Mangels an geeigneten paläoökologischen Archiven bleibt die Rekonstruktion der früheren Vegetation und der früheren Landbedeckung der Savannen eine Herausforderung. In diesem Zusammenhang befasst sich diese Studie mit drei Hauptforschungsfragen: 1) Ist Pollenanalyse ein geeignetes Instrument, um die Veränderung der Vegetation widerzuspiegeln, die mit der Verbuschung von Savannen verbunden ist? 2) Entspricht die derzeitige verbuschte Landschaft einem stabilen Zustand der Savannenvegetation? 3) Inwieweit entspricht die quantitative Rekonstruktion der Vegetation auf der Grundlage fossiler Pollendaten der früheren Vegetationsbedeckung der Savanne? Um diese Fragen zu beantworten, konzentrierte sich diese Forschung auf Nord-Zentral-Namibia, da diese Region insbesondere seit dem 21. Jahrhundert am stärksten von Verbuschung betroffen ist, über die Dynamik dieses Phänomens in der Region ist jedoch wenig bekannt. Im Rahmen dieser Studie wurden feldbasierte Vegetationsdaten mit modernen Pollendaten verglichen, um das Potenzial moderner Pollen zu bewerten, die Vegetationszusammensetzung und -vielfalt entlang von Niederschlags- und Weideintensitätsgradienten widerzuspiegeln. Zusätzlich wurden zwei Sedimentkerne aus dem Otjikoto-See analysiert, um die Veränderungen der Vegetationszusammensetzung in der Region in den letzten 170 Jahren und ihre möglichen Treiber zu dokumentieren. Hierzu wurde ein Multiproxy-Ansatz (fossiler Pollen, sedimentäre alte DNA, Biomarker, verbindungsspezifische Kohlenstoff- (δ13C) und Deuterium- (δD) Isotope, Kohlenstoff-Isotope (δ13Corg), Korngröße, geochemische Eigenschaften) mit hoher taxonomischer und zeitlicher Auflösung angewendet. Schließlich wurde der REVEALS-Ansatz auf den fossilen Pollendata des Otjikoto-Sees angewendet, um die Vegetationsbedeckung der Vergangenheit quantitativ zu rekonstruieren. Dazu wurden zunächst die Pollenproduktivitätsschätzungen (PPE) der relevantesten Savannentaxa in der Region unter Verwendung des erweiterten R-Wert-Modells und zweier Pollenausbreitungsmodelle (Gaußsches Federmodell und Lagrange-Stochastikmodell) berechnet. Die auf REVEALS basierende Vegetationsrekonstruktion wurde dann unter Verwendung von auf Fernerkundung basierenden regionalen Vegetationsdaten validiert. Die Ergebnisse zeigen, dass moderner Pollen die Zusammensetzung der Vegetation gut widerspiegelt, jedoch weniger die Diversität. Interessanterweise machen Niederschlag und Beweidung einen signifikanten, aber geringen Anteil der Änderung der Zusammensetzung in den Pollen- und Vegetationsspektren aus. Die Multiproxy-Analyse zeigt, dass ein Zustandswechsel von der offenen Combretum Baumsavanne zum Terminalia Buschland über ein Jahrhundert stattfinden kann und dass der Übergang zwischen den beiden Zuständen etwa 80 Jahre dauert und durch eine einzigartige Vegetationszusammensetzung gekennzeichnet ist. Dieser Übergang wird durch allmähliche Umweltveränderungen unterstützt, die durch das Management (z.B. großflächige Abholzung für den Bergbau sowie selektive Beweidung und verringerte Feueraktivität verbunden mit intensivierter Landwirtschaft) und damit verbundene Landnutzungsänderungen hervorgerufen werden. Abgeleitete Umweltveränderungen (z.B. verringerte Bodenfeuchtigkeit, verringerte Grasbedeckung, Änderungen der Artenzusammensetzung und Konkurrenzfähigkeit, verringerte Feuerintensität) können die Resilienz der offenen Combretum Baumsavanne beeinträchtigt haben und sie anfälliger machen, durch stochastische Ereignisse wie aufeinanderfolgende niederschlagsreiche Jahre, Dürre, und durch hohe Konzentrationen von pCO2, in einen verbuschten Zustand zu wechseln. Der daraus resultierende verbuschte Zustand wird durch Rückkopplungsmechanismen aufrechterhalten, welche die Etablierung und Konkurrenzfähigkeit der Holzvegetation begünstigen. Schließlich deuten die auf REVEALS basierenden Deckungsschätzungen auf das Vorherrschen einer halboffenen Landschaft während des gesamten 20. Jahrhunderts und eine Verringerung der Grasbedeckung unter 50% seit dem 21. Jahrhundert hin, die mit der Verbreitung von Verbuschungstaxa verbunden ist. Deckungsschätzungen zeigen eine enge Übereinstimmung mit regionalen Vegetationsdaten, wodurch die aus der Multi-Proxy-Analyse abgeleitete Vegetationsdynamik bestätigt werden kann. Die PPE-Berechnung war für alle holzigen Taxa erfolgreich, für Poaceae jedoch fehlgeschlagen. Zusammenfassend ist die Pollenanalyse ein geeignetes Instrument zur Rekonstruktion der Vegetationsdynamik in Savannen. Aufgrund der geringen taxonomischen Auflösung von Pollen zur Identifizierung von Gräsern ermöglicht ein Multiproxy-Ansatz, insbesondere die Verwendung von sedaDNA, die Unterscheidung stabiler verbuschte Zustände von bloßen Waldphasen sowie die Identifizierung von Auslösern und Treibern von Zustandsänderungen. Darüber hinaus spiegelt die auf REVEALS basierende quantitative Vegetationsrekonstruktion trotz der Einschränkungen bei der Berechnung von PPEs deutlich das Ausmaß der Veränderungen in der Vegetationsbedeckung wider, die in den letzten 130 Jahren aufgetreten sind. Diese Forschung liefert neue Einblicke in die Pollen-Vegetations-Beziehungen in Savannen und unterstreicht die Bedeutung von Multiproxy-Ansätzen zur Rekonstruktion der Vegetationsdynamik in semi-ariden Landschaften. Es bietet auch die erste Zeitreihe mit ausreichender taxonomischer Auflösung, um die Veränderungen der Vegetationszusammensetzung im Verlauf der Verbuschung sowie die erste quantitative Rekonstruktion der früheren Landbedeckung in der Region aufzuzeigen. Diese Ergebnisse können dazu beitragen, die verschiedenen Stadien der Savannendynamik besser zu identifizieren, und können auch zur Kalibrierung von Vorhersagemodellen für Vegetationsänderungen verwendet werden, die für die Landbewirtschaftung von großem Wert sind. T2 - Ein paläoökologischer Ansatz zur Savannendynamik und Verbuschung in Namibia KW - savanna ecology KW - pollen KW - sedaDNA KW - REVEALS KW - state-transition models KW - Savannen-Ökologie KW - REVEALS KW - sedimentäre alte DNA KW - Pollen KW - Pollenproduktivitätsschätzungen KW - Zustands-Übergangs-Modelle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-492815 ER - TY - THES A1 - Stuff, Maria T1 - Iron isotope fractionation in carbonatite melt systems T1 - Fe-Isotopenfraktionierung in karbonatitischen Schmelzen N2 - Carbonatite magmatism is a highly efficient transport mechanism from Earth’s mantle to the crust, thus providing insights into the chemistry and dynamics of the Earth’s mantle. One evolving and promising tool for tracing magma interaction are stable iron isotopes, particularly because iron isotope fractionation is controlled by oxidation state and bonding environment. Meanwhile, a large data set on iron isotope fractionation in igneous rocks exists comprising bulk rock compositions and fractionation between mineral groups. Iron isotope data from natural carbonatite rocks are extremely light and of remarkably high variability. This resembles iron isotope data from mantle xenoliths, which are characterized by a variability in δ56Fe spanning three times the range found in basalts, and by the extremely light values of some whole rock samples, reaching δ56Fe as low as -0.69 ‰ in a spinel lherzolite. Cause to this large range of variations may be metasomatic processes, involving metasomatic agents like volatile bearing high-alkaline silicate melts or carbonate melts. The expected effects of metasomatism on iron isotope fractionation vary with parameters like melt/rock-ratio, reaction time, and the nature of metasomatic agents and mineral reactions involved. An alternative or additional way to enrich light isotopes in the mantle could be multiple phases of melt extraction. To interpret the existing data sets more knowledge on iron isotope fractionation factors is needed. To investigate the behavior of iron isotopes in the carbonatite systems, kinetic and equilibration experiments in natro-carbonatite systems between immiscible silicate and carbonate melts were performed in an internally heated gas pressure vessel at intrinsic redox conditions at temperatures between 900 and 1200 °C and pressures of 0.5 and 0.7 GPa. The iron isotope compositions of coexisting silicate melt and carbonate melt were analyzed by solution MC-ICP-MS. The kinetic experiments employing a Fe-58 spiked starting material show that isotopic equilibrium is obtained after 48 hours. The experimental studies of equilibrium iron isotope fractionation between immiscible silicate and carbonate melts have shown that light isotopes are enriched in the carbonatite melt. The highest Δ56Fesil.m.-carb.melt (mean) of 0.13 ‰ was determined in a system with a strongly peralkaline silicate melt composition (ASI ≥ 0.21, Na/Al ≤ 2.7). In three systems with extremely peralkaline silicate melt compositions (ASI between 0.11 and 0.14) iron isotope fractionation could analytically not be resolved. The lowest Δ56Fesil.m.-carb.melt (mean) of 0.02 ‰ was determined in a system with an extremely peralkaline silicate melt composition (ASI ≤ 0.11 , Na/Al ≥ 6.1). The observed iron isotope fractionation is most likely governed by the redox conditions of the system. Yet, in the systems, where no fractionation occurred, structural changes induced by compositional changes possibly overrule the influence of redox conditions. This interpretation implicates, that the iron isotope system holds the potential to be useful not only for exploring redox conditions in magmatic systems, but also for discovering structural changes in a melt. In situ iron isotope analyses by femtosecond laser ablation coupled to MC-ICP-MS on magnetite and olivine grains were performed to reveal variations in iron isotope composition on the micro scale. The investigated sample is a melilitite bomb from the Salt Lake Crater group at Honolulu (Oahu, Hawaii), showing strong evidence for interaction with a carbonatite melt. While magnetite grains are rather homogeneous in their iron isotope compositions, olivine grains span a far larger range in iron isotope ratios. The variability of δ56Fe in magnetite is limited from - 0.17 ‰ (± 0.11 ‰, 2SE) to +0.08 ‰ (± 0.09 ‰, 2SE). δ56Fe in olivine range from -0.66‰ (± 0.11 ‰, 2SE) to +0.10 ‰ (± 0.13 ‰, 2SE). Olivine and magnetite grains hold different informations regarding kinetic and equilibrium fractionation due to their different Fe diffusion coefficients. The observations made in the experiments and in the in situ iron isotope analyses suggest that the extremely light iron isotope signatures found in carbonatites are generated by several steps of isotope fractionation during carbonatite genesis. These may involve equilibrium and kinetic fractionation. Since iron isotopic signatures in natural systems are generated by a combination of multiple factors (pressure, temperature, redox conditions, phase composition and structure, time scale), multi tracer approaches are needed to explain signatures found in natural rocks. N2 - Karbonatitische Schmelzen, die im Erdmantel gebildet werden, transportieren Material aus dem Erdmantel zur Erdkruste und ermöglichen somit Einblicke in Chemismus und Dynamiken des Erdmantels. Die Analyse stabiler Eisenisotopenverhältnisse ist eine neue und vielversprechende Methode um Schmelzprozesse und Interaktionen von Schmelzen im Erdmantel nachzuverfolgen, insbesondere da Eisenisotopenfraktionierung vom Oxidationszustand und der Bindungsumgebung in der Schmelze abhängig ist. Mittlerweile existiert ein großer Datensatz zur Eisenisotopenfraktionierung in magmatischen Gesteinen, der sowohl Zusammensetzungen von Gesamtgesteinen als auch von separierten Mineralgruppen umfasst. Karbonatite weisen extrem leichte Eisenisotopensignaturen und gleichzeitig eine breite Spannweite der δ56Fe auf. Darin ähneln sie Mantelxenolithen, die ebenfalls sehr variable und teilweise extrem leichte δ56Fe aufweisen, wie zum Beispiel -0.69 ‰ in einem Spinelllherzolith. Ein möglicher Grund für diese große Spannweite sind metasomatische Prozesse, an denen Fluide wie hochalkalische Silikatschmelzen oder Karbonatschmelzen beteiligt sind. Welche Auswirkung Metasomatose auf die Eisenisotopenfraktionierung hat, hängt von Parametern wie dem Verhältnis von Schmelze zu Gestein, der Reaktionszeit und der Art der beteiligten metasomatischen Fluide sowie den Mineralreaktionen ab. Auch mehrere aufeinanderfolgende Phasen der Schmelzextraktion könnten zur Heterogenisierung von Teilen des Erdmantels beigetragen haben. Bisher existieren allerdings nur wenige Untersuchungen zur Eisenisotopenfraktionierung zwischen Silikat- und Karbonatphasen. Um Eisenisotopenfraktionierung im Karbonatitsystem besser zu verstehen, wurden im Rahmen dieser Arbeit Experimente im Natrokarbonatitsystem durchgeführt. Dazu wurden unmischbare Silikat- und Karbonatschmelzen bei Temperaturen zwischen 900 und 1200 °C und Drücken von 0,5 und 0,7 GPa in einem intern beheizten Autoklaven bei intrinsischen Redoxbedingungen equilibriert. Im Anschluss wurden die Silikat- und Karbonatschmelzen separiert, aufgeschlossen und die Eisenisotopenverhältnisse beider Phasen mittels MC-ICP-MS analysiert. Dabei konnte gezeigt werden, dass die Proben nach spätestens 48 Stunden Fe-isotopisch equilibriert sind und dass im Gleichgewicht leichte Eisenisotope in der Karbonatschmelze angereichert sind. Die größte Isotopenfraktionierung von Δ56Fesil.m.-carb.melt (mean) = 0,13 ‰ wurde in einem System mit stark peralkalischer Zusammensetzung der Silikatschmelze (ASI ≥ 0,21, Na/Al ≤ 2,7) gemessen. In den Systemen mit extrem peralkalischer Zusammensetzung der Silikatschmelze (ASI zwischen 0,11 and 0,14) hingegen war die Eisenisotopenfraktionierung analytisch nicht auflösbar. Zusätzlich wurde die Eisenisotopenfraktionierung zwischen Magnetit- und Olivinkörnern in situ mittels UV-Femtosekunden-Laserablation gekoppelt mit MC-ICP-MS untersucht. Bei der Probe handelt es sich um eine Melilititbombe aus der Salt-Lake-Crater-Gruppe in Honolulu (Oahu, Hawaii), die deutliche Anzeichen für Kontakt mit einer karbonatitischen Schmelze aufweist. Während die Magnetite eher homogen hinsichtlich ihrer Eisenisotopenzusammensetzung sind (-0,17 ‰, ± 0,11 ‰, 2SE, to +0,08 ‰, ± 0,09 ‰, 2SE), weisen die Olivine eine weitaus größere Spannweite an δ56Fe auf (-0,66 ‰, ± 0,11 ‰, 2SE, to +0,10 ‰, ± 0,13 ‰, 2SE). Da Eisen unterschiedliche Diffusionskoeffizienten in Olivin und Magnetit hat, sind in beiden unterschiedliche Informationen zur kinetischen und Gleichgewichtsisotopenfraktionierung enthalten. Die Beobachtungen aus den Experimenten und in den Eisenisotopenanalysen in situ deuten darauf hin, dass die extrem leichten Eisenisotopensignaturen in Karbonatiten durch Isotopenfraktionierung in mehreren Schritten während der Karbonatitgenese entstanden sind, die sowohl Gleichgewichts- als auch kinetische Fraktionierung umfassen können. Da die Eisenisotopensignaturen in natürlichen Systemen durch eine Kombination mehrerer Faktoren (Druck, Temperatur, Redoxbedingungen, Phasenzusammensetzung und -struktur, Zeitskala) entstehen, werden Multi-Tracer-Ansätze benötigt, um die in natürlichen Gesteinen beobachteten Signaturen zu erklären. KW - MC-ICP-MS KW - silicate melt KW - carbonate melt KW - melilitite KW - UV fs laser ablation KW - MC-ICP-MS KW - Silikatschmelze KW - Karbonatschmelze KW - IHPV KW - Melilitit Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-519928 ER - TY - THES A1 - Stojanovic, Vladeta T1 - Digital twins for indoor built environments T1 - Digitale Zwillinge für gebaute Innenumgebungen N2 - One of the key challenges in modern Facility Management (FM) is to digitally reflect the current state of the built environment, referred to as-is or as-built versus as-designed representation. While the use of Building Information Modeling (BIM) can address the issue of digital representation, the generation and maintenance of BIM data requires a considerable amount of manual work and domain expertise. Another key challenge is being able to monitor the current state of the built environment, which is used to provide feedback and enhance decision making. The need for an integrated solution for all data associated with the operational life cycle of a building is becoming more pronounced as practices from Industry 4.0 are currently being evaluated and adopted for FM use. This research presents an approach for digital representation of indoor environments in their current state within the life cycle of a given building. Such an approach requires the fusion of various sources of digital data. The key to solving such a complex issue of digital data integration, processing and representation is with the use of a Digital Twin (DT). A DT is a digital duplicate of the physical environment, states, and processes. A DT fuses as-designed and as-built digital representations of built environment with as-is data, typically in the form of floorplans, point clouds and BIMs, with additional information layers pertaining to the current and predicted states of an indoor environment or a complete building (e.g., sensor data). The design, implementation and initial testing of prototypical DT software services for indoor environments is presented and described. These DT software services are implemented within a service-oriented paradigm, and their feasibility is presented through functioning and tested key software components within prototypical Service-Oriented System (SOS) implementations. The main outcome of this research shows that key data related to the built environment can be semantically enriched and combined to enable digital representations of indoor environments, based on the concept of a DT. Furthermore, the outcomes of this research show that digital data, related to FM and Architecture, Construction, Engineering, Owner and Occupant (AECOO) activity, can be combined, analyzed and visualized in real-time using a service-oriented approach. This has great potential to benefit decision making related to Operation and Maintenance (O&M) procedures within the scope of the post-construction life cycle stages of typical office buildings. N2 - Eine der wichtigsten Herausforderungen im modernen Facility Management (FM) besteht darin, den aktuellen Zustand der gebauten Umgebung digital wiederzugeben und die tatsächliche mit der geplanten Gebäudedarstellung zu vergleichen. Während die Verwendung von Building Information Modeling (BIM) das Problem der digitalen Darstellung lösen kann, erfordert die Generierung und Pflege von BIM-Daten einen erheblichen manuellen Aufwand und Fachkenntnisse. Eine weitere wichtige Herausforderung besteht darin, den aktuellen Zustand der gebauten Umgebung zu überwachen, um Feedback zu geben und die Entscheidungsfindung zu verbessern. Die Notwendigkeit einer integrierten Lösung für alle Daten im Zusammenhang mit dem Betriebslebenszyklus eines Gebäudes wird immer deutlicher, da derzeit Praktiken aus Industrie 4.0 evaluiert und für die FM-Nutzung übernommen werden. Diese Studie präsentiert einen Ansatz zur digitalen Darstellung von Innenräumen in ihrem aktuellen Zustand innerhalb des Lebenszyklus eines bestimmten Gebäudes. Ein solcher Ansatz erfordert die Fusion verschiedener Quellen digitaler Daten. Der Schlüssel zur Lösung eines solch komplexen Problems der Integration, Verarbeitung und Darstellung digitaler Daten liegt in der Verwendung eines Digital Twin (DT). Ein DT ist ein digitales Duplikat der physischen Umgebung, Zustände und Prozesse. Ein DT verschmilzt die entworfenen und gebauten digitalen Darstellungen der gebauten Umwelt mit aktuellen Repräsentationsdaten, typischerweise in Form von Grundrissen, Punktwolken und BIMs, mit zusätzlichen Informationsebenen, die sich auf die aktuellen und vorhergesagten Zustände einer Innenumgebung oder eines kompletten Gebäudes beziehen (z.B. Sensordaten). Das Design, die Implementierung und die ersten Tests prototypischen DT-Software-Dienstleistungen für Innenräume werden vorgestellt und beschrieben. Die DT-Software-Dienstleistungen werden innerhalb eines serviceorientierten Paradigmas implementiert, und ihre Machbarkeit wird durch funktionierende und getestete wichtige Softwarekomponenten in prototypischen SOS-Implementierungen dargestellt. Das Hauptergebnis dieser Forschung zeigt, dass Schlüsseldaten in Bezug auf die gebaute Umgebung semantisch angereichert und kombiniert werden können, um digitale Darstellungen von Innenumgebungen basierend auf dem Konzept eines DT zu ermöglichen. Darüber hinaus zeigen die Ergebnisse dieser Forschung, dass digitale Daten in Bezug auf FM und Architektur, Bauwesen, Ingenieurwesen, Eigentümer- und Insassenaktivitäten mithilfe eines serviceorientierten Ansatzes in Echtzeit kombiniert, analysiert und visualisiert werden können. Dies hat ein großes Potenzial für die Entscheidungsfindung in Bezug auf Betriebsund Wartungsverfahren im Rahmen der Lebenszyklusphasen typischer Bürogebäude nach dem Bau. KW - Digital Twin KW - BIM KW - Point Clouds KW - Service-Oriented Systems KW - 3D Visualization KW - Data Analytics KW - Machine Learning KW - Deep Learning KW - Semantic Enrichment KW - Indoor Point Clouds KW - Real Estate 4.0 KW - Facility Management KW - Building Management KW - Sensor Analytics KW - Visualization KW - 3D-Visualisierung KW - Gebäudeinformationsmodellierung KW - Gebäudemanagement KW - Daten-Analytik KW - Tiefes Lernen KW - Digitaler Zwilling KW - Indoor-Punktwolken KW - Maschinelles Lernen KW - Punktwolken KW - Immobilien 4.0 KW - Semantische Anreicherung KW - Sensor-Analytik KW - Service-Orientierte Systeme KW - Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509134 ER - TY - THES A1 - Stark, Markus T1 - Implications of local and regional processes on the stability of metacommunities in diverse ecosystems T1 - Auswirkungen lokaler und regionaler Prozesse auf die Stabilität von Metagemeinschaften in diversen Ökosystemen N2 - Anthropogenic activities such as continuous landscape changes threaten biodiversity at both local and regional scales. Metacommunity models attempt to combine these two scales and continuously contribute to a better mechanistic understanding of how spatial processes and constraints, such as fragmentation, affect biodiversity. There is a strong consensus that such structural changes of the landscape tend to negatively effect the stability of metacommunities. However, in particular the interplay of complex trophic communities and landscape structure is not yet fully understood. In this present dissertation, a metacommunity approach is used based on a dynamic and spatially explicit model that integrates population dynamics at the local scale and dispersal dynamics at the regional scale. This approach allows the assessment of complex spatial landscape components such as habitat clustering on complex species communities, as well as the analysis of population dynamics of a single species. In addition to the impact of a fixed landscape structure, periodic environmental disturbances are also considered, where a periodical change of habitat availability, temporally alters landscape structure, such as the seasonal drying of a water body. On the local scale, the model results suggest that large-bodied animal species, such as predator species at high trophic positions, are more prone to extinction in a state of large patch isolation than smaller species at lower trophic levels. Increased metabolic losses for species with a lower body mass lead to increased energy limitation for species on higher trophic levels and serves as an explanation for a predominant loss of these species. This effect is particularly pronounced for food webs, where species are more sensitive to increased metabolic losses through dispersal and a change in landscape structure. In addition to the impact of species composition in a food web for diversity, the strength of local foraging interactions likewise affect the synchronization of population dynamics. A reduced predation pressure leads to more asynchronous population dynamics, beneficial for the stability of population dynamics as it reduces the risk of correlated extinction events among habitats. On the regional scale, two landscape aspects, which are the mean patch isolation and the formation of local clusters of two patches, promote an increase in $\beta$-diversity. Yet, the individual composition and robustness of the local species community equally explain a large proportion of the observed diversity patterns. A combination of periodic environmental disturbance and patch isolation has a particular impact on population dynamics of a species. While the periodic disturbance has a synchronizing effect, it can even superimpose emerging asynchronous dynamics in a state of large patch isolation and unifies trends in synchronization between different species communities. In summary, the findings underline a large local impact of species composition and interactions on local diversity patterns of a metacommunity. In comparison, landscape structures such as fragmentation have a negligible effect on local diversity patterns, but increase their impact for regional diversity patterns. In contrast, at the level of population dynamics, regional characteristics such as periodic environmental disturbance and patch isolation have a particularly strong impact and contribute substantially to the understanding of the stability of population dynamics in a metacommunity. These studies demonstrate once again the complexity of our ecosystems and the need for further analysis for a better understanding of our surrounding environment and more targeted conservation of biodiversity. N2 - Seit geraumer Zeit prägt der Mensch seine Umwelt und greift in die Struktur von Landschaften ein. In den letzten Jahrzehnten wurde die Landschaftsnutzung intensiviert und Ökosyteme weltweit anthropogen überprägt. Solche Veränderungen der Landschaft sind mit Verantwortlich für den derzeit rapiden Verlust an Biodiversität auf lokaler wie regionaler Ebene. Metagemeinschafts-Modelle versuchen diese beiden Ebenen zu kombinieren und kontinuierlich zu einem besseren mechanistischen Verständnis beizutragen, wie räumliche Prozesse, so z. B. Fragmentierung von Biotopen, die Biodiversität beeinflussen. Es besteht dabei ein großer Konsens, dass sich solche Änderungen der Landschaft tendenziell negativ auf die Stabilität von Metagemeinschaften auswirken. Jedoch ist insbesondere das Zusammenspiel von komplexen trophischen Gemeinschaften und räumlichen Prozessen längst nicht vollständig verstanden. In der vorliegenden Arbeit wird ein Metagemeinschafts-Modellansatz verwendet, der auf einem dynamischen und räumlich expliziten Modell basiert, das Populationsdynamiken auf der lokalen Ebene und Migrationsdynamiken auf der regionalen Ebene integriert. Dieser Ansatz erlaubt die Bewertung komplexer räumlicher Landschaftskomponenten wie z. B. die Auswirkung von Habitatsclustern auf Populationsdynamiken einzelner Arten bis hin zur Diversität komplexer Artengemeinschaften. Zusätzlich zum Einfluss von einzelner konstanter räumlicher Strukturen werden auch periodische Umweltstörungen berücksichtigt, bei der ein Wechsel der Habitatverfügbarkeit, die räumliche Struktur der Landschaft temporär verändert, wie z. B. die Austrocknung eines Gewässers. Auf der lokalen Ebene deuten die Modellergebnisse darauf hin, dass Tierarten mit einer großen Körpermasse, wie z. B. Raubtierarten in höheren trophischen Positionen, in einem Zustand großer Habitat-Isolation stärker vom Aussterben bedroht sind, als Arten mit geringer Körpermasse auf unteren trophischen Ebenen. Arten mit einer geringerer Körpermasse haben einen erhöhten metabolischen Verlust, der zu einer Energielimitierung auf den höheren trophischen Ebenen führt. Dies kann eine Erklärung dafür sein, dass Arten mit großer Körpermasse ein höheres Aussterberisiko in den Modellergebnissen aufweisen. Dieser Effekt ist vor allem in Nahrungsnetzen ausgeprägt, bei denen Arten empfindlicher auf metabolische Verluste durch Migration und eine Veränderung der Habitat Struktur reagieren. Neben der Bedeutung der Zusammensetzung der Arten eines Nahrungsnetzes für die Diversität, haben lokale Fraßinteraktionen ebenfalls Auswirkungen auf die Synchronisierung von Populationsdynamiken. Ein geringerer Fraßdruck führt zu mehr asynchronen Populationsdynamiken, die diese Dynamiken einer Metapopulation stabilisiert, sodass das Risiko von Aussterbeereignissen einzelner Arten sinkt. Auf der regionalen Ebene führen als landschaftliche Aspekte, neben der mittleren Habitat-Isolation, ebenso die Bildung von lokalen Clustern aus zwei Habitaten zu einer Zunahme der Beta-Diversität. Jedoch erklären die individuelle Zusammensetzung und Robustheit der lokalen Arten- gemeinschaft gleichermaßen einen großen Anteil der zu beobachteten Diversitätsmuster. Eine Kombination aus periodischen Umweltstörungen und Habitat-Isolation hat insbesondere einen Einfluss auf die Populationsdynamiken einzelner Arten. Populationsdynamiken können durch periodische Umweltstörungen synchronisiert werden, und dabei die sonst auftauchende asynchronen Populationsdynamiken bei einer größeren Habitat-Isolation überlagern. Die dadurch vereinheitlichen Trends in der Synchronisierung erhöhen das Risiko korrelierter Aussterbeereignisse einer Art. Zusammenfassend lassen sich zwei große Einflussfaktoren auf die lokalen Diversitätsmuster der Metagemeinschaften feststellen. Zum Einen die lokale Artenzusammensetzung und zum Anderen die Interaktionen der Arten. Im Vergleich dazu, haben räumliche Komponenten wie die Fragmentierung der Landschaft einen vernachlässigbaren Einfluss auf die lokalen Diversitätsmuster und gewinnen erst für regionale Diversitätsmuster an Gewicht. Im Gegensatz dazu spielen auf der Ebene der Populationsdynamik besonders regionale Eigenschaften, wie die periodische Umweltstörung und Habitat-Isolation, eine Rolle und tragen wesentlich zum Verständnis der Stabilität von Populationsdynamiken der Metagemeinschaft bei. Diese Untersuchungen zeigen einmal mehr die Komplexität unserer Ökosysteme und die Notwendigkeit weiterer Analysen für ein besseres Verständnis unserer umgebenen Umwelt und gezielteren Schutz der Biodiversität. KW - Fragmentation KW - Ecology KW - Food Web KW - Metacommunity KW - Disturbance KW - Störungen KW - Ökologie KW - Nahrungsnetze KW - Fragmentierung KW - Metagemeinschaften Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-526399 ER - TY - THES A1 - Ssembatya, Anthony T1 - Dual Citizenship: A comparative study of Kenya and Uganda T1 - Doppelte Staatsbürgerschaft: eine vergleichende Studie über Kenia und Uganda N2 - Kenya and Uganda are amongst the countries that, for different historical, political, and economic reasons, have embarked on law reform processes as regards to citizenship. In 2009, Uganda made provisions in its laws to allow citizens to have dual citizenship while Kenya’s 2010 constitution similarly introduced it, and at the same time, a general prohibition on dual citizenship was lifted, that is, a ban on state officers, including the President and Deputy President, being dual nationals (Manby, 2018). Against this background, I analysed the reasons for which these countries that previously held stringent laws and policies against dual citizenship, made a shift in a close time proximity. Given their geo-political roles, location, regional, continental, and international obligations, I conducted a comparative study on the processes, actors, impact, and effect. A specific period of 2000 to 2010 was researched, that is, from when the debates for law reforms emerged, to the processes being implemented, the actors, and the implications. According to Rubenstein (2000, p. 520), citizenship is observed in terms of “political institutions” that are free to act according to the will of, in the interests of, or with authority over, their citizenry. Institutions are emergent national or international, higher-order factors above the individual spectrum, having the interests and political involvement of their actors without requiring recurring collective mobilisation or imposing intervention to realise these regularities. Transnational institutions are organisations with authority beyond single governments. Given their International obligations, I analysed the role of the UN, AU, and EAC in influencing the citizenship debates and reforms in Kenya and Uganda. Further, non-state actors, such as civil society, were considered. Veblen, (1899) describes institutions as a set of settled habits of thought common to the generality of men. Institutions function only because the rules involved are rooted in shared habits of thought and behaviour although there is some ambiguity in the definition of the term “habit”. Whereas abstracts and definitions depend on different analytical procedures, institutions restrain some forms of action and facilitate others. Transnational institutions both restrict and aid behaviour. The famous “invisible hand” is nothing else but transnational institutions. Transnational theories, as applied to politics, posit two distinct forms that are of influence over policy and political action (Veblen, 1899). This influence and durability of institutions is “a function of the degree to which they are instilled in political actors at the individual or organisational level, and the extent to which they thereby “tie up” material resources and networks. Against this background, transitional networks with connection to Kenya and Uganda were considered alongside the diaspora from these two countries and their role in the debate and reforms on Dual citizenship. Sterian (2013, p. 310) notes that Nation states may be vulnerable to institutional influence and this vulnerability can pose a threat to a nation’s autonomy, political legitimacy, and to the democratic public law. Transnational institutions sometimes “collide with the sovereignty of the state when they create new structures for regulating cross-border relationships”. However, Griffin (2003) disagrees that transnational institutional behaviour is premised on the principles of neutrality, impartiality, and independence. Transnational institutions have become the main target of the lobby groups and civil society, consequently leading to excessive politicisation. Kenya and Uganda are member states not only of the broader African union but also of the E.A.C which has adopted elements of socio-economic uniformity. Therefore, in the comparative analysis, I examine the role of the East African Community and its partners in the dual citizenship debate on the two countries. I argue in the analysis that it is not only important to be a citizen within Kenya or Uganda but also important to discover how the issue of dual citizenship is legally interpreted within the borders of each individual nation-state. In light of this discussion, I agree with Mamdani’s definition of the nation-state as a unique form of power introduced in Africa by colonial powers between 1880 and 1940 whose outcomes can be viewed as “debris of a modernist postcolonial project, an attempt to create a centralised modern state as the bearer of Westphalia sovereignty against the background of indirect rule” (Mamdani, 1996, p. xxii). I argue that this project has impacted the citizenship debate through the adopted legal framework of post colonialism, built partly on a class system, ethnic definitions, and political affiliation. I, however, insist that the nation-state should still be a vital custodian of the citizenship debate, not in any way denying the individual the rights to identity and belonging. The question then that arises is which type of nation-state? Mamdani (1996, p. 298) asserts that the core agenda that African states faced at independence was threefold: deracialising civil society; detribalising the native authority; and developing the economy in the context of unequal international relations. Post-independence governments grappled with overcoming the citizen and subject dichotomy through either preserving the customary in the name of “defending tradition against alien encroachment or abolishing it in the name of overcoming backwardness and embracing triumphant modernism”. Kenya and Uganda are among countries that have reformed their citizenship laws attesting to Mamdani’s latter assertion. Mamdani’s (1996) assertions on how African states continue to deal with the issue of citizenship through either the defence of tradition against subjects or abolishing it in the name of overcoming backwardness and acceptance of triumphant modernism are based on the colonial legal theory and the citizen-subject dichotomy within Africa communities. To further create a wider perspective on legal theory, I argue that those assertions above, point to the historical divergence between the republican model of citizenship, which places emphasis on political agency as envisioned in Rousseau´s social contract, as opposed to the liberal model of citizenship, which stresses the legal status and protection (Pocock, 1995). I, therefore, compare the contexts of both Kenya and Uganda, the actors, the implications of transnationalism and post-nationalism, on the citizens, the nation-state and the region. I conclude by highlighting the shortcomings in the law reforms that allowed for dual citizenship, further demonstrating an urgent need to address issues, such as child statelessness, gender nationality laws, and the rights of dual citizens. Ethnicity, a weak nation state, and inconsistent citizenship legal reforms are closely linked to the historical factors of both countries. I further indicate the economic and political incentives that influenced the reform. Keywords: Citizenship, dual citizenship, nation state, republicanism, liberalism, transnationalism, post-nationalism N2 - Kenia und Uganda gehören zu den Ländern, die aus unterschiedlichen historischen, politischen und wirtschaftlichen Gründen Gesetzesreformen im Bereich der Staatsbürgerschaft in Angriff genommen haben. Im Jahr 2009 hat Uganda Bestimmungen in seine Gesetze aufgenommen, die den Bürgern eine doppelte Staatsbürgerschaft erlauben, während Kenias Verfassung von 2010 dies ebenfalls vorsieht. Gleichzeitig wurde ein allgemeines Verbot der doppelten Staatsbürgerschaft aufgehoben, d. h. das Verbot, dass Staatsbeamte, einschließlich des Präsidenten und des stellvertretenden Präsidenten, eine doppelte Staatsbürgerschaft haben (Manby, 2018). Vor diesem Hintergrund habe ich die Gründe analysiert, aus denen diese Länder, die zuvor strenge Gesetze und Strategien gegen die doppelte Staatsbürgerschaft verfolgten, in kurzer Zeit einen Wandel vollzogen. Angesichts ihrer geopolitischen Rolle, ihrer Lage, ihrer regionalen, kontinentalen und internationalen Verpflichtungen habe ich eine vergleichende Studie zu den Prozessen, Akteuren, Auswirkungen und Folgen durchgeführt. Untersucht wurde ein bestimmter Zeitraum von 2000 bis 2010, d. h. vom Aufkommen der Debatten über Gesetzesreformen bis hin zu den durchgeführten Prozessen, den Akteuren und den Auswirkungen. Nach Rubenstein (2000, S. 520) wird die Staatsbürgerschaft im Hinblick auf "politische Institutionen" betrachtet, die frei sind, nach dem Willen der Bürger, im Interesse der Bürger oder mit Autorität gegenüber den Bürgern zu handeln. Institutionen sind emergente nationale oder internationale Faktoren höherer Ordnung, die über das individuelle Spektrum hinausgehen und die Interessen und das politische Engagement ihrer Akteure haben, ohne dass es einer wiederkehrenden kollektiven Mobilisierung oder eines auferlegten Eingriffs bedarf, um diese Gesetzmäßigkeiten zu verwirklichen. Transnationale Institutionen sind Organisationen, deren Autorität über einzelne Regierungen hinausgeht. Angesichts ihrer internationalen Verpflichtungen habe ich die Rolle der UNO, der AU und der EAC bei der Beeinflussung der Staatsbürgerschaftsdebatten und -reformen in Kenia und Uganda analysiert. Darüber hinaus wurden auch nichtstaatliche Akteure wie die Zivilgesellschaft berücksichtigt. Veblen (1899) beschreibt Institutionen als eine Reihe von festen Denkgewohnheiten, die der Allgemeinheit der Menschen gemeinsam sind. Institutionen funktionieren nur, weil die betreffenden Regeln in gemeinsamen Denk- und Verhaltensgewohnheiten verwurzelt sind, auch wenn die Definition des Begriffs "Gewohnheit" nicht ganz eindeutig ist. Während Abstrakta und Definitionen von unterschiedlichen analytischen Verfahren abhängen, schränken Institutionen einige Handlungsformen ein und erleichtern andere. Transnationale Institutionen schränken das Verhalten sowohl ein als auch fördern es. Die berühmte "unsichtbare Hand" ist nichts anderes als transnationale Institutionen. Transnationale Theorien, die auf die Politik angewandt werden, gehen von zwei unterschiedlichen Formen des Einflusses auf die Politik und das politische Handeln aus (Veblen, 1899). Dieser Einfluss und die Dauerhaftigkeit von Institutionen sind "eine Funktion des Grades, in dem sie den politischen Akteuren auf individueller oder organisatorischer Ebene eingeimpft werden, und des Ausmaßes, in dem sie dadurch materielle Ressourcen und Netzwerke "binden". Vor diesem Hintergrund wurden Übergangsnetzwerke mit Bezug zu Kenia und Uganda ebenso betrachtet wie die Diaspora aus diesen beiden Ländern und ihre Rolle in der Debatte und den Reformen zur doppelten Staatsbürgerschaft. Sterian (2013, S. 310) stellt fest, dass Nationalstaaten anfällig für institutionellen Einfluss sein können und diese Anfälligkeit eine Bedrohung für die Autonomie einer Nation, die politische Legitimität und das demokratische öffentliche Recht darstellen kann. Transnationale Institutionen "kollidieren manchmal mit der Souveränität des Staates, wenn sie neue Strukturen zur Regulierung grenzüberschreitender Beziehungen schaffen". Griffin (2003) ist jedoch nicht der Meinung, dass das Verhalten transnationaler Institutionen auf den Grundsätzen der Neutralität, Unparteilichkeit und Unabhängigkeit beruht. Transnationale Institutionen sind zur Hauptzielscheibe von Lobbygruppen und der Zivilgesellschaft geworden, was zu einer übermäßigen Politisierung führt. Kenia und Uganda sind nicht nur Mitglieder der Afrikanischen Union im weiteren Sinne, sondern auch des Europäischen Wirtschaftsraums, der Elemente der sozioökonomischen Einheitlichkeit übernommen hat. In der vergleichenden Analyse untersuche ich daher die Rolle der Ostafrikanischen Gemeinschaft und ihrer Partner in der Debatte um die doppelte Staatsbürgerschaft in den beiden Ländern. In der Analyse argumentiere ich, dass es nicht nur wichtig ist, Staatsbürger in Kenia oder Uganda zu sein, sondern auch zu erfahren, wie die Frage der doppelten Staatsbürgerschaft innerhalb der Grenzen jedes einzelnen Nationalstaates rechtlich interpretiert wird. Vor dem Hintergrund dieser Diskussion stimme ich Mamdanis Definition des Nationalstaates als eine einzigartige Form der Macht zu, die von den Kolonialmächten zwischen 1880 und 1940 in Afrika eingeführt wurde und deren Ergebnisse als "Trümmer eines modernistischen postkolonialen Projekts, eines Versuchs, einen zentralisierten modernen Staat als Träger westfälischer Souveränität vor dem Hintergrund indirekter Herrschaft zu schaffen" (Mamdani, 1996, S. xxii), betrachtet werden können. Ich behaupte, dass dieses Projekt die Debatte über die Staatsbürgerschaft durch den angenommenen Rechtsrahmen des Postkolonialismus beeinflusst hat, der teilweise auf einem Klassensystem, ethnischen Definitionen und politischer Zugehörigkeit aufbaut. Ich bestehe jedoch darauf, dass der Nationalstaat nach wie vor ein wichtiger Hüter der Staatsbürgerschaftsdebatte sein sollte, der dem Einzelnen in keiner Weise das Recht auf Identität und Zugehörigkeit abspricht. Die Frage, die sich nun stellt, ist, welche Art von Nationalstaat? Mamdani (1996, S. 298) behauptet, dass die afrikanischen Staaten in der Zeit der Unabhängigkeit vor allem drei Aufgaben zu bewältigen hatten: die Entnazifizierung der Zivilgesellschaft, die Entstammung der einheimischen Autorität und die Entwicklung der Wirtschaft im Kontext ungleicher internationaler Beziehungen. Nach der Unabhängigkeit bemühten sich die Regierungen um die Überwindung der Dichotomie von Bürger und Untertan, indem sie entweder das Gewohnheitsrecht im Namen der "Verteidigung der Tradition gegen fremde Übergriffe oder der Abschaffung des Gewohnheitsrechts im Namen der Überwindung der Rückständigkeit und des triumphalen Modernismus" bewahrten. Kenia und Uganda gehören zu den Ländern, die ihre Staatsbürgerschaftsgesetze reformiert haben, was Mamdanis letztere Behauptung unterstreicht. Mamdanis (1996) Behauptungen darüber, wie afrikanische Staaten weiterhin mit der Frage der Staatsbürgerschaft umgehen, indem sie entweder die Tradition gegenüber den Untertanen verteidigen oder sie im Namen der Überwindung der Rückständigkeit und der Akzeptanz der triumphalen Moderne abschaffen, basieren auf der kolonialen Rechtstheorie und der Bürger-Subjekt-Dichotomie innerhalb der afrikanischen Gemeinschaften. Um eine breitere Perspektive auf die Rechtstheorie zu schaffen, argumentiere ich, dass die oben genannten Behauptungen auf die historische Divergenz zwischen dem republikanischen Modell der Staatsbürgerschaft, das den Schwerpunkt auf politisches Handeln legt, wie es in Rousseaus Gesellschaftsvertrag vorgesehen ist, und dem liberalen Modell der Staatsbürgerschaft, das den rechtlichen Status und Schutz betont, hinweisen (Pocock, 1995). Ich vergleiche daher die Kontexte von Kenia und Uganda, die Akteure, die Auswirkungen von Transnationalismus und Postnationalismus auf die Bürger, den Nationalstaat und die Region. Abschließend hebe ich die Unzulänglichkeiten der Gesetzesreformen hervor, die die doppelte Staatsbürgerschaft ermöglichten, und zeige auf, dass es dringend notwendig ist, sich mit Themen wie Staatenlosigkeit von Kindern, geschlechtsspezifischen Staatsangehörigkeitsgesetzen und den Rechten von Doppelbürgern zu befassen. Ethnische Zugehörigkeit, ein schwacher Nationalstaat und uneinheitliche Reformen des Staatsbürgerschaftsrechts sind eng mit den historischen Faktoren beider Länder verbunden. Ich zeige auch die wirtschaftlichen und politischen Anreize auf, die die Reform beeinflusst haben. Schlüsselwörter: Staatsbürgerschaft, doppelte Staatsbürgerschaft, Nationalstaat, Republikanismus, Liberalismus, Transnationalismus, Post-Nationalismus KW - Citizenship KW - Dual Citizenship KW - Statelessness KW - Staatsbürgerschaft KW - doppelte Staatsbürgerschaft KW - Staatenlosigkeit Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-531186 ER - TY - THES A1 - Spooner, Cameron T1 - How does lithospheric configuration relate to deformation in the Alpine region? T1 - Was ist der Zusammenhang zwischen der lithosphärischen Zusammensetzung der Alpen, ihrer Vorländer und deren Deformation? N2 - Forming as a result of the collision between the Adriatic and European plates, the Alpine orogen exhibits significant lithospheric heterogeneity due to the long history of interplay between these plates, other continental and oceanic blocks in the region, and inherited features from preceeding orogenies. This implies that the thermal and rheological configuration of the lithosphere also varies significantly throughout the region. Lithology and temperature/pressure conditions exert a first order control on rock strength, principally via thermally activated creep deformation and on the distribution at depth of the brittle-ductile transition zone, which can be regarded as the lower bound to the seismogenic zone. Therefore, they influence the spatial distribution of seismicity within a lithospheric plate. In light of this, accurately constrained geophysical models of the heterogeneous Alpine lithospheric configuration, are crucial in describing regional deformation patterns. However, despite the amount of research focussing on the area, different hypotheses still exist regarding the present-day lithospheric state and how it might relate to the present-day seismicity distribution. This dissertaion seeks to constrain the Alpine lithospheric configuration through a fully 3D integrated modelling workflow, that utilises multiple geophysical techniques and integrates from all available data sources. The aim is therefore to shed light on how lithospheric heterogeneity may play a role in influencing the heterogeneous patterns of seismicity distribution observed within the region. This was accomplished through the generation of: (i) 3D seismically constrained, structural and density models of the lithosphere, that were adjusted to match the observed gravity field; (ii) 3D models of the lithospheric steady state thermal field, that were adjusted to match observed wellbore temperatures; and (iii) 3D rheological models of long term lithospheric strength, with the results of each step used as input for the following steps. Results indicate that the highest strength within the crust (~ 1 GPa) and upper mantle (> 2 GPa), are shown to occur at temperatures characteristic for specific phase transitions (more felsic crust: 200 – 400 °C; more mafic crust and upper lithospheric mantle: ~600 °C) with almost all seismicity occurring in these regions. However, inherited lithospheric heterogeneity was found to significantly influence this, with seismicity in the thinner and more mafic Adriatic crust (~22.5 km, 2800 kg m−3, 1.30E-06 W m-3) occuring to higher temperatures (~600 °C) than in the thicker and more felsic European crust (~27.5 km, 2750 kg m−3, 1.3–2.6E-06 W m-3, ~450 °C). Correlation between seismicity in the orogen forelands and lithospheric strength, also show different trends, reflecting their different tectonic settings. As such, events in the plate boundary setting of the southern foreland correlate with the integrated lithospheric strength, occurring mainly in the weaker lithosphere surrounding the strong Adriatic indenter. Events in the intraplate setting of the northern foreland, instead correlate with crustal strength, mainly occurring in the weaker and warmer crust beneath the Upper Rhine Graben. Therefore, not only do the findings presented in this work represent a state of the art understanding of the lithospheric configuration beneath the Alps and their forelands, but also a significant improvement on the features known to significantly influence the occurrence of seismicity within the region. This highlights the importance of considering lithospheric state in regards to explaining observed patterns of deformation. N2 - Als Resultat der Kollision zwischen der Adriatischen und Europäischen Platte ist das Alpenorogen durch eine ausgeprägte Heterogenität der Lithosphäreneigenschaften gekennzeichnet, die auf die Geschichte der beiden Platten, ihre Interaktion, Wechselwirkungen mit anderen kontinentalen und ozeanischen Blöcken der Region und strukturell vererbte Merkmale aus früheren Orogenesen zurückzuführen sind. Entsprechend ist zu erwarten, dass die thermische und rheologische Konfiguration der Lithosphäre ebenfalls grundlegend innerhalb der Region variiert. Lithologie und Temperatur-/Druckbedingungen steuern maßgeblich die Festigkeit der Lithosphäre indem thermisch aktiviertes Kriechen die Tiefenlage der spröd-duktilen Übergangszone – die sogenannte brittle-ductile transition (BDT) bestimmt. Diese Tiefenlage kann als untere Grenze der seismogenen Zone betrachtet werden kann, weshalb sie die räumliche Verteilung der Seismizität in der Lithosphärenplatte entscheidend beeinflusst. Trotz der langjährigen und umfangreichen Forschung zur Dynamik und Struktur der Alpen gibt es immer noch verschiedene Hypothesen zum heutigen physikalischen Zustand des Systems und dazu, wie dieser mit der Verteilung und dem Auftreten von Seismizität zusammenhängt. Diese Dissertation hat das Ziel, die Lithosphärenkonfiguration der Alpen zu beschreiben und Zusammenhänge zwischen der Verteilung lithosphärischer Eigenschaften und Deformation, insbesondere der Verteilung der Seismizität abzuleiten. Dies wird durch einen integrierten Modellierungsansatz erreicht, mit dem verfügbare geophysikalische Beobachtungen in 3D Modellen zusammengeführt werden, die die heterogene lithosphärische Konfiguration abbilden. Dazu wird (1) ein mit geologischen, seismischen und gravimetrischen Daten konsistentes 3D-Dichtemodell erzeugt und genutzt, um Lithologien abzuleiten, (2) deren Konsequenzen für das dreidimensionale stationäre thermische Feld zu berechnen und, basierend darauf, schließlich (3) die räumliche Variation der Lithosphärenrheologie zu bestimmen. Diese räumliche Variation der rheologischen Eigenschaften wurde schließlich in Beziehung zur Verteilung der auftretenden Seismizität gesetzt. Die Ergebnisse zeigen, dass die größte Festigkeit innerhalb der Kruste (~1 GPa) und im oberen Mantel (> 2 GPa) oberhalb der Bereiche auftritt, wo Temperaturbedingte Phasenübergänge zu erwarten sind. Für die felsische Kruste umfasst dies den Temperaturbereich bis etwa 400° C, für die mafische Kruste und den lithospärischen Mantel bis etwa 600°, wobei Seismizität jeweils oberhalb dieser Temperaturen auftritt. Zusätzlich wurden Hinweise gefunden, dass diese Festigkeitsverteilung auf vererbte Lithosphäreneigenschaften zurückzuführen ist: so tritt seismische Aktivität in der dünneren und mafischen Adria Kruste (~22,5 km, 2.800 kg m-3, 1.30E -06 W m-3) bei höheren Temperatur (~600° C) auf als in der dickeren und eher felsischen europäischen Kruste (~27.5 km, 2750 kg m−3, 1.3–2.6E-06 W m-3, ~450 °C). Die Beziehung zwischen seismischer Aktivität und Lithosphärenfestigkeit im Bereich der Vorländer zeigt ebenfalls unterschiedliche Trends, die verschiedenene tektonische Randbedingungen wiederspiegeln. Während im Plattenrandsetting des südlichen Vorlands Seismizität in der rheologisch weicheren Lithosphäre in der Umrandung des adriatischen Indentors auftritt, korreliert die auftretende Seismizität im Intraplattensetting des nördlichen Vorlands räumlich mit wärmeren und rheologisch schwächeren Domänen im Bereich des Oberrheingrabens. Somit liefern die Ergebnisse in dieser Arbeit nicht nur ein verbessertes Verständnis der Lithosphärenkonfiguration der Alpen und ihrer Vorländer , sondern auch einen bedeutenden Fortschritt dazu, welche Faktoren Seismizität innerhalb der Region beeinflussen können. Sie zeigen, dass es wichtig ist, die Lithosphärenkonfiguration zu kennen und sie zur auftretenden Deformation in Beziehung zu setzen. KW - Gravity KW - Thermal KW - Rheology KW - Model KW - Alps KW - Alpen KW - Schwerkraft KW - Modell KW - Rheologie KW - Thermisch Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-516442 ER - TY - THES A1 - Spinti, Daniela T1 - Proteasomal protein turnover during defense priming in Arabidopsis T1 - Proteasomaler Proteinabbau während der erworbenen Immunantwort in Arabidopsis N2 - The ubiquitin-proteasome-system (UPS) is a cellular cascade involving three enzymatic steps for protein ubiquitination to target them to the 26S proteasome for proteolytic degradation. Several components of the UPS have been shown to be central for regulation of defense responses during infections with phytopathogenic bacteria. Upon recognition of the pathogen, local defense is induced which also primes the plant to acquire systemic resistance (SAR) for enhanced immune responses upon challenging infections. Here, ubiquitinated proteins were shown to accumulate locally and systemically during infections with Psm and after treatment with the SAR-inducing metabolites salicylic acid (SA) and pipecolic acid (Pip). The role of the 26S proteasome in local defense has been described in several studies, but the potential role during SAR remains elusive and was therefore investigated in this project by characterizing the Arabidopsis proteasome mutants rpt2a-2 and rpn12a-1 during priming and infections with Pseudomonas. Bacterial replication assays reveal decreased basal and systemic immunity in both mutants which was verified on molecular level showing impaired activation of defense- and SAR-genes. rpt2a-2 and rpn12a-1 accumulate wild type like levels of camalexin but less SA. Endogenous SA treatment restores local PR gene expression but does not rescue the SAR-phenotype. An RNAseq experiment of Col-0 and rpt2a-2 reveal weak or absent induction of defense genes in the proteasome mutant during priming. Thus, a functional 26S proteasome was found to be required for induction of SAR while compensatory mechanisms can still be initiated. E3-ubiquitin ligases conduct the last step of substrate ubiquitination and thereby convey specificity to proteasomal protein turnover. Using RNAseq, 11 E3-ligases were found to be differentially expressed during priming in Col-0 of which plant U-box 54 (PUB54) and ariadne 12 (ARI12) were further investigated to gain deeper understanding of their potential role during priming. PUB54 was shown to be expressed during priming and /or triggering with virulent Pseudomonas. pub54 I and pub54-II mutants display local and systemic defense comparable to Col-0. The heavy-metal associated protein 35 (HMP35) was identified as potential substrate of PUB54 in yeast which was verified in vitro and in vivo. PUB54 was shown to be an active E3-ligase exhibiting auto-ubiquitination activity and performing ubiquitination of HMP35. Proteasomal turnover of HMP35 was observed indicating that PUB54 targets HMP35 for ubiquitination and subsequent proteasomal degradation. Furthermore, hmp35-I benefits from increased resistance in bacterial replication assays. Thus, HMP35 is potentially a negative regulator of defense which is targeted and ubiquitinated by PUB54 to regulate downstream defense signaling. ARI12 is transcriptionally activated during priming or triggering and hyperinduced during priming and triggering. Gene expression is not inducible by the defense related hormone salicylic acid (SA) and is dampened in npr1 and fmo1 mutants consequently depending on functional SA- and Pip-pathways, respectively. ARI12 accumulates systemically after priming with SA, Pip or Pseudomonas. ari12 mutants are not altered in resistance but stable overexpression leads to increased resistance in local and systemic tissue. During priming and triggering, unbalanced ARI12 levels (i.e. knock out or overexpression) leads to enhanced FMO1 activation indicating a role of ARI12 in Pip-mediated SAR. ARI12 was shown to be an active E3-ligase with auto-ubiquitination activity likely required for activation with an identified ubiquitination site at K474. Mass spectrometrically identified potential substrates were not verified by additional experiments yet but suggest involvement of ARI12 in regulation of ROS in turn regulating Pip-dependent SAR pathways. Thus, data from this project provide strong indications about the involvement of the 26S proteasome in SAR and identified a central role of the two so far barely described E3-ubiquitin ligases PUB54 and ARI12 as novel components of plant defense. N2 - Das Ubiquitin-Proteasom-System (UPS) ist ein in drei Schritten enzymatisch ablaufender Prozess zur Ubiquitinierung von Proteinen, wodurch diese zum proteolytischen Abbau an das 26S Proteasom geschickt werden. Verschiedene Komponenten des UPS sind zentral an der Regulation von Immunantworten während der Infektion mit phytopathogenen Bakterien beteiligt. Beim Erkennen einer Infektion werden lokale Abwehrreaktionen initiiert, wobei auch mobile Signale in distalen Pflanzenteilen verteilt werden, welche die Pflanze primen (vorbereiten). Mit dem Erwerb der systemischen Resistenz (SAR) kann die Immunantwort bei einer zweiten Infektion verstärkt aktiviert werden. Es wurde hier gezeigt, dass ubiquitinierte Proteine in lokalem und systemischem Gewebe akkumulieren, wenn Arabidopsis mit Pseudomonas infiziert oder mit SAR-induzierender Salizylsäure (SA) oder Pipecolinsäure (Pip) behandelt wird. Die genaue Rolle des 26S Proteasoms in der systemischen Immunantwort ist bisher unklar und wurde daher in diesem Projekt mithilfe der Charakterisierung der Proteasommutanten rpt2a-2 und rpn12a-1 während des Primings genauer untersucht. In Bakterienwachstumsversuchen zeigte sich eine lokal und systemisch erhöhte Suszeptibilität der Proteasommutanten, welche auf molekularer Ebene durch ausbleibende Aktivierung von Abwehrgenen verifiziert wurde. Beide Mutanten akkumulieren ähnliche Mengen Camalexin während einer Infektion, sind aber in der Biosynthese von SA gestört. Die endogene Applikation von SA löst lokale PR-Gen Expression aus, kann aber nicht das SAR-Defizit ausgleichen. In einem RNAseq Experiment wurde das Transkriptom von Col-0 und rpt2a-2 während des Primings analysiert und zeigte, dass zentrale Abwehr- und SAR-Gene nicht oder nur schwach induziert werden. Es konnte somit gezeigt werden, dass ein funktionales 26S Proteasom zur vollen Induktion aller Teile der lokalen und systemischen Immunantwort benötigt wird, während ausgleichende Prozesse weiterhin aktiviert werden können. E3-Ubiquitin Ligasen führen den letzten Schritt der Substratubiquitinierung durch und vermitteln dadurch die Spezifität des proteasomalen Proteinabbaus. Mithilfe des RNAseq Experiments konnten 11 differentiell exprimierte Transkripte, annotiert als E3-Ligasen, identifiziert werden. Von diesen wurden PLANT U-BOX 54 (PUB54) und ARIADNE 12 (ARI12) weiter analysiert, um ein tiefergehendes Verständnis ihres Einflusses auf die systemische Immunantwort zu erhalten. PUB54 wird während des Primings und bei Infektionen mit virulenten Pseudomonas exprimiert. Die pub54 I und pub54-II Mutanten zeigen lokal und systemisch eine wildtyp-ähnliche Resistenz. Das „heavy-metal associated protein 35” (HMP35) wurde in Hefe als potentielles Substrat von PUB54 identifiziert und in vitro und in vivo verifiziert. PUB54 ist eine aktive E3-Ligase mit Autoubiquitinierungsaktivität, welche HMP35 ubiquitiniert. HMP35 wird außerdem in planta proteasomal abgebaut, wodurch eine Ubiquitinierung von HMP35 durch PUB54 zum proteasomalen Abbau nahegelegt wird. Des Weiteren wurde gezeigt, dass hmp35 Mutanten von erhöhter Resistenz profitieren. HMP35 agiert möglicherweise als negativer Regulator der Immunantwort und wird zur Aktivierung von Abwehrreaktionen durch PUB54 für den proteasomalen Abbau markiert. ARI12 wird nach Priming oder Infektion mit Pseudomonas transkriptionell aktiviert und nach sekundärer Infektion hyperinduziert, wobei die Behandlung mit SA keine Expression induziert. ARI12 ist jedoch reduziert in npr1 und fmo1 Mutanten, wodurch eine Abhängigkeit der Genexpression von funktionalen SA- und Pip-Signalwegen angedeutet wird. ARI12 akkumuliert in systemischem Gewebe nach lokaler Behandlung mit SA, Pip, oder Pseudomonas. Die ari12 Mutante zeigt wildtypähnliche Resistenz gegenüber bakteriellen Infektionen, wohingegen die Überexpression zu einer verstärkten Resistenz in lokalem und systemischem Gewebe führt. Unausgewogene Level von ARI12 (d.h. knockout oder Überexpression) führen zur erhöhten Expression von FMO1, sodass ARI12 potentiell eine regulatorische Rolle in der Pip-vermittelten systemischen Immunantwort übernimmt. Es konnte gezeigt werden, dass ARI12 eine aktive E3-Ligase mit Autoubiquitinierungsaktivität an Lys474 ist, welche vermutlich für die Aktivierung benötigt wird. Massenspektrometrisch identifizierte, mögliche Substrate von ARI12 konnten noch nicht experimentell bestätigt werden, deuten aber auf eine Rolle von ARI12 in der Regulation von reaktiven Oxygen Spezies (ROS) hin, welche wiederum Pip-anhängige Signalwege regulieren. Zusammengenommen deuten die Daten aus diesem Projekt darauf hin, dass das 26S Proteasom durch den regulierten Proteinabbau zentral ist für die systemische erworbene Resistenz und dass die bisher wenig untersuchten E3-Ligasen PUB54 und ARI12 neue regulatorische Komponenten der pflanzlichen Immunabwehr darstellen. KW - defense priming KW - Arabidopsis KW - Ubiquitin-proteasome-system KW - E3-ubiquitin ligases KW - Arabidopsis KW - E3-Ubiquitin Ligasen KW - Ubiquitin-Proteasom-System KW - erworbene Immunantwort Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-505909 ER - TY - THES A1 - Skowronski, Marika T1 - Sexualized media and self-objectification in women and adolescents T1 - Sexualisierte Medien und Selbstobjektifizierung bei Frauen und Jugendlichen BT - a multi-method approach BT - ein multimethodaler Ansatz N2 - Background: A growing body of research has documented negative effects of sexualization in the media on individuals’ self-objectification. This research is predominantly built on studies examining traditional media, such as magazines and television, and young female samples. Furthermore, longitudinal studies are scarce, and research is missing studying mediators of the relationship. The first aim of the present PhD thesis was to investigate the relations between the use of sexualized interactive media and social media and self-objectification. The second aim of this work was to examine the presumed processes within understudied samples, such as males and females beyond college age, thus investigating the moderating roles of age and gender. The third aim was to shed light on possible mediators of the relation between sexualized media and self-objectification. Method: The research aims were addressed within the scope of four studies. In an experiment, women’s self-objectification and body satisfaction was measured after playing a video game with a sexualized vs. a nonsexualized character that was either personalized or generic. The second study investigated the cross-sectional link between sexualized television use and self-objectification and consideration of cosmetic surgery in a sample of women across a broad age spectrum, examining the role of age in the relations. The third study looked at the cross-sectional link between male and female sexualized images on Instagram and their associations with self-objectification among a sample of male and female adolescents. Using a two-wave longitudinal design, the fourth study examined sexualized video game and Instagram use as predictors of adolescents’ self-objectification. Path models were conceptualized for the second, third and fourth study, in which media use predicted body surveillance via appearance comparisons (Study 4), thin-ideal internalization (Study 2, 3, 4), muscular-ideal internalization (Study 3, 4), and valuing appearance (all studies). Results: The results of the experimental study revealed no effect of sexualized video game characters on women’s self-objectification and body satisfaction. No moderating effect of personalization emerged. Sexualized television use was associated to consideration of cosmetic surgery via body surveillance and valuing appearance for women of all ages in Study 2, while no moderating effect of age was found. Study 3 revealed that seeing sexualized male images on Instagram was indirectly associated with higher body surveillance via muscular-ideal internalization for boys and girls. Sexualized female images were indirectly linked to higher body surveillance via thin-ideal internalization and valuing appearance over competence only for girls. The longitudinal analysis of Study 4 showed no moderating effect of gender: For boys and girls, sexualized video game use at T1 predicted body surveillance at T2 via appearance comparisons, thin-ideal internalization and valuing appearance over competence. Furthermore, the use of sexualized Instagram images at T1 predicted body surveillance at T2 via valuing appearance. Conclusion: The findings show that sexualization in the media is linked to self-objectification among a variety of media formats and within diverse groups of people. While the longitudinal study indicates that sexualized media predict self-objectification over time, the experimental null findings warrant caution regarding this temporal order. The results demonstrate that several mediating variables might be involved in this link. Possible implications for research and practice, such as intervention programs and policy-making, are discussed. N2 - Hintergrund: Mit einer wachsenden Zahl an Studien konnte gezeigt werden, dass mediale Sexualisierung negative Auswirkungen auf die Selbstobjektifzierung von Individuen hat. Die entsprechende Forschung stützt sich primär auf Studien zu traditionellen Medien (wie Magazine und Fernsehen) sowie junge weibliche Stichproben. Zudem mangelt es an längsschnittlichen Untersuchungen sowie Studien zu Mediatoren dieses Zusammenhangs. Das erste Ziel der vorliegenden Dissertation war somit die Untersuchung der Zusammenhänge zwischen der Nutzung sexualisierter interaktiver und sozialer Medien und Selbstobjektifzierung. Das zweite Ziel bestand darin, die angenommenen Prozesse anhand von wenig untersuchten Stichproben zu analysieren, wie etwa männliche Stichproben sowie weibliche Stichproben über das junge Erwachsenenalter hinaus. Somit konnte die Rolle von Alter und Geschlecht als Moderatoren geprüft werden. Das dritte Ziel war schließlich, mögliche Mediatoren der Beziehung zwischen sexualisierten Medien und Selbstobjektifizierung zu identifizieren. Methode: Die Forschungsziele wurden mit Hilfe von vier Studien addressiert. In einer experimentellen Studie spielten junge Frauen ein Videospiel mit einem sexualisierten oder einem nicht sexualisierten Charakter, der entweder personalisiert oder nicht personalisiert war. Anschließend wurden die Selbstobjektifizierung sowie die Körperzufriedenheit der Probandinnen gemessen. In einer zweiten Studie wurde der querschnittliche Zusammenhang zwischen sexualisiertem Fernsehkonsum, Selbstobjektifizierung und der Erwägung von Schönheitsoperationen untersucht. Die Stichprobe von Frauen über ein breites Altersspektrum erlaubte die Analyse der Rolle des Alters in diesem Zusammenhang. In der dritten Studie wurde geprüft, inwiefern männliche und weibliche sexualisierte Bilder auf Instagram mit der Selbstobjektifizierung männlicher und weiblicher Jugendlicher zusammenhängen. Weiterhin wurde als vierte Studie eine Längsschnittstudie mit zwei Messzeitpunkten durchgeführt, um sexualisierten Videospiel- und Instagramkonsum als Prädiktoren für die Selbstobjektifizierung von Jugendlichen zu untersuchen. Für die zweite, dritte und vierte Studie wurden Pfadmodelle konzeptualisiert, in denen Medienkonsum das körperbeobachtende Verhalten über die Mediatoren Aussehensvergleiche (Studie 4), Internalisierung des Schlankheitsideals (Studie 2,3,4), Internalisierung des muskulösen Ideals (Studie 3,4) und Höherbewertung des Aussehens (alle Studien) vorhersagte. Ergebnisse: Die Ergebnisse der Experimentalstudie zeigten keinen Effekt sexualisierter Videospielcharaktere auf Selbstobjektifzierung und Körperzufriedenheit von Frauen. Es konnte kein Moderatoreffekt der Personalisierung gefunden werden. Sexualisierter Fernsehkonsum war assoziiert mit der Erwägung von Schönheitsoperationen über körperbeobachtendes Verhalten und Höherbewertung des Aussehens für Frauen jeden Alters in Studie 2. Alter moderierte diesen Zusammenhang nicht. Studie 3 zeigte, dass der Konsum von sexualisierten männlichen Bildern auf Instagram indirekt mit höherem körperbeobachtenden Verhalten über die Internalisierung des muskulösen Ideals assoziiert war, sowohl für Jungen als auch für Mädchen. Sexualisierte weibliche Bilder hingen jedoch nur für Mädchen indirekt mit höherem körperbeobachtendem Verhalten über die Internalisierung des Schlankheitsideals und die Höherbewertung des Aussehens zusammen. Die längsschnittlichen Analysen der vierten Studie ergaben keinen Moderatoreffekt des Geschlechts: Für Jungen und Mädchen sagte sexualisierter Videospielkonsum zu T1 das körperbeobachtende Verhalten zu T2 über die Mediatoren Aussehensvergleiche, Internalisierung des Schlankheitsideals und Höherbewertung des Aussehens vorher. Weiterhin zeigte sich, dass sexualisierter Instagramkonsum zu T1 das körperbeobachtende Verhalten zu T2 über die Höherbewertung des Aussehens vorhersagte. Konklusion: Die Befunde zeigen, dass mediale Sexualisierung mit Selbstobjektifizierung zusammenhängt. Dieser Zusammenhang zeigte sich über eine Vielfalt von Medienformaten und bei diversen Nutzer*innengruppen. Die Ergebnisse der Längsschnittstudie indizieren, dass sexualisierter Medienkonsum Selbstobjektifizierung über die Zeit vorhersagt. Jedoch legen die experimentellen Nullbefunde Vorsicht bezüglich dieser zeitlichen Abfolge nahe. Die Ergebnisse demonstrieren, dass verschiedene Mediatorvariablen in diesem Zusammenhang involviert sein könnten. Mögliche Implikationen für Forschung und Praxis, wie etwa Interventionsprogramme und Politikgestaltung, werden diskutiert. KW - media KW - sexualization KW - self-objectification KW - body image KW - Körperbild KW - Medien KW - Selbstobjektifzierung KW - Sexualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-508926 ER - TY - THES A1 - Sikkens, Reinier T1 - An analysis of cultural entrepreneurship T1 - Eine Analyse des Kulturellen Unternehmertums BT - a balance between culture and business within media art BT - ein Gleichgewicht zwischen Kultur und Wirtschaft in der Medienkunst N2 - Media artists have been struggling for financial survival ever since media art came into being. The non-material value of the artwork, a provocative attitude towards the traditional arts world and originally anti-capitalist mindset of the movement makes it particularly difficult to provide a constructive solution. However, a cultural entrepreneurial approach can be used to build a framework in order to find a balance between culture and business while ensuring that the cultural mission remains the top priority. N2 - Medienkünstler kämpfen seit der Entstehung der Medienkunst um ihr finanzielles Überleben. Der immaterielle Wert des Kunstwerks, eine provokative Haltung gegenüber der traditionellen Kunstwelt und die ursprünglich antikapitalistische Denkweise der Bewegung machen es besonders schwierig, eine konstruktive Lösung zu finden. Ein kultureller unternehmerischer Ansatz kann jedoch verwendet werden, um einen Rahmen zu schaffen, um ein Gleichgewicht zwischen Kultur und Wirtschaft zu finden und gleichzeitig sicherzustellen, dass die Kulturelle Mission weiterhin oberste Priorität hat. KW - Multidisciplinarity KW - Mobility KW - Multiple stakeholder involvement KW - Cultural entrepreneurship KW - Balance KW - Multidisziplinarität KW - Mobilität KW - Involvierung mehrerer Interessengruppen KW - Kulturelles Unternehmertum KW - Bilanz Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-501879 ER - TY - THES A1 - Seidel, Karen T1 - Modelling binary classification with computability theory T1 - Binäre Klassifikation modellieren mit Berechenbarkeitstheorie N2 - We investigate models for incremental binary classification, an example for supervised online learning. Our starting point is a model for human and machine learning suggested by E.M.Gold. In the first part, we consider incremental learning algorithms that use all of the available binary labeled training data in order to compute the current hypothesis. For this model, we observe that the algorithm can be assumed to always terminate and that the distribution of the training data does not influence learnability. This is still true if we pose additional delayable requirements that remain valid despite a hypothesis output delayed in time. Additionally, we consider the non-delayable requirement of consistent learning. Our corresponding results underpin the claim for delayability being a suitable structural property to describe and collectively investigate a major part of learning success criteria. Our first theorem states the pairwise implications or incomparabilities between an established collection of delayable learning success criteria, the so-called complete map. Especially, the learning algorithm can be assumed to only change its last hypothesis in case it is inconsistent with the current training data. Such a learning behaviour is called conservative. By referring to learning functions, we obtain a hierarchy of approximative learning success criteria. Hereby we allow an increasing finite number of errors of the hypothesized concept by the learning algorithm compared with the concept to be learned. Moreover, we observe a duality depending on whether vacillations between infinitely many different correct hypotheses are still considered a successful learning behaviour. This contrasts the vacillatory hierarchy for learning from solely positive information. We also consider a hypothesis space located between the two most common hypothesis space types in the nearby relevant literature and provide the complete map. In the second part, we model more efficient learning algorithms. These update their hypothesis referring to the current datum and without direct regress to past training data. We focus on iterative (hypothesis based) and BMS (state based) learning algorithms. Iterative learning algorithms use the last hypothesis and the current datum in order to infer the new hypothesis. Past research analyzed, for example, the above mentioned pairwise relations between delayable learning success criteria when learning from purely positive training data. We compare delayable learning success criteria with respect to iterative learning algorithms, as well as learning from either exclusively positive or binary labeled data. The existence of concept classes that can be learned by an iterative learning algorithm but not in a conservative way had already been observed, showing that conservativeness is restrictive. An additional requirement arising from cognitive science research %and also observed when training neural networks is U-shapedness, stating that the learning algorithm does diverge from a correct hypothesis. We show that forbidding U-shapes also restricts iterative learners from binary labeled data. In order to compute the next hypothesis, BMS learning algorithms refer to the currently observed datum and the actual state of the learning algorithm. For learning algorithms equipped with an infinite amount of states, we provide the complete map. A learning success criterion is semantic if it still holds, when the learning algorithm outputs other parameters standing for the same classifier. Syntactic (non-semantic) learning success criteria, for example conservativeness and syntactic non-U-shapedness, restrict BMS learning algorithms. For proving the equivalence of the syntactic requirements, we refer to witness-based learning processes. In these, every change of the hypothesis is justified by a later on correctly classified witness from the training data. Moreover, for every semantic delayable learning requirement, iterative and BMS learning algorithms are equivalent. In case the considered learning success criterion incorporates syntactic non-U-shapedness, BMS learning algorithms can learn more concept classes than iterative learning algorithms. The proofs are combinatorial, inspired by investigating formal languages or employ results from computability theory, such as infinite recursion theorems (fixed point theorems). N2 - Wir untersuchen Modelle für inkrementelle binäre Klassifikation, ein Beispiel für überwachtes online Lernen. Den Ausgangspunkt bildet ein Modell für menschliches und maschinelles Lernen von E.M.Gold. Im ersten Teil untersuchen wir inkrementelle Lernalgorithmen, welche zur Berechnung der Hypothesen jeweils die gesamten binär gelabelten Trainingsdaten heranziehen. Bezogen auf dieses Modell können wir annehmen, dass der Lernalgorithmus stets terminiert und die Verteilung der Trainingsdaten die grundsätzliche Lernbarkeit nicht beeinflusst. Dies bleibt bestehen, wenn wir zusätzliche Anforderungen an einen erfolgreichen Lernprozess stellen, die bei einer zeitlich verzögerten Ausgabe von Hypothesen weiterhin zutreffen. Weiterhin untersuchen wir nicht verzögerbare konsistente Lernprozesse. Unsere Ergebnisse bekräftigen die Behauptung, dass Verzögerbarkeit eine geeignete strukturelle Eigenschaft ist, um einen Großteil der Lernerfolgskriterien zu beschreiben und gesammelt zu untersuchen. Unser erstes Theorem klärt für dieses Modell die paarweisen Implikationen oder Unvergleichbarkeiten innerhalb einer etablierten Auswahl verzögerbarer Lernerfolgskriterien auf. Insbesondere können wir annehmen, dass der inkrementelle Lernalgorithmus seine Hypothese nur dann verändert, wenn die aktuellen Trainingsdaten der letzten Hypothese widersprechen. Ein solches Lernverhalten wird als konservativ bezeichnet. Ausgehend von Resultaten über Funktionenlernen erhalten wir eine strikte Hierarchie von approximativen Lernerfolgskriterien. Hierbei wird eine aufsteigende endliche Zahl von \emph{Anomalien} (Fehlern) des durch den Lernalgorithmus vorgeschlagenen Konzepts im Vergleich zum Lernziel erlaubt. Weiterhin ergibt sich eine Dualität abhängig davon, ob das Oszillieren zwischen korrekten Hypothesen als erfolgreiches Lernen angesehen wird. Dies steht im Gegensatz zur oszillierenden Hierarchie, wenn der Lernalgorithmus von ausschließlich positiven Daten lernt. Auch betrachten wir einen Hypothesenraum, der einen Kompromiss zwischen den beiden am häufigsten in der naheliegenden Literatur vertretenen Arten von Hypothesenräumen darstellt. Im zweiten Teil modellieren wir effizientere Lernalgorithmen. Diese aktualisieren ihre Hypothese ausgehend vom aktuellen Datum, jedoch ohne Zugriff auf die zurückliegenden Trainingsdaten. Wir konzentrieren uns auf iterative (hypothesenbasierte) und BMS (zustandsbasierte) Lernalgorithmen. Iterative Lernalgorithmen nutzen ihre letzte Hypothese und das aktuelle Datum, um die neue Hypothese zu berechnen. Die bisherige Forschung klärt beispielsweise die oben erwähnten paarweisen Vergleiche zwischen den verzögerbaren Lernerfolgskriterien, wenn von ausschließlich positiven Trainingsdaten gelernt wird. Wir vergleichen verzögerbare Lernerfolgskriterien bezogen auf iterative Lernalgorithmen, sowie das Lernen von aussschließlich positiver oder binär gelabelten Daten. Bereits bekannt war die Existenz von Konzeptklassen, die von einem iterativen Lernalgorithmus gelernt werden können, jedoch nicht auf eine konservative Weise. U-shapedness ist ein in den Kognitionswissenschaften beobachtetes Phänomen, demzufolge der Lerner im Lernprozess von einer bereits korrekten Hypothese divergiert. Wir zeigen, dass iterative Lernalgorithmen auch durch das Verbieten von U-Shapes eingeschränkt werden. Zur Berechnung der nächsten Hypothese nutzen BMS-Lernalgorithmen ergänzend zum aktuellen Datum den aktuellen Zustand des Lernalgorithmus. Für Lernalgorithmen, die über unendlich viele mögliche Zustände verfügen, leiten wir alle paarweisen Implikationen oder Unvergleichbarkeiten innerhalb der etablierten Auswahl verzögerbarer Lernerfolgskriterien her. Ein Lernerfolgskriterium ist semantisch, wenn es weiterhin gilt, falls im Lernprozess andere Parameter ausgegeben werden, die jeweils für die gleichen Klassifikatoren stehen. Syntaktische (nicht-semantische) Lernerfolgskriterien, beispielsweise Konservativität und syntaktische Non-U-Shapedness, schränken BMS-Lernalgorithmen ein. Um die Äquivalenz der syntaktischen Lernerfolgskriterien zu zeigen, betrachten wir witness-based Lernprozesse. In diesen wird jeder Hypothesenwechsel durch einen später korrekt klassifizierten Zeugen in den Trainingsdaten gerechtfertig. Weiterhin sind iterative und BMS-Lernalgorithmen für die semantischen verzögerbaren Lernerfolgskriterien jeweils äquivalent. Ist syntaktische Non-U-Shapedness Teil des Lernerfolgskriteriums, sind BMS-Lernalgorithmen mächtiger als iterative Lernalgorithmen. Die Beweise sind kombinatorisch, angelehnt an Untersuchungen zu formalen Sprachen oder nutzen Resultate aus dem Gebiet der Berechenbarkeitstheorie, beispielsweise unendliche Rekursionstheoreme (Fixpunktsätze). KW - Binary Classification KW - Recursion KW - U-Shaped-Learning KW - Simulation KW - Binäre Klassifikation KW - Rekursion KW - U-Förmiges Lernen KW - Simulation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-529988 ER - TY - THES A1 - Seelig, Stefan T1 - Parafoveal processing of lexical information during reading T1 - Parafoveale Verarbeitung lexikalischer Informationen beim Lesen BT - from experiments to computational modeling BT - von Experimenten zu computationaler Modellierung N2 - During sentence reading the eyes quickly jump from word to word to sample visual information with the high acuity of the fovea. Lexical properties of the currently fixated word are known to affect the duration of the fixation, reflecting an interaction of word processing with oculomotor planning. While low level properties of words in the parafovea can likewise affect the current fixation duration, results concerning the influence of lexical properties have been ambiguous (Drieghe, Rayner, & Pollatsek, 2008; Kliegl, Nuthmann, & Engbert, 2006). Experimental investigations of such lexical parafoveal-on-foveal effects using the boundary paradigm have instead shown, that lexical properties of parafoveal previews affect fixation durations on the upcoming target words (Risse & Kliegl, 2014). However, the results were potentially confounded with effects of preview validity. The notion of parafoveal processing of lexical information challenges extant models of eye movements during reading. Models containing serial word processing assumptions have trouble explaining such effects, as they usually couple successful word processing to saccade planning, resulting in skipping of the parafoveal word. Although models with parallel word processing are less restricted, in the SWIFT model (Engbert, Longtin, & Kliegl, 2002) only processing of the foveal word can directly influence the saccade latency. Here we combine the results of a boundary experiment (Chapter 2) with a predictive modeling approach using the SWIFT model, where we explore mechanisms of parafoveal inhibition in a simulation study (Chapter 4). We construct a likelihood function for the SWIFT model (Chapter 3) and utilize the experimental data in a Bayesian approach to parameter estimation (Chapter 3 & 4). The experimental results show a substantial effect of parafoveal preview frequency on fixation durations on the target word, which can be clearly distinguished from the effect of preview validity. Using the eye movement data from the participants, we demonstrate the feasibility of the Bayesian approach even for a small set of estimated parameters, by comparing summary statistics of experimental and simulated data. Finally, we can show that the SWIFT model can account for the lexical preview effects, when a mechanism for parafoveal inhibition is added. The effects of preview validity were modeled best, when processing dependent saccade cancellation was added for invalid trials. In the simulation study only the control condition of the experiment was used for parameter estimation, allowing for cross validation. Simultaneously the number of free parameters was increased. High correlations of summary statistics demonstrate the capabilities of the parameter estimation approach. Taken together, the results advocate for a better integration of experimental data into computational modeling via parameter estimation. N2 - Während des Lesens springt der Blick von Wort zu Wort, um visuelle Informationen mithilfe der hohen Auflösung der Fovea aufzunehmen. Lexikalische Eigenschaften eines zurzeit fixierten Wortes wirken sich dabei auf die Fixationsdauer aus, was eine Interaktion von Wortverarbeitung mit okulomotorischer Bewegungsplanung impliziert. Während Low-Level-Eigenschaften eines parafovealen Wortes ebenfalls die Fixationsdauer beeinflussen können, sind Ergebnisse zu Einflüssen lexikalischer Eigenschaften parafoveler Worte uneindeutig (Drieghe et al., 2008; Kliegl et al., 2006). Experimentelle Untersuchungen solcher parafoveal-on-foveal-Effekte mittels des Boundary-Paradigmas zeigten stattdessen, dass sich lexikalische Eigenschaften parafovealer Worte auf Fixationsdauern auf den Target-Wörtern auswirken (Risse & Kliegl, 2014). Diese Ergebnisse waren jedoch möglicherweise mit den Effekten der Preview-Validität konfundiert. Die Möglichkeit parafovealer Verarbeitung lexikalischer Informationen stellt bestehende Modelle für Blickbewegungen beim Lesen vor Probleme. Modelle, die auf seriellen Wortverarbeitungsannahmen fußen, können derlei Effekte nicht schlüssig erklären, da in ihnen erfolgreiche Wortverarbeitung oft starr an Bewegungsplanung gekoppelt ist, was ein Überspringen des parafovealen Wortes zur Folge hätte. Obwohl Modelle mit paralleler Wortverarbeitung weniger eingeschränkt sind, kann im SWIFT-Modell (Engbert et al., 2002) nur die Verarbeitung fovealer Worte die Sakkadenplanung direkt hemmen. Wir verbinden in dieser Arbeit die Ergebnisse eines Boundary-Experiments (Kapitel 2) mit einem prädiktiven Modellierungsansatz mit dem SWIFT-Modell, in dem wir Mechanismen parafovealer Hemmung in einer Simulationsstudie erkunden (Kapitel 4). Wir konstruieren eine Likelihood-Funktion für das SWIFT-Modell und nutzen die Experimentaldaten in einem Bayesianischen Ansatz zur Parameterschätzung (Kapitel 3 & 4). In den Ergebnissen des Experiments zeigt sich ein substanzieller Frequenzeffekt des Previews auf die Fixationsdauer auf dem Target-Wort, der klar vom Effekt der Preview-Validität unterschieden werden kann. Mittels der Blickbewegungsdaten der Probanden demonstrieren wir die Praktikabilität des gewählten Ansatzes selbst mit nur wenigen freien Parametern, indem wir Statistiken der Probanden mit jenen aus Simulationen auf der Basis geschätzter Parameter vergleichen. Schließlich können wir zeigen, dass SWIFT die lexikalischen Preview-Effekte erzeugen kann, wenn das Modell zusätzlich mit einem Mechanismus parafovealer Inhibition ausgestattet wird. Die Effekte der Preview-Validität wurden hingegen am besten modelliert, wenn eine Möglichkeit zum Abbruch der Sakkadenplanung in Abhängigkeit von der Wortverarbeitung hinzugefügt wurde. In dieser Simulationsstudie wurden lediglich Daten der Kontrollbedingung des Experiments zur Parameterschätzung genutzt, wodurch eine Kreuzvalidierung der Güte der Simulationsdaten ermöglicht wurde. Gleichzeitig wurde die Zahl der freien Parameter erhöht. Hohe Korrelationen der Statistiken verdeutlichen das Potential des Parameterschätzungsansatzes. Zusammengenommen sprechen die Ergebnisse dafür, dass Experimentaldaten mehr zur computationalen Modellierung herangezogen werden sollten, indem Möglichkeiten der Parameterschätzung ausgenutzt werden. KW - reading KW - parafoveal processing KW - predictive modeling KW - boundary paradigm KW - eye tracking KW - MCMC KW - parameter estimation KW - computational modeling KW - interindividual differences KW - lexical processing KW - MCMC KW - computationale Modellierung KW - Eye-Tracking KW - Interindividuelle Unterschiede KW - Lexikalische Verarbeitung KW - Parafoveale Verarbeitung KW - Parameterschätzung KW - Lesen KW - Boundary-Paradigma Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-508743 ER - TY - THES A1 - Schutjajew, Konstantin T1 - Electrochemical sodium storage in non-graphitizing carbons - insights into mechanisms and synthetic approaches towards high-energy density materials T1 - Elektrochemische Natriumspeicherung in nicht-graphitisierbaren Kohlenstoffen - Untersuchungen zu Mechanismen und synthetische Ansätze für die Darstellung von Materialien mit hohen Energiedichten N2 - To achieve a sustainable energy economy, it is necessary to turn back on the combustion of fossil fuels as a means of energy production and switch to renewable sources. However, their temporal availability does not match societal consumption needs, meaning that renewably generated energy must be stored in its main generation times and allocated during peak consumption periods. Electrochemical energy storage (EES) in general is well suited due to its infrastructural independence and scalability. The lithium ion battery (LIB) takes a special place, among EES systems due to its energy density and efficiency, but the scarcity and uneven geological occurrence of minerals and ores vital for many cell components, and hence the high and fluctuating costs will decelerate its further distribution. The sodium ion battery (SIB) is a promising successor to LIB technology, as the fundamental setup and cell chemistry is similar in the two systems. Yet, the most widespread negative electrode material in LIBs, graphite, cannot be used in SIBs, as it cannot store sufficient amounts of sodium at reasonable potentials. Hence, another carbon allotrope, non-graphitizing or hard carbon (HC) is used in SIBs. This material consists of turbostratically disordered, curved graphene layers, forming regions of graphitic stacking and zones of deviating layers, so-called internal or closed pores. The structural features of HC have a substantial impact of the charge-potential curve exhibited by the carbon when it is used as the negative electrode in an SIB. At defects and edges an adsorption-like mechanism of sodium storage is prevalent, causing a sloping voltage curve, ill-suited for the practical application in SIBs, whereas a constant voltage plateau of relatively high capacities is found immediately after the sloping region, which recent research attributed to the deposition of quasimetallic sodium into the closed pores of HC. Literature on the general mechanism of sodium storage in HCs and especially the role of the closed pore is abundant, but the influence of the pore geometry and chemical nature of the HC on the low-potential sodium deposition is yet in an early stage. Therefore, the scope of this thesis is to investigate these relationships using suitable synthetic and characterization methods. Materials of precisely known morphology, porosity, and chemical structure are prepared in clear distinction to commonly obtained ones and their impact on the sodium storage characteristics is observed. Electrochemical impedance spectroscopy in combination with distribution of relaxation times analysis is further established as a technique to study the sodium storage process, in addition to classical direct current techniques, and an equivalent circuit model is proposed to qualitatively describe the HC sodiation mechanism, based on the recorded data. The obtained knowledge is used to develop a method for the preparation of closed porous and non-porous materials from open porous ones, proving not only the necessity of closed pores for efficient sodium storage, but also providing a method for effective pore closure and hence the increase of the sodium storage capacity and efficiency of carbon materials. The insights obtained and methods developed within this work hence not only contribute to the better understanding of the sodium storage mechanism in carbon materials of SIBs, but can also serve as guidance for the design of efficient electrode materials. N2 - Eine nachhaltige Energiewirtschaft kann nur durch die Abkehr von fossilen Brennstoffen als Energiequellen und den ausschließlichen Einsatz erneuerbarer Quellen für die Energieerzeugung erreicht werden. Da diese jedoch naturgemäß nur diskontinuierlich zur Verfügung stehen und sich die tageszeitliche Verfügbarkeit kaum mit dem Bedarf deckt, muss erneuerbar gewonnene Energie zwischengespeichert werden. Dies kann mittels elektrochemischer Energiespeicher geschehen, wobei sich die Lithium-Ionen-Batterie (LIB) aufgrund ihrer hohen Energiedichte und Effizienz besonders dafür eignet. Da jedoch Ressourcen, welche für entscheidende Zellkomponenten der LIB benötigt werden, knapper werden und oft in geopolitisch komplizierten Regionen vorkommen, muss auch dafür eine Alternative gefunden werden. Die Natrium-Ionen-Batterie (NIB) bietet sich als Nachfolger für LIBs an, da sich die Zellchemie der beiden Systeme ähnelt und somit Kenntnisse direkt aus der LIB-Forschung übernommen werden können. Es erweist sich allerdings als problematisch, dass das kommerziell wichtigste negative Elektrodenmaterial in LIBs, Graphit, nicht für die Anwendung in NIBs eignet und daher eine andere Kohlenstoffmodifikation, sogenannter nicht-graphitisierbarer Kohlenstoff, oder aus dem Englischen hard carbon (HC), verwendet werden muss. HC ist durch eine besondere Art der Fehlordnung geprägt und besteht im Wesentlichen aus Regionen, in denen die Kohlenstoffschichten parallel zueinander verlaufen und aus Regionen, in denen die Schichten innere Hohlräume, sogenannte geschlossene Poren bilden. Die Lade-Entladekurve von HCs ist geprägt von diesen Strukturmerkmalen, sodass sie in einen linear-abflachenden, aus dem Englischen sloping Bereich, und einen Plateaubereich unterteilt werden kann. Die Speicherung im für Energieanwendungen relevanteren Plateaubereich erfolgt durch Abscheidung quasimetallischer Natriumstrukturen in eingangs erwähnten geschlossenen Poren, bei geringen, konstanten Spannungen, wie zahlreiche Forschungsarbeiten unter Berufung auf verschiedene Strukturcharakterisierungsmethoden � uberzeugend nahelegen. Jedoch ist über den Einfluss der Größe und Form der geschlossenen Poren sowie derer chemischer Eigenschaften auf die Natriumspeicherung nur wenig bekannt. Eben diese Fragestellung soll in der vorliegenden Arbeit behandelt werden. Durch die Herstellung von Materialien mit genau definierter und bekannter Morphologie, Porenstruktur sowie chemischer Beschaffenheit wird die Bedeutung dieser Merkmale für die Natriumabscheidung bei geringen Potentialen beleuchtet. Mittels elektrochemischer Impedanzspektroskopie wird desweiteren der Natriumspeichermechanismus detailliert untersucht und die Kinetik der reversiblen Natriumspeicherung mit der der irreversiblen Metallabscheidung verglichen, wobei eine bemerkenswerte Ähnlichkeit der beiden Prozesse zu beobachten ist. Abschließend ist die gezielte Herstellung geschlossenporiger Materialien aus offenporigen Vorläufermaterialien gelungen, welche es nicht nur ermöglicht, geschlossen- und offenporige Materialien ansonsten gleicher Porenstruktur zu vergleichen und die Notwendigkeit geschlossener Poren nachzuweisen, sondern auch die Speicherkapazität und Effizienz der Elektrodenmaterialien zu erhöhen. Insgesamt tragen die im Rahmen der vorliegenden Dissertation gewonnenen Erkenntisse nicht nur zum tiefergehenden Verständnis des Natriumspeichermechanismus in HCs bei, sondern es werden auch synthetische und analytische Methoden vorgestellt, die der weiteren Forschung auf diesem Gebiet dienen werden. KW - sodium-ion batteries KW - energy storage KW - carbon KW - Natrium-Ionen-Akkumulator KW - Energiespeicher KW - Kohlenstoff Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541894 ER - TY - THES A1 - Schopper, Monika T1 - Pädagogik und Architektur im Schulhausbau T1 - Pedagogy and architecture and the construction of educational buildings BT - eine Fallstudie zu pädagogischen Vorstellungen von Beteiligten an Bildungsbauprozessen BT - a case study of pedagogical concepts of those involved in the process of the construction of educational buildings N2 - Der Bildungshausbau ist Thema aktueller Debatten in der Stadtentwicklung und Stadtplanung sowie in der Pädagogik. Viele Expert*innen beschäftigen sich in Studien mit Fragen zu gutem und gelingendem Schulbau. Die Anforderungen der Gesellschaft an Bildungshäuser verändern sich, wenn in ganztägigen Schulformen nicht nur Unterricht, sondern auch Freizeitbetreuung für die Schülerinnen und Schüler stattfinden soll. Gleichzeitig soll Schule ein Ort der Begegnung und Kommunikation, des sozialen Lernens und der Kooperation sein. Schule ist in vielfacher Hinsicht in Bewegung. Um mit den Veränderungen und Ansprüchen Schritt zu halten, steht der Bildungshausbau immer wieder vor Herausforderungen. Einerseits werden Leuchtturmprojekte geschaffen, andererseits entstehen nach wie vor Bildungsbauten, die den gegenwärtigen Anforderungen und zukünftigen Entwicklungen nicht gerecht werden. An dieser Stelle setzt die vorliegende Arbeit an, die nicht neue Normen zu gutem Schulbau vorlegt, sondern in einer qualitativen empirischen Studie nach den pädagogischen Vorstellungen von Beteiligten im Bildungshausbau und den typischen Entwicklungen im Planungsprozess fragt. Der vorliegenden Fallstudie wurde die dokumentarische Methode als Auswertungsverfahren zugrunde gelegt. Gegenstand der Untersuchung waren zwei Bildungsbauten eines Großbauprojektes. Im Zuge der Auswertung erfolgten eine Analyse der Projektstrukturen und eine Analyse der Deutungsmuster der befragten Akteur*innen, die in einer zusammen¬führenden Ergebnisdarstellung in Form eines Handlungs-Struktur-Gefüges mündeten. Es werden Einblicke in Zusammenhänge von Handlungen der Beteiligten und Projektstrukturen gegeben, wie sie sich gegenseitig beeinflussen oder im Prozessverlauf verändern. Die Auswertung zeigt, dass Transferproblematiken zwischen Wissenschaft und Praxis nach wie vor bestehen. Besonderes Gewicht bei Planungsentscheidungen haben finanzielle, zeitliche und architektonische Strukturen. Nur wenige pädagogische Vorstellungen bzw. Deutungsmuster können in Erscheinung treten. N2 - The construction of educational buildings is the current subject of debate in urban development and planning as well as in pedagogy. Many experts are trying to address the question of what makes a good and functional educational building. Society’s demands are changing with regards to educational buildings, particularly for all-day schooling, where not only education but also after-school care and recreation have to be taken into account. At the same time, schools should be places of social interaction, communication, social learning and cooperation. In so many ways, schools are constantly in motion. Educational constructions constantly face challenges in order to keep up with the changes and demands. On one hand, landmark projects are being developed, while on the other hand, educational buildings are still being built that fail to meet current requirements or future developments. This is where this study comes in, not to present new standards for better construction of educational buildings, but to use a qualitative, empirical study to examine the pedagogical concepts and typical planning development processes of those involved in the construction of educational buildings. The presented case study was done using the documentary method for the evaluation process. The subject of the study were two educational buildings that were part of a large construction project. In the course of the evaluation, an analysis of the project structures and of the interpretative patterns of the interviewees was carried out. These analyses resulted in a summary in the form of an interaction-structure-plan framework. Insights are given into the connections between the actions of those involved and the project structures – how they influence each other or change during the process. The evaluation shows that problems still exist between the science and practice. In planning decisions, particular importance is placed on financial, temporal and architectural structures. Very few pedagogical concepts or interpretations make an appearance. KW - Pädagogik KW - Architektur KW - Schulbau KW - Schulhausbau KW - pädagogische Vorstellungen KW - Deutungsmuster KW - Fallstudie KW - Bildungsbauprozess KW - Handlung und Struktur KW - dokumentarische Methode KW - Projektstrukturen KW - Transferproblematik zwischen Wissenschaft und Praxis KW - Alltagswissen KW - Architektursoziologie KW - Architekturforschung KW - pädagogische Strukturen KW - Typologie KW - Handlungs-Struktur-Gefüge KW - pädagogische Deutungsmuster KW - Planungsprozess KW - construction of educational buildings KW - educational building KW - process of the construction of educational buildings KW - pedagogical concepts KW - interpretative patterns, interpretive paradigms KW - patterns of pedagogical interpretation KW - documentary method KW - project structures KW - interaction-structure-plan framework KW - interaction and structure KW - transfer problems between the science and practice KW - pedagogical structures KW - pedagogy KW - architecture KW - sociology of architecture KW - architectural research KW - typology KW - planning process KW - case study KW - everyday knowledge Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-503181 ER - TY - THES A1 - Schmidt, Robert T1 - Gründungsförderung an Hochschulen T1 - Subsidized start-up advice at universities BT - eine empirische Untersuchung fördermittelfinanzierter Gründungsberatungen an Brandenburger Hochschulen BT - an empirical study of funded start-up advice at universities in Brandenburg N2 - Fördermittelfinanzierte Gründungsunterstützungsangebote waren in den EU-Förderperioden 2007-2013 und 2014-2020 ein wichtiges Element der Hochschulgründungsförderung im Land Brandenburg. Aufgrund der positiven wirtschaftlichen Entwicklung des Landes, reduzierte sich das Fördervolumen in der gleichen Zeit jedoch stetig. Für die EU-Förderperiode 2021-2027 steht eine weitere Reduzierung der Fördermittel bereits fest. In der Folge wird es, ohne Anpassungen der etablierten Förderstrukturen, zur weiteren Reduzierung oder Erosion der Gründungsunterstützungsangebote an Brandenburger Hochschulen kommen. Die vorliegende Arbeit befasst sich daher u.a. mit der Frage, wie ein theoretisches Referenzmodell zur fördermittelfinanzierten Hochschulgründungsberatung gestaltet sein kann, um den reduzierten Fördersätzen bei gleichzeitiger Aufrechterhaltung der Angebotsvielfalt gerecht zu werden. Zur Beantwortung dieser Frage wird als Untersuchungsobjekt das Förderprojekt BIEM Startup Navigator herangezogen. Das Gründungsberatungsprojekt BIEM Startup Navigator wurde von 2010 bis 2014 an sechs Brandenburger Hochschulen durchgeführt. Mit Hilfe der Modelle und Prämissen der Prinzipal-Agent-Theorie wird zunächst ein theoretischer Rahmen aufgespannt, auf dessen Grundlage die empirische Untersuchung erfolgt. Anhand der Prinzipal-Agent-Theorie werden die beteiligten Organisationen, Individuen und Institutionen aufgezeigt. Weiterhin werden die wesentlichen Problemfelder und Lösungsansätze der Prinzipal-Agent-Theorie für die Untersuchung des BIEM Startup Navigators diskutiert. Im Untersuchungsverlauf werden u.a. die Konzepte zur Durchführung des Förderprojekts an sechs Hochschulstandorten, die Daten von 610 Teilnehmenden und 288 Gründungen analysiert, um so sachlogische Zusammenhänge und Wechselwirkungen identifizieren und beschreiben zu können. Es werden unterschiedliche theoretische Annahmen zu den Bereichen Projekteffektivität bzw. Projekteffizienz, Kostenverteilung und zur konzeptionellen Ausgestaltung in Form von 24 Arbeitshypothesen formuliert und auf die Untersuchung übertragen. Die Verifizierung bzw. Falsifizierung der Hypothesen erfolgt auf Grundlage der kombinierten Erkenntnisse aus Literaturrecherchen und den Ergebnissen der empirischen Untersuchung. Im Verlauf der Arbeit gelingt es, die in der Prinzipal-Agent-Theorie auftretenden Agencykosten auch am Beispiel des BIEM Startup Navigators zu beschreiben und ex post Ineffizienzen in den durchgeführten Screening- und Signalingprozessen aufzuzeigen. Mit Hilfe des im Verlauf der Arbeit entwickelten theoretischen Referenzmodells zur fördermittelfinanzierten Gründungsberatung an Brandenburger Hochschulen soll es gelingen, den sinkenden EU-Fördermitteln, ohne eine gleichzeitige Reduzierung der Gründungsunterstützungsangebote an den Hochschulen, gerecht zu werden. Hierfür zeigt das theoretische Referenzmodell wie die Ergebnisse der empirischen Untersuchung genutzt werden können, um die Agencykosten der fördermittelfinanzierten Gründungsberatung zu reduzieren. N2 - Subsidized startup programs were an important element of university startup support in the state of Brandenburg in the EU-funding-periods 2007-2013 and 2014-2020. Due to the positive economic development of the country, the funding volume decreased steadily over the same period. A further reduction in funding has already been determined for the EU-funding-period 2021-2027. For Brandenburg, without adjustments to the established funding structures, there will be a further reduction or erosion of the startup support offers at state universities. This thesis therefore deals, among other things, with the question of how a theoretical reference model for subsidized university start-up advice can be designed in order to do justice to the reduced funding rates while maintaining the variety of offers. The BIEM Startup Navigator project was used as an object of investigation to answer this question. The BIEM Startup Navigator start-up consulting project was carried out at six universities in Brandenburg from 2010 to 2014. With the help of the models and premises of the principal-agent theory, a theoretical framework was first set up, based on which the empirical investigation takes place. Bases on the principal-agent theory the participating organizations, individuals and institutions are shown. Furthermore, the main problem areas and solution approaches of the principal-agent theory for the investigation of the BIEM Startup Navigator are discussed. During the scientific investigation the concepts for implementing the funding project at six university locations, the data from 610 participants and 288 start-ups are analyzed in order to identify and describe relationships and interactions. Different theoretical assumptions on the areas of project effectiveness or project efficiency, cost distribution and conceptual design are formulated in 24 working hypotheses and transferred to the study. The verification or falsification of the hypotheses is based on the combined findings from literature research and the results of the empirical investigation. In the course of the work the possible agency costs occurring in the principal-agent theory using the example of the BIEM Startup Navigator are shown and to show ex post inefficiencies in the screening and signaling processes. With the help of the developed theoretical reference model for subsidized startups at Brandenburg universities, it should be possible to meet the declining EU-funding without a simultaneous reduction in startup support offers at the universities. For this purpose, the theoretical reference model shows how the results of the empirical study can be used to reduce the agency costs of subsidized startup advice. KW - Gründungsförderung KW - Gründungsunterstützung KW - Hochschulgründungsförderung KW - Hochschulgründungen KW - Gründungsberatung KW - Start-up funding KW - Start-up support KW - University start-up funding KW - University start-ups KW - Start-up advice Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525203 ER - TY - THES A1 - Schmider, Stephan T1 - Was ist HipHop? T1 - What is hip-hop? BT - Diskurse, Praktiken und genuine Eigenschaften eines Kulturphänomens BT - discourses, practices and genuine characteristics of a cultural phenomenon N2 - Es handelt sich bei der vorliegenden Dissertation um eine investigative Forschungsarbeit, die sich mit dem dynamisch wandelnden HipHop-Phänomen befasst. Der Autor erläutert hierbei die anhaltende Attraktivität des kulturellen Phänomens HipHop und versucht die Tatsache der stetigen Reproduzierbarkeit des HipHops genauer zu erklären. Daher beginnt er mit einer historischen Diskursanalyse der HipHop-Kultur. Er analysiert hierfür die Formen, die Protagonisten und die Diskurse des HipHops, um diesen besser verstehen zu können. Durch die Herausarbeitung der genuinen Eigenschaft der Mehrfachkodierbarkeit des HipHops werden gängige Erklärungsmuster aus Wissenschaft und Medien relativiert und kritisiert. Der Autor kombiniert in seiner Studie kultur- und erziehungswissenschaftliche Literatur mit diversen aktuellen und historischen Darstellungen und Bildern. Es werden vor allem bildbasierte Selbstinszenierungen von HipHoppern und Selbstzeugnisse aus narrativen Interviews, die er selbst mit verschiedenen HipHoppern in Deutschland geführt hat, ausgewertet. Neben den narrativen Interviews dient vor allem die Bildinterpretation nach Bohnsack als Quelle zur Bildung der These der Mehrfachkodierbarkeit. Hierbei werden zwei Bilder der HipHopper Lady Bitch Ray und Kollegah nach Bohnsack (2014) interpretiert und gezeigt wie HipHop neben der lyrischen und der klanglichen Komponente auch visuell inszeniert und produziert wird. Hieraus wird geschlussfolgert, dass es im HipHop möglich ist konträre Sichtweisen bei gleichzeitiger Anwendung von typischen Kulturpraktiken wie zum Beispiel dem Boasting darzustellen und zu vermitteln. Die stetige Offenheit des HipHops wird durch Praktiken wie dem Sampling oder dem Battle deutlich und der Autor erklärt, dass durch diese Techniken die generative Eigenschaft der Mehrfachkodierbarkeit hergestellt wird. Damit vertritt er eine Art Baukasten-Theorie, die besagt, dass sich prinzipiell jeder aus dem Baukasten HipHop, je nach Vorliebe, Interesse und Affinität, bedienen kann. Durch die Vielfalt an Meinungen zu HipHop, die der Autor durch die Kodierung der geführten narrativen Interviews erhält, wird diese These verdeutlicht und es wird klar, dass es sich bei HipHop um mehr als nur eine Mode handelt. HipHop besitzt die prinzipielle Möglichkeit durch die Offenheit, die er in sich trägt, sich stetig neu zu wandeln und damit an Beliebtheit und Popularität zuzunehmen. Die vorliegende Arbeit erweitert damit die immer größer werdende Forschung in den HipHop-Studies und setzt wichtige Akzente um weiter zu forschen und HipHop besser verständlich zu machen. N2 - The described dissertation is an investigative research paper, covering the dynamic and ever-changing phenomena of hip-hop. The author will explain the continued attraction drawn by the hip-hop culture and will attempt to explain its’ reproduceable impact in more detail. To achieve this, he starts with a historic discourse analysis of the hip-hop culture. In order to give a greater understanding of the subject he analyses the different forms, protagonists as well as the dialogue of hip-hop. The author will show that hip-hop has multi-layered characteristics and through elaboration using scientific tools and media sources he will further qualify and criticize the subject. The research combines cultural and educational science literature with different time-relevant and historic presentations alongside graphic images. Especially self-staged photos of rap artists and personal testimonials from interviews, which the author personally conducted, with a variety of artists throughout Germany, will be analysed. Besides the accounts reflected in the interviews a large emphasis has been focused on imagery interpretation in line with Bohnsack, which will serve as the source to the multi-layering thesis. In this connection two images of artists Lady Bitch Ray and Kollegah are interpreted according to Bohnsack (2014), to show that hip-hop does not only have a lyrical and musical component to it but is also visually staged and produced. This research work will conclude that it is possible in hip-hop culture to present contrasting viewpoints through the use of cultural traditions, such as ‘boasting’. The ongoing open-mindedness of hip-hop will become clear through the analysis of ‘sampling’ and the ‘rap battle’, the author will proof how such traditional techniques create multi-layered hip-hop characteristics. With this conclusion he supports a type of modular theory, stating that principally anybody can take advantage of what hip-hop as to offer, regardless of their preferences, interests, or affections. Through the diversity of opinions in hip-hop culture, which the author is presented with through the interpretation of the interviews, his proposition becomes clear and he is able to conclude that the phenomenon of hip-hop is more than just a temporary fad. Hip-hop has the fundamental potential to continuously change, and through its open-mindedness manages to keep increasing its’ popularity and demand over time. This research paper builds on the continuous interest into the research of hip-hop culture and asks important questions, which validates further research into the topic and aims to make hip-hop more accessible. KW - HipHop KW - Kultur KW - Kulturwissenschaft KW - Gangsta-Rap KW - Authentizität KW - Kollegah KW - Lady Bitch Ray KW - Struggle KW - Battle KW - Rap KW - Musik KW - Jugendkultur KW - Sampling KW - Beat KW - Politik KW - Migrantenkultur KW - HipHop KW - cultural studies KW - Rap KW - Music KW - Sample KW - Track KW - Battle KW - Lady Bitch Ray KW - Kollegah KW - dynamic KW - discourse KW - diversity KW - multi-layered Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523759 ER - TY - THES A1 - Schmid, Sylvia T1 - Zwischen Kooperation und Wettbewerb - Zur Zusammenarbeit in naturwissenschaftlichen Forschungsteams in außeruniversitären Forschungseinrichtungen T1 - Between cooperation and competition - On teamwork in scientific research teams in non-university research institutions N2 - Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden. Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten: 1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden? 2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb? 3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen? Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt. Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert. Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren. N2 - Despite the high importance of non-university research institutions for innovation policy, they have rarely been the subject of empirical studies. None of the existing studies focuses on the cooperation of scientists in research teams, although scientific teamwork is a largely unexplored field. This is surprising, since especially innovative and complex tasks, as they exist in the field of research, require the creative potential of individuals as well as a well-functioning cooperation between individuals. The cooperation of scientists in the non-university research institutions takes place in a competitive environment. On the one hand, non-university research institutions compete with each other at the organizational level and compete for research funds and scientific personnel. On the other hand, the competitive acquisition of third-party funding is essential for scientists in order to perform well for their own careers, as measured by high-ranking publications and third-party funding quotas. An increasing share of third-party funding in institutions also has an impact on personnel policy and the number of fixed-term employment contracts. At the same time, research funding is often linked to cooperation between scientists, and studies show that publications and research results are predominantly the result of several people. This tension between cooperation and competition is exacerbated by the lack of opportunities for young scientists to remain in academia. Even as the federal government responds to these challenges, individuals must find their own way between cooperation and competition. The objective of this dissertation is to answer the following research questions: 1. How can scientific research teams in non-university research institutions be characterized? 2. How does the individual researcher act in the field of tension between cooperation and competition? 3. Which potentials and obstacles can be identified on the individual, team and environmental level for a successful work of research teams in non-university research institutions? To find answers to the research questions, an empirical investigation was carried out in a mixed method design, consisting of a Germany-wide online survey of 574 natural scientists in non-university research institutions and qualitative interviews with 122 team members from 20 natural science research teams in non-university research institutions. The results show that the teams can rather be described as working groups, since especially in basic research there is no common goal, but rather a common content framework in which the researchers pursue their individual goals. The team work is predominantly described as positive and cooperative. It is mainly characterized by mutual support in case of problems and less by a thematic scientific knowledge process. This usually happens in small subgroups within the working group and, above all, in close coordination with the team leader (TL). Organizational framework conditions, e.g. fixed-term contracts, are primarily seen as exacerbating competition. The TL assumes the central role in the team, bears scientific, financial and personnel responsibility, and must meet the demands of the organization. PhD students focus almost exclusively on their qualification work. In the case of postdocs, a tension can be seen as they pursue their own projects and goals that coexist with the demands of the TL. The gatekeeper function of the TL is strengthened by her/his role in passing on career-relevant information within the team, e.g. at upcoming conferences. She or he has the important contacts, provides networking opportunities for the team, and maintains the network. Young scientists rely heavily on her or his support for their tasks and career-relevant factors. Non-scientific employees must be given greater consideration, both in their function in the teams and in the overall organization. They are central contact persons for the scientific staff and ensure continuity in the storage and transfer of knowledge. For the organizations it is important to create supportive work environments for the TL and to support young scientists in taking responsibility for scientific and career-related tasks at an early stage. This require improved personnel development concepts and offers. It is also important to create opportunities for cooperation within the institution and between groups, e.g. through open spaces and networking opportunities, and to promote innovative working environments in order to establish new forms of an innovation-friendly scientific culture. KW - Teamforschung KW - Forschungsteams KW - team research KW - mixed method design KW - Qualitative Studie KW - Außeruniversitäre Forschungseinrichtungen KW - science teams Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-501772 ER - TY - THES A1 - Schlegelmilch, Karola T1 - Grass or gravel? Influences on the visual categorization of naturalistic structures in infancy and early childhood T1 - Gras oder Geröll? Einflüsse auf die visuelle Kategorisierung von naturalistischen Strukturen im Säuglings- und Kleinkindalter N2 - Detecting and categorizing particular entities in the environment are important visual tasks that humans have had to solve at various points in our evolutionary time. The question arises whether characteristics of entities that were of ecological significance for humans play a particular role during the development of visual categorization. The current project addressed this question by investigating the effects of developing visual abilities, visual properties and ecological significance on categorization early in life. Our stimuli were monochromatic photographs of structure-like assemblies and surfaces taken from three categories: vegetation, non-living natural elements, and artifacts. A set of computational and rated visual properties were assessed for these stimuli. Three empirical studies applied coherent research concepts and methods in young children and adults, comprising (a) two card-sorting tasks with preschool children (age: 4.1-6.1 years) and adults (age: 18-50 years) which assessed classification and similarity judgments, (b) a gaze contingent eye-tracking search task which investigated the impact of visual properties and category membership on 8-month-olds' ability to segregate visual structure. Because eye-tracking with infants still provides challenges, a methodological study (c) assessed the effect of infant eye-tracking procedures on data quality with 8- to 12-month-old infants and adults. In the categorization tasks we found that category membership and visual properties impacted the performance of all participant groups. Sensitivity to the respective categories varied between tasks and over the age groups. For example, artifact images hindered infants' visual search but were classified best by adults, whereas sensitivity to vegetation was highest during similarity judgments. Overall, preschool children relied less on visual properties than adults, but some properties (e.g., rated depth, shading) were drawn upon similarly strong. In children and infants, depth predicted task performance stronger than shape-related properties. Moreover, children and infants were sensitive to variations in the complexity of low-level visual statistics. These results suggest that classification of visual structures, and attention to particular visual properties is affected by the functional or ecological significance these categories and properties may have for each of the respective age groups. Based on this, the project highlights the importance of further developmental research on visual categorization with naturalistic, structure-like stimuli. As intended with the current work, this would allow important links between developmental and adult research. N2 - Spezifische Objekte der Umwelt zu entdecken und zu erkennen, sind wichtige visuelle Aufgaben, die Menschen im Laufe der Evolution zu lösen hatten. Es stellt sich die Frage, ob Charakteristika von ökologisch wertvollen Entitäten in der Entwicklung der visuellen Kategorisierungsfähigkeit bei kleinen Kindern eine besondere Rolle spielen. Die vorliegende Dissertation untersucht, wie sich visuelle Fähigkeiten, visuelle Eigenschaften der Entitäten und Wertigkeit dieser Entitäten auf die frühe Kategorisierungs-fähigkeit auswirken. Als Stimuli dienten monochromatische Fotografien, die strukturähnliche Ausschnitte der drei Kategorien Vegetation, natürliche Elemente und Artefakte zeigen. Ein Set visueller Eigenschaften wurden für diese Stimuli computational und durch menschliche Einschätzung erstellt. In drei empirischen Studien wurden übergreifende Forschungskonzepte und -methoden bei Babys, Kindern und Erwachsenen angewandt: Diese beinhalteten (a) zwei Kartensortieraufgaben mit 4-6-jährigen Vorschulkindern und Erwachsenen, worin Klassifizie-rung und Ähnlichkeitsbeurteilungen erhoben wurden, (b) eine Eyetracking-Suchaufgabe, die den Einfluss visueller Eigenschaften und Kategoriezugehörigkeit auf die visuelle Segmentie-rung natürlicher Strukturen bei 8-Monate-alten Babys untersuchte. Da Eyetracking mit Babys methodisch anspruchsvoll ist, wurde (c) in einer Studie mit 8-12-Monate-alten Babys und mit Erwachsenen der Einfluss verschiedener Vorgehensweisen auf die Datenqualität untersucht. Die Kategorisierungsaufgaben zeigten, dass die Performanz aller Altersgruppen von Kategorie¬zugehörigkeit und visuellen Eigenschaften beeinflusst wurden. Sensitivität für die jeweiligen Kategorien variierte zwischen den Aufgaben und über die Altersgruppen hinweg. So erschwerten Bilder von Artefakten die visuelle Suche bei Babys, wurden aber von Erwachsenen am besten klassifiziert, während Vegetation Ähnlichkeitsurteile am stärksten beeinflusste. Insgesamt bezogen sich Vorschulkinder weniger als Erwachsene auf visuelle Eigen¬schaften, wobei aber einige davon (z. B. Tiefenwirkung, Schattierung) auch ähnlich stark beachtet wurden. Bei Kindern und Babys beeinflusste Tiefenwirkung die Performanz stärker als formbezogene Eigenschaften, zudem waren sie sensibel für Komplexitätsunterschiede bei statistischen Eigenschaften. Diese Ergebnisse deuten darauf hin, dass die Klassifizierung visueller Strukturen und die Aufmerksamkeit auf visuelle Eigenschaften von deren Wertigkeit für die jeweilige Altersgruppe beeinflusst sind. Damit unterstreicht das Projekt den Bedarf, visuelle Kategorisierung naturalistischer, strukturähnlicher Stimuli in weiteren entwicklungsbezogenen Studien vertiefend zu erforschen. Das würde wichtige Verbindungen zwischen Entwicklungs- und Erwachsenenforschung ermöglichen, wie es auch von der vorliegenden Arbeit angestrebt war. KW - Visual perception KW - Developmental psychology KW - Scene perception KW - Infancy KW - Early childhood KW - Visuelle Wahrnehmung KW - Entwicklungspsychologie KW - Wahrnehmung von Szenen KW - Baby- und Kleinkind Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-526370 ER - TY - THES A1 - Schjeide, Brit-Maren T1 - Development and characterization of the MoN-Light BoNT assay to determine the toxicity of botulinum neurotoxin in motor neurons differentiated from CRISPR-modified induced pluripotent stem cells T1 - Entwicklung und Charakterisierung des MoN-Light BoNT-Tests zur Bestimmung der Toxizität von Botulinum-Neurotoxin in Motorneuronen, die aus CRISPR-modifizierten induzierten pluripotenten Stammzellen differenziert wurden N2 - Botulinum neurotoxin (BoNT) is produced by the anaerobic bacterium Clostridium botulinum. It is one of the most potent toxins found in nature and can enter motor neurons (MN) to cleave proteins necessary for neurotransmission, resulting in flaccid paralysis. The toxin has applications in both traditional and esthetic medicine. Since BoNT activity varies between batches despite identical protein concentrations, the activity of each lot must be assessed. The gold standard method is the mouse lethality assay, in which mice are injected with a BoNT dilution series to determine the dose at which half of the animals suffer death from peripheral asphyxia. Ethical concerns surrounding the use of animals in toxicity testing necessitate the creation of alternative model systems to measure the potency of BoNT. Prerequisites of a successful model are that it is human specific; it monitors the complete toxic pathway of BoNT; and it is highly sensitive, at least in the range of the mouse lethality assay. One model system was developed by our group, in which human SIMA neuroblastoma cells were genetically modified to express a reporter protein (GLuc), which is packaged into neurosecretory vesicles, and which, upon cellular depolarization, can be released – or inhibited by BoNT – simultaneously with neurotransmitters. This assay has great potential, but includes the inherent disadvantages that the GLuc sequence was randomly inserted into the genome and the tumor cells only have limited sensitivity and specificity to BoNT. This project aims to improve these deficits, whereby induced pluripotent stem cells (iPSCs) were genetically modified by the CRISPR/Cas9 method to insert the GLuc sequence into the AAVS1 genomic safe harbor locus, precluding genetic disruption through non-specific integrations. Furthermore, GLuc was modified to associate with signal peptides that direct to the lumen of both large dense core vesicles (LDCV), which transport neuropeptides, and synaptic vesicles (SV), which package neurotransmitters. Finally, the modified iPSCs were differentiated into motor neurons (MNs), the true physiological target of BoNT, and hypothetically the most sensitive and specific cells available for the MoN-Light BoNT assay. iPSCs were transfected to incorporate one of three constructs to direct GLuc into LDCVs, one construct to direct GLuc into SVs, and one “no tag” GLuc control construct. The LDCV constructs fused GLuc with the signal peptides for proopiomelanocortin (hPOMC-GLuc), chromogranin-A (CgA-GLuc), and secretogranin II (SgII-GLuc), which are all proteins found in the LDCV lumen. The SV construct comprises a VAMP2-GLuc fusion sequence, exploiting the SV membrane-associated protein synaptobrevin (VAMP2). The no tag GLuc expresses GLuc non-specifically throughout the cell and was created to compare the localization of vesicle-directed GLuc. The clones were characterized to ensure that the GLuc sequence was only incorporated into the AAVS1 safe harbor locus and that the signal peptides directed GLuc to the correct vesicles. The accurate insertion of GLuc was confirmed by PCR with primers flanking the AAVS1 safe harbor locus, capable of simultaneously amplifying wildtype and modified alleles. The PCR amplicons, along with an insert-specific amplicon from candidate clones were Sanger sequenced to confirm the correct genomic region and sequence of the inserted DNA. Off-target integrations were analyzed with the newly developed dc-qcnPCR method, whereby the insert DNA was quantified by qPCR against autosomal and sex-chromosome encoded genes. While the majority of clones had off-target inserts, at least one on-target clone was identified for each construct. Finally, immunofluorescence was utilized to localize GLuc in the selected clones. In iPSCs, the vesicle-directed GLuc should travel through the Golgi apparatus along the neurosecretory pathway, while the no tag GLuc should not follow this pathway. Initial analyses excluded the CgA-GLuc and SgII-GLuc clones due to poor quality protein visualization. The colocalization of GLuc with the Golgi was analyzed by confocal microscopy and quantified. GLuc was strongly colocalized with the Golgi in the hPOMC-GLuc clone (r = 0.85±0.09), moderately in the VAMP2-GLuc clone (r = 0.65±0.01), and, as expected, only weakly in the no tag GLuc clone (r = 0.44±0.10). Confocal microscopy of differentiated MNs was used to analyze the colocalization of GLuc with proteins associated with LDCVs and SVs, SgII in the hPOMC-GLuc clone (r = 0.85±0.08) and synaptophysin in the VAMP2-GLuc clone (r = 0.65±0.07). GLuc was also expressed in the same cells as the MN-associated protein, Islet1. A significant portion of GLuc was found in the correct cell type and compartment. However, in the MoN-Light BoNT assay, the hPOMC-GLuc clone could not be provoked to reliably release GLuc upon cellular depolarization. The depolarization protocol for hPOMC-GLuc must be further optimized to produce reliable and specific release of GLuc upon exposure to a stimulus. On the other hand, the VAMP2-GLuc clone could be provoked to release GLuc upon exposure to the muscarinic and nicotinic agonist carbachol. Furthermore, upon simultaneous exposure to the calcium chelator EGTA, the carbachol-provoked release of GLuc could be significantly repressed, indicating the detection of GLuc was likely associated with vesicular fusion at the presynaptic terminal. The application of the VAMP2-GLuc clone in the MoN-Light BoNT assay must still be verified, but the results thus far indicate that this clone could be appropriate for the application of BoNT toxicity assessment. N2 - Botulinum neurotoxin (BoNT) wird von dem obligat anaeroben Bakterium Clostridium botulinum produziert. Es ist eines der giftigsten natürlich vorkommenden Toxine. Nach Aufnahme in den Körper dringt es in Motorneurone ein und spaltet spezifische Proteine, die für die Freisetzung des Neurotransmitters Acetylcholin notwendig sind. Dadurch kommt es zu einer schlaffen Lähmung der Muskulatur, die zu einer peripheren Asphyxie führt. Trotz seiner hohen Toxizität wird BoNT als Therapeutikum in der klassischen und kosmetischen Medizin genutzt. Da die Aktivität des biosynthetisch gewonnenen Toxins zwischen einzelnen Chargen trotz gleicher Proteinkonzentration stark variiert, muss die Aktivität jeder Präparation getestet werden. Dafür ist der Goldstandard der Mausletalitäts-Test, bei dem den Tieren unterschiedliche Dosen des Toxins injiziert werden und die Dosis ermittelt wird, bei der die Hälfte der Tiere verstirbt. Wegen der damit verbundenen ethischen Probleme wird nach Ersatzverfahren für diesen Tierversuch gesucht. Ein Ersatzverfahren muss folgende Bedingungen erfüllen: Es muss humanspezifisch sein; alle Teilschritte der BoNT-Wirkung messen; und eine hohe Empfindlichkeit haben, die in der gleichen Größenordnung wie der Maus-Letalitätstest liegt. Es wurde bereits ein Testsystem von unserer Gruppe entwickelt, bei dem humane SIMA-Neuroblastomzellen genetisch so modifiziert wurden, dass sie ein Reporterprotein (GLuc) exprimieren. Dieses wurde in neurosekretorische Vesikel verpackt und durch Depolarisation der Zellen gleichzeitig mit Neurotransmittern freigesetzt. Die Freisetzung wurde durch BoNT gehemmt. Obwohl dieser Assay großes Potential hat, wird seine Anwendbarkeit durch inhärente Nachteile eingeschränkt, da die GLuc-Sequenz zufällig in das Genom eingefügt wurde und die Tumorzellen nur eine begrenzte Sensitivität und Spezifität gegenüber BoNT haben. Diese Dissertation hatte zum Ziel, diese Defizite zu verbessern. Zu diesem Zweck wurden induzierte pluripotente Stammzellen (iPSCs) durch die CRISPR/Cas9-Methode genetisch modifiziert, um die GLuc-Sequenz in den genomischen Safe-Harbor-Lokus AAVS1 einzufügen, wodurch ausgeschlossen wird, dass durch unspezifische Integrationen ins Genom die Funktion anderer Gene gestört wird. Darüber hinaus wurde GLuc so modifiziert, dass sie mit Signalpeptiden versehen wurde, die sie zum Lumen sowohl von „Large Dense Core“ Vesikeln (LDCV), die Neuropeptide transportieren, als auch von synaptischen Vesikeln (SV), die Neurotransmitter verpacken, führen. Schließlich wurden die modifizierten iPSCs in Motorneurone (MNs) differenziert, der eigentlichen physiologischen Zielstruktur von BoNT, die mutmaßlich am empfindlichsten und spezifischsten auf BoNT reagieren und daher für den MoN-Light BoNT-Assay am geeignetsten sein sollten. iPSCs wurden transfiziert, um eines von drei Konstrukten zu integrieren. 1) ein Konstrukt, das GLuc in LDCVs leitet, 2) ein Konstrukt, das GLuc durch Fusion mit VAMP2 in SVs leitet und 3) ein "no tag" GLuc-Kontrollkonstrukt. Die LDCV-Konstrukte enthielten die Signalpeptide Proopiomelanocortin (hPOMC), Chromogranin-A (CgA) und Secretogranin II (SgII). Die VAMP2-GLuc-Fusion transportiert GLuc in SVs, so dass Neurotransmitter und GLuc gemeinsam und nicht, wie bei den anderen Konstrukten parallel, aus unterschiedlichen Vesikeln freigesetzt werden. Die "no tag GLuc"-Kontrolle wurde erstellt, um die Lokalisation von GLuc, die ohne Sortierungssignal in der Zelle exprimiert wird, mit der GLuc mit Sortierungssignalen für die unterschiedlichen Vesikel zu vergleichen. Die Klone wurden charakterisiert, um sicherzustellen, dass die GLuc-Sequenz ausschließlich in den AAVS1-Safe-Harbor-Lokus eingebaut wurde und dass die Signalpeptide GLuc zu den richtigen Vesikeln leiten. Die korrekte Insertion von GLuc wurde durch PCR mit Primern bestätigt, die den AAVS1-Lokus flankieren und in der Lage sind, gleichzeitig Wildtyp- und modifizierte Allele zu amplifizieren. Mögliche Integrationen außerhalb der Zielregion wurden mit der neu entwickelten dc-qcnPCR analysiert, wobei die Insert-DNA mittels qPCR gegen autosomal und geschlechts-chromosomal kodierte Gene quantifiziert wurde. Auch wenn die Mehrzahl der analysierten Klone Off-Target-Integrationen enthielt, konnte für jedes Konstrukt mindestens ein vollständig On-Target-homozygoter Klon identifiziert werden. Schließlich wurden die GLuc in ausgewählten Klonen durch Immunfluoreszenz lokalisiert. In iPSCs sollte die GLuc mit Sortierungssequenzen für Vesikel durch den Golgi-Apparat entlang des neurosekretorischen Weges wandern, während die „no tag“ GLuc diesem Weg nicht folgen sollte. Anfängliche Analysen schlossen die CgA-GLuc- und SgII-GLuc-Klone aufgrund der schlechten Qualität der Proteinvisualisierung aus. Die Kolokalisation von GLuc mit dem Golgi-Apparat wurde mittels konfokaler Mikroskopie analysiert und quantifiziert. GLuc war im hPOMC-GLuc-Klon sehr stark (r = 0,85±0,09), im VAMP2-GLuc-Klon mäßig (r = 0,65±0,01) und im no tag GLuc-Klon erwartungsgemäß nur schwach (r = 0,44±0,10) mit Golgi-Markern assoziiert. Nach der Differenzierung in MNs wurde die Koexpression von GLuc mit dem MN-assoziierten Protein Islet1 bestätigt. Konfokale Mikroskopie von MNs wurde angewandt, um die Kolokalisation von GLuc mit Proteinen zu quantifizieren, die mit LDCVs und SVs assoziiert sind, nämlich SgII mit der hPOMC-GLuc (r = 0,85±0,08) und Synaptophysin mit VAMP2-GLuc (r = 0,65±0,07). Ein signifikanter Anteil von GLuc wurde im richtigen Zelltyp und Kompartiment gefunden. Im MoN-Light BoNT-Assay wurde die GLuc jedoch nicht zuverlässig durch Depolarisation aus dem hPOMC-GLuc-Klon freigesetzt. Das für die SIMA-hPOMC-Gluc-Zellen entwickelte Depolarisationsprotokoll muss für hPOMC-GLuc weiter optimiert werden, um eine zuverlässige und spezifische Freisetzung von GLuc bei Exposition gegenüber einem Stimulus zu erreichen. Andererseits konnte die GLuc aus dem VAMP2-GLuc-Klon durch Stimulation mit dem muskarinischen und nikotinischen Agonisten Carbachol freigesetzt werden. Die Carbachol-abhängige Freisetzung der GLuc konnte mit dem Calcium-Chelator EGTA unterdrückt werden, was darauf hindeutet, dass die Freisetzung der GLuc wahrscheinlich von der Fusion synaptischer Vesikel am präsynaptischen Terminal abhängig ist. Die Anwendung des VAMP2-GLuc-Klons im MoN-Light BoNT-Assay muss noch verifiziert werden, aber die bisherigen Ergebnisse deuten darauf hin, dass dieser Klon für die Anwendung der BoNT-Toxizitätsbewertung geeignet sein könnte. KW - Induced pluripotent stem cells KW - Alternative to animal testing KW - Botulinum neurotoxin KW - Motor neurons KW - CRISPR/Cas9 KW - induzierte pluripotente Stammzellen KW - alternative zu Tierversuchen KW - Botulinumtoxine KW - Motorneurone KW - CRISPR/Cas9 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-516278 ER - TY - THES A1 - Schaarschmidt, Stephanie T1 - Evaluation and application of omics approaches to characterize molecular responses to abiotic stresses in plants T1 - Evaluierung und Anwendung von Omics-Methoden zur Charakterisierung von abiotischem Stress in Pflanzen auf molekularer Ebene N2 - Aufgrund des globalen Klimawandels ist die Gewährleistung der Ernährungssicherheit für eine wachsende Weltbevölkerung eine große Herausforderung. Insbesondere abiotische Stressoren wirken sich negativ auf Ernteerträge aus. Um klimaangepasste Nutzpflanzen zu entwickeln, ist ein umfassendes Verständnis molekularer Veränderungen in der Reaktion auf unterschiedlich starke Umweltbelastungen erforderlich. Hochdurchsatz- oder "Omics"-Technologien können dazu beitragen, Schlüsselregulatoren und Wege abiotischer Stressreaktionen zu identifizieren. Zusätzlich zur Gewinnung von Omics-Daten müssen auch Programme und statistische Analysen entwickelt und evaluiert werden, um zuverlässige biologische Ergebnisse zu erhalten. Ich habe diese Problemstellung in drei verschiedenen Studien behandelt und dafür zwei Omics-Technologien benutzt. In der ersten Studie wurden Transkript-Daten von den beiden polymorphen Arabidopsis thaliana Akzessionen Col-0 und N14 verwendet, um sieben Programme hinsichtlich ihrer Fähigkeit zur Positionierung und Quantifizierung von Illumina RNA Sequenz-Fragmenten („Reads“) zu evaluieren. Zwischen 92% und 99% der Reads konnten an die Referenzsequenz positioniert werden und die ermittelten Verteilungen waren hoch korreliert für alle Programme. Bei der Durchführung einer differentiellen Genexpressionsanalyse zwischen Pflanzen, die bei 20 °C oder 4 °C (Kälteakklimatisierung) exponiert wurden, ergab sich eine große paarweise Überlappung zwischen den Programmen. In der zweiten Studie habe ich die Transkriptome von zehn verschiedenen Oryza sativa (Reis) Kultivaren sequenziert. Dafür wurde die PacBio Isoform Sequenzierungstechnologie benutzt. Die de novo Referenztranskriptome hatten zwischen 38.900 bis 54.500 hoch qualitative Isoformen pro Sorte. Die Isoformen wurden kollabiert, um die Sequenzredundanz zu verringern und danach evaluiert z.B. hinsichtlich des Vollständigkeitsgrades (BUSCO), der Transkriptlänge und der Anzahl einzigartiger Transkripte pro Genloci. Für die hitze- und trockenheitstolerante Sorte N22 wurden ca. 650 einzigartige und neue Transkripte identifiziert, von denen 56 signifikant unterschiedlich in sich entwickelnden Samen unter kombiniertem Trocken- und Hitzestress exprimiert wurden. In der letzten Studie habe ich die Veränderungen in Metabolitprofilen von acht Reissorten gemessen und analysiert, die dem Stress hoher Nachttemperaturen (HNT) ausgesetzt waren und während der Trocken- und Regenzeit im Feld auf den Philippinen angebaut wurden. Es wurden jahreszeitlich bedingte Veränderungen im Metabolitspiegel sowie für agronomische Parameter identifiziert und mögliche Stoffwechselwege, die einen Ertragsrückgang unter HNT-Bedingungen verursachen, vorgeschlagen. Zusammenfassend konnte ich zeigen, dass der Vergleich der RNA-seq Programme den Pflanzenwissenschaftler*innen helfen kann, sich für das richtige Werkzeug für ihre Daten zu entscheiden. Die de novo Transkriptom-Rekonstruktion von Reissorten ohne Genomsequenz bietet einen gezielten, kosteneffizienten Ansatz zur Identifizierung neuer Gene, die durch verschiedene Stressbedingungen reguliert werden unabhängig vom Organismus. Mit dem Metabolomik-Ansatz für HNT-Stress in Reis habe ich stress- und jahreszeitenspezifische Metabolite identifiziert, die in Zukunft als molekulare Marker für die Verbesserung von Nutzpflanzen verwendet werden könnten. N2 - Due to global climate change providing food security for an increasing world population is a big challenge. Especially abiotic stressors have a strong negative effect on crop yield. To develop climate-adapted crops a comprehensive understanding of molecular alterations in the response of varying levels of environmental stresses is required. High throughput or ‘omics’ technologies can help to identify key-regulators and pathways of abiotic stress responses. In addition to obtain omics data also tools and statistical analyses need to be designed and evaluated to get reliable biological results. To address these issues, I have conducted three different studies covering two omics technologies. In the first study, I used transcriptomic data from the two polymorphic Arabidopsis thaliana accessions, namely Col-0 and N14, to evaluate seven computational tools for their ability to map and quantify Illumina single-end reads. Between 92% and 99% of the reads were mapped against the reference sequence. The raw count distributions obtained from the different tools were highly correlated. Performing a differential gene expression analysis between plants exposed to 20 °C or 4°C (cold acclimation), a large pairwise overlap between the mappers was obtained. In the second study, I obtained transcript data from ten different Oryza sativa (rice) cultivars by PacBio Isoform sequencing that can capture full-length transcripts. De novo reference transcriptomes were reconstructed resulting in 38,900 to 54,500 high-quality isoforms per cultivar. Isoforms were collapsed to reduce sequence redundancy and evaluated, e.g. for protein completeness level (BUSCO), transcript length, and number of unique transcripts per gene loci. For the heat and drought tolerant aus cultivar N22, I identified around 650 unique and novel transcripts of which 56 were significantly differentially expressed in developing seeds during combined drought and heat stress. In the last study, I measured and analyzed the changes in metabolite profiles of eight rice cultivars exposed to high night temperature (HNT) stress and grown during the dry and wet season on the field in the Philippines. Season-specific changes in metabolite levels, as well as for agronomic parameters, were identified and metabolic pathways causing a yield decline at HNT conditions suggested. In conclusion, the comparison of mapper performances can help plant scientists to decide on the right tool for their data. The de novo reconstruction of rice cultivars without a genome sequence provides a targeted, cost-efficient approach to identify novel genes responding to stress conditions for any organism. With the metabolomics approach for HNT stress in rice, I identified stress and season-specific metabolites which might be used as molecular markers for crop improvement in the future. KW - Arabidopsis thaliana KW - Oryza sativa KW - RNA-seq KW - PacBio IsoSeq KW - metabolomics KW - high night temperature KW - combined heat and drought stress KW - natural genetic variation KW - differential gene expression KW - Arabidopsis thaliana KW - Oryza sativa KW - PacBio IsoSeq KW - RNA-seq KW - kombinierter Hitze- und Trockenstress KW - erhöhte Nachttemperaturen KW - Differenzielle Genexpression KW - Metabolomik KW - natürliche genetische Variation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509630 ER - TY - THES A1 - Saretia, Shivam T1 - Modulating ultrathin films of semi-crystalline oligomers by Langmuir technique T1 - Modulation ultradünner Filme aus semikristalliner Oligomere durch Langmuir-Technik N2 - Polymeric films and coatings derived from semi-crystalline oligomers are of relevance for medical and pharmaceutical applications. In this context, the material surface is of particular importance, as it mediates the interaction with the biological system. Two dimensional (2D) systems and ultrathin films are used to model this interface. However, conventional techniques for their preparation, such as spin coating or dip coating, have disadvantages, since the morphology and chain packing of the generated films can only be controlled to a limited extent and adsorption on the substrate used affects the behavior of the films. Detaching and transferring the films prepared by such techniques requires additional sacrificial or supporting layers, and free-standing or self supporting domains are usually of very limited lateral extension. The aim of this thesis is to study and modulate crystallization, melting, degradation and chemical reactions in ultrathin films of oligo(ε-caprolactone)s (OCL)s with different end-groups under ambient conditions. Here, oligomeric ultrathin films are assembled at the air-water interface using the Langmuir technique. The water surface allows lateral movement and aggregation of the oligomers, which, unlike solid substrates, enables dynamic physical and chemical interaction of the molecules. Parameters like surface pressure (π), temperature and mean molecular area (MMA) allow controlled assembly and manipulation of oligomer molecules when using the Langmuir technique. The π-MMA isotherms, Brewster angle microscopy (BAM), and interfacial infrared spectroscopy assist in detecting morphological and physicochemical changes in the film. Ultrathin films can be easily transferred to the solid silicon surface via Langmuir Schaefer (LS) method (horizontal substrate dipping). Here, the films transferred on silicon are investigated using atomic force microscopy (AFM) and optical microscopy and are compared to the films on the water surface. The semi-crystalline morphology (lamellar thicknesses, crystal number densities, and lateral crystal dimensions) is tuned by the chemical structure of the OCL end-groups (hydroxy or methacrylate) and by the crystallization temperature (Tc; 12 or 21 °C) or MMAs. Compression to lower MMA of ~2 Å2, results in the formation of a highly crystalline film, which consists of tightly packed single crystals. Preparation of tightly packed single crystals on a cm2 scale is not possible by conventional techniques. Upon transfer to a solid surface, these films retain their crystalline morphology whereas amorphous films undergo dewetting. The melting temperature (Tm) of OCL single crystals at the water and the solid surface is found proportional to the inverse crystal thickness and is generally lower than the Tm of bulk PCL. The impact of OCL end-groups on melting behavior is most noticeable at the air-solid interface, where the methacrylate end-capped OCL (OCDME) melted at lower temperatures than the hydroxy end-capped OCL (OCDOL). When comparing the underlying substrate, melting/recrystallization of OCL ultrathin films is possible at lower temperatures at the air water interface than at the air-solid interface, where recrystallization is not visible. Recrystallization at the air-water interface usually occurs at a higher temperature than the initial Tc. Controlled degradation is crucial for the predictable performance of degradable polymeric biomaterials. Degradation of ultrathin films is carried out under acidic (pH ~ 1) or enzymatic catalysis (lipase from Pseudomonas cepcia) on the water surface or on a silicon surface as transferred films. A high crystallinity strongly reduces the hydrolytic but not the enzymatic degradation rate. As an influence of end-groups, the methacrylate end-capped linear oligomer, OCDME (~85 ± 2 % end-group functionalization) hydrolytically degrades faster than the hydroxy end capped linear oligomer, OCDOL (~95 ± 3 % end-group functionalization) at different temperatures. Differences in the acceleration of hydrolytic degradation of semi-crystalline films were observed upon complete melting, partial melting of the crystals, or by heating to temperatures close to Tm. Therefore, films of densely packed single crystals are suitable as barrier layers with thermally switchable degradation rates. Chemical modification in ultrathin films is an intricate process applicable to connect functionalized molecules, impart stability or create stimuli-sensitive cross-links. The reaction of end-groups is explored for transferred single crystals on a solid surface or amorphous monolayer at the air-water interface. Bulky methacrylate end-groups are expelled to the crystal surface during chain-folded crystallization. The density of end-groups is inversely proportional to molecular weight and hence very pronounced for oligomers. The methacrylate end-groups at the crystal surface, which are present at high concentration, can be used for further chemical functionalization. This is demonstrated by fluorescence microscopy after reaction with fluorescein dimethacrylate. The thermoswitching behavior (melting and recrystallization) of fluorescein functionalized single crystals shows the temperature-dependent distribution of the chemically linked fluorescein moieties, which are accumulated on the surfaces of crystals, and homogeneously dispersed when the crystals are molten. In amorphous monolayers at the air-water interface, reversible cross-linking of hydroxy-terminated oligo(ε-caprolactone) monolayers using dialdehyde (glyoxal) lead to the formation of 2D networks. Pronounced contraction in the area occurred for 2D OCL films in dependence of surface pressure and time indicating the reaction progress. Cross linking inhibited crystallization and retarded enzymatic degradation of the OCL film. Altering the subphase pH to ~2 led to cleavage of the covalent acetal cross-links. Besides as model systems, these reversibly cross-linked films are applicable for drug delivery systems or cell substrates modulating adhesion at biointerfaces. N2 - Ultradünne Filme/Beschichtungen aus semikristallinen oligomeren Makromolekülen sind für medizinische und pharmazeutische Anwendungen von Bedeutung. Dabei kommt der Materialoberfläche eine besondere Bedeutung zu, da diese die Interaktion mit dem umgebenden biologischen System ermöglicht. Zur Modellierung der Oberfläche werden 2D Systeme und ultradünne Filme verwendet. Herkömmlichen Techniken zu deren Präparation wie Spin-Coating oder Dip-Coating haben jedoch Nachteile, da sich die Morphologie und Kettenpackung der erzeugten Filme nur sehr bedingt kontrollieren lässt und sich die Adsorption auf dem verwendeten Substrat auf das Verhalten der Filme auswirkt. Zum Ablösen oder Übertragen der mit Hilfe dieser Techniken hergestellten Filme sind zusätzliche Opfer- oder Transferschichten erforderlich. Zudem können mit diesen Methoden nur freistehende oder selbsttragende Filme von sehr geringer lateraler Ausdehnung hergestellt werden. Das Ziel dieser Arbeit ist es, Kristallisation, Schmelzen, Abbau und chemische Reaktionen in ultradünnen Filmen von Oligo(ε-caprolacton)en (OCL)s mit unterschiedlichen Endgruppen unter Umgebungsbedingungen zu untersuchen und zu kontrollieren. Dazu wurden ultradünne Filme an der Luft-Wasser-Grenzfläche mit der Langmuir-Technik erzeugt. Die Wasseroberfläche erlaubt eine ungestörte Bewegung und Aggregation der Oligomere, was, im Gegensatz zu festen Substraten, dynamische physikalische und chemische Interaktion der Moleküle miteinander ermöglicht. Die Langmuir-Technik erlaubt mit Hilfe von Parametern wie Temperatur, Oberflächendruck (π) und Fläche pro Wiederholheinheit eine kontrollierte Manipulation der Oligomere. Kompressionsiothermen, Brewster-Winkelmikroskopie und Grenzflächen-Infrarotspektroskopie halfen beim Nachweis morphologischer und physikalisch-chemischer Veränderungen im Film. Die ultradünnen Filme wurden über das Langmuir-Schäfer-Verfahren (Kontakt mit Substrat in paralleler Orientierung zur Grenzfläche) auf Siliziumsubstrate übertragen. Danach wurden die übertragenen Filme mittels AFM und optischer Mikroskopie untersucht und mit Filmen an der Wasseroberfläche verglichen. Die teilkristalline Morphologie (Lamellendicke, Kristallzahldichte und laterale Dimension der Kristalle) von Polymerfilmen kann durch die chemische Struktur der OCL-Endgruppen (Hydroxy oder Methacrylat) und durch die Kristallisationstemperatur (Tc; 12 oder 21 °C) oder die Fläche pro Wiederholeinheit beeinflusst werden. Die Kompression auf eine sehr kleine Fläche pro Wiederholeinheit von ~2 Å2 führt zur Bildung eines hochkristallinen Films, der aus dicht gepackten Einkristallen besteht. Eine Synthese von derartigen Filmen im cm2 Maßstab ist mit herkömmlichen Techniken nicht möglich. Nach Übertragung auf eine feste Oberfläche behielten die teilkristallinen Filme ihre Morphologie, während amorphe Filme das für Polymere charakteristische Entnetzungsverhalten aufwiesen. Die Schmelztemperaturen (Tm) von OCL-Einkristallen an der Wasser- und Festkörperoberfläche waren proportional zur inversen Kristalldicke und im Allgemeinen niedriger als die Tm von PCL im Festkörper. Der Einfluss der OCL-Endgruppen auf das Schmelzverhalten war an der Luft-Feststoff-Grenzfläche am deutlichsten, wo OCL mit Methacrylat-Endgruppen bei niedrigeren Temperaturen schmolz als OCL mit Hydroxyl-Endgruppen. Das Schmelzen/Rekristallisieren ultradünner OCL-Filme an der Luft-Wasser-Grenzfläche erfolgte bei niedrigeren Temperaturen als an der Luft-Feststoff-Grenzfläche, wo keine Rekristallisation beobachtet wurde. Die Rekristallisation geschmolzener Filme an der Luft-Wasser-Grenzfläche erfolgte normalerweise bei einer höheren Temperatur als der anfänglichen Tc. Der kontrollierte Abbau ist entscheidend für die Performance von abbaubaren Polymeren als Biomaterialien. Der Abbau ultradünner Filme erfolgte hydrolytisch entweder unter saurer (pH ~ 1) oder enzymatischer Katalyse (Lipase aus Pseudomonas cepcia) auf der Wasseroberfläche oder als übertragene Filme auf Siliziumoberflächen. Eine hohe Kristallinität reduzierte die hydrolytische Abbaurate stark, aber die enzymatische dagegen wenig. Das lineare Oligomer mit Methacrylat Endgruppen (~85 ± 2 % Endgruppenfunktionalisierung) wurde bei unterschiedlichen Temperaturen schneller hydrolytisch abgebaut als das lineare Oligomer mit Hydroxyl Endgruppen (~95 ± 3 % Endgruppenfunktionalisierung). Unterschiede in der Beschleunigung des hydrolytischen Abbaus von teilkristallinen Filmen wurden beim vollständigen Schmelzen, teilweisen Schmelzen der Kristalle, oder durch erwärmen in die Nähe von Tm beobachtet. Daher eignen sich Filme aus dicht gepackten Einkristallen als Barriereschichten mit thermisch schaltbarer Degradationsrate. Chemische Reaktionen in ultradünnen Filmen können angewandt werden, um funktionalisierte Moleküle zu verbinden und ihnen Stabilität zu verleihen oder Stimuli-sensitive Vernetzungen zu erzeugen. Hier wurden die Reaktionen der Endgruppen transferierter Einkristalle auf festen Oberflächen und amorphen Monoschichten an der Luft-Wasser-Grenzfläche untersucht. Da die Kettenenden defekte in den Einkristallen darstellen würden, werden sie bei der Kristallisation an der Kristalloberfläche angeordnet. Die Dichte der Endgruppen ist umgekehrt proportional zum Molekulargewicht und daher bei Oligomeren besonders hoch. Hier wurden mit Methacrylatendgruppen versehene OCL Moleküle verwendet. Diese Gruppen können chemisch weiter umgesetzt und für eine Funktionalisierung der Kirstalle verwendet werden. Dies wurde fluoreszenz-mikroskopisch nach der Reaktion mit Fluoresceindimethacrylat nachgewiesen. Das thermische Schalten (Schmelzen und Umkristallisieren) von Fluorescein-funktionalisierten Einkristallen erzeugt eine temperaturabhängige Verteilung der chemisch verknüpften Fluorescein-Einheiten, die sich auf den Oberflächen der Kristalle ansammeln und beim Schmelzen der Kristalle homogen dispergiert werden. In amorphen Monoschichten an der Luft-Wasser-Grenzfläche führt die reversible Vernetzung von Hydroxy-terminierten Oligo(ε-caprolacton) Monoschichten unter Verwendung eines Dialdehyds (Glyoxal) zur Bildung von zweidimensionalen (2D) Netzwerken. Bei 2D-OCL-Filmen trat eine ausgeprägte Kontraktion der Fläche in Abhängigkeit von Oberflächendruck und Zeit auf, was den Fortschritt der Reaktion anzeigte. Die Vernetzung hemmte die Kristallisation und verzögerte den enzymatischen Abbau des OCL-Films. Eine Änderung des pH-Wertes der Subphase auf ~2 führte zur Spaltung der kovalenten Acetalvernetzungen. Außer als Modellsysteme wäre der Einsatz dieser reversibel vernetzten Filme für den Einsatz als Drug-Delivery-Systeme oder als Oberflächen zur Steuerung der Adhäsion von Zellen möglich. KW - polymer KW - poly(ε-caprolactone) KW - 2D material KW - ultrathin film KW - single crystals KW - crystallization KW - melting KW - degradation KW - hydrolysis KW - reactions KW - substrate KW - end-groups KW - hydroxy KW - methacrylate KW - Polymer KW - Poly(ε-caprolacton) KW - 2D-Material KW - Beschichtungen KW - Ultradünne Filme KW - Einkristalle KW - Kristallisation KW - Schmelz KW - Abbau KW - Hydrolyse KW - Reaktion KW - Substrat KW - Hydroxyl KW - Methacrylat Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-542108 ER - TY - THES A1 - Sand, Patrick T1 - Übergangsmetallkatalysierte Funktionalisierungsreaktionen an Vinylsulfonylverbindungen T1 - Transition metal catalysed functionalisation of vinyl sulfonyl compounds N2 - Innerhalb dieser Arbeit erfolgte die erstmalige systematische Untersuchung von Vinylsulfonsäureethylester (1a), Phenylvinylsulfon (1b), N-Benzyl-N-methylethensulfonamid (1c) in der FUJIWARA-MORITANI Reaktion (alternativ als DHR bezeichnet). Bei dieser übergangsmetallkatalysierten Reaktion erfolgt der Aufbau einer neuen C-C-Bindung unter der doppelten Aktivierung einer C-H-Bindung. Somit kann ein atomökonomischer Aufbau von Molekülen realisiert werden, da keine Beiprodukte in Form von Salzen entstehen. Als aromatischer Reaktant wurden Acetanilide (2) verwendet, damit eine regiospezifische Kupplung durch die katalysatordirigierende Acetamid-Gruppe (CDG) erfolgt. Für die Pd-katalysierte DHR wurde eine umfangreiche Optimierung durchgeführt und anschließend konnten neun verschieden, substituierte 2 mit 1a und sieben verschieden, substituierte 2 mit 1b funktionalisiert werden. Da eine Reaktion mit 1c ausblieb, erfolgte ein Wechsel auf eine Ru-katalysierte Methode für die DHR. Mit dieser Methode konnte 1c mit Acetaniliden funktionalisiert werden und das Spektrum der verwendeten 2, in Form von deaktivierenden Substituenten erweitert werden. Im Anschluss wurden die sulfalkenylierten Acetanilide in weiterführenden Reaktionen untersucht. Hierfür wurde eine Reaktionssequenz bestehend aus einer DeacetylierungDiazotierung-Kupplungsreaktion verwendet, um die Acetamid-Gruppe in eine Abgangsgruppe zu überführen und danach in einer MATSUDA-HECK Reaktion zu kuppeln. Mit dieser Methode konnten mehrere 1,2-Dialkenylbenzole erhalten werden und die CDG ein weiteres Mal genutzt werden. Neben der Überführung der CDG in eine Abgangsgruppe konnte diese auch in die Synthese verschiedener Heterozyklen integriert werden. Dafür erfolgte zunächst eine 1,3-Zykloaddition durch deprotonierten Tosylmethylisocanid an der elektronenarmen Sulfalkenylgruppe zur Synthese von Pyrrolen. Anschließend erfolgte eine Kupplung der PyrrolFunktion und der CDG durch Zyklokondensation, wodurch Quinoline dargestellt wurden. Durch diese Synthesen konnten Schwefelanaloga des Naturstoffes Marinoquionolin A erhalten werden. Ein weitere übergangsmetallkatalysierte C-H-Aktivierungsreaktion, die MATSUDA-HECK Reaktion, wurde genutzt, um 1b zu mit verschieden, subtituierten Diazoniumsalzen zu arylieren. Hier konnten zahlreichen Styrenylsulfone erhalten werden. Der erfolgreiche Einsatz der Vinylsulfonylverbindungen in der Kreuzmetathese konnte innerhalb dieser Arbeit nicht erreicht werden. Daher erfolgte die Synthese verschiedener dialkenylierter Sulfonamide. Hierfür wurde die Kettenlänge der Alkenyl-Gruppe am Schwefel zwischen 2-3 und am Stickstoff zwischen 3-4 variiert. Der Einsatz der dialkenylierten Sulfonamide erfolgte in den zuvor untersuchten C-H-Aktivierungsmethoden. N-Allyl-N-phenylethensulfonamid (3) konnte erfolgreich in der DHR und HECK Reaktion funktionalisiert werden. Hierbei erfolgte eine methodenspezifische Kupplung in Abhängigkeit von der Elektronendichte der entsprechenden Alkenyl-Gruppe. Die DHR führte zur selektiven Arylierung der Vinyl-Gruppe und die HECK Reaktion zur Arylierung an der Allyl-Gruppe. Gemischte Produkte wurden nicht erhalten. Für die weiteren Diolefine wurde komplexe Produktgemische erhalten. Des Weiteren wurden die Diolefine in der Ringschlussmetathese untersucht und die entsprechenden Sultame in sehr guten Ausbeuten erhalten. Die Verwendung der Sultame in der C-H-Aktivierung war erfolglos. Es wird vermutet, dass für diese zweifachsubstituierten Sulfonamide die vorhandenen Reaktionsbedingungen optimiert werden müssen. Abschließend wurden verschiedene, enantiomerenreine Olefine ausgehend von Levoglucosenon dargestellt. Hierfür wurde Levoglucosenon zunächst mit einem Allyl- und 3-Butenylgrignard Reagenz umgesetzt. Die entsprechenden Produkte wurden in moderaten Ausbeuten erhalten. Eine weitere Methode begann mit der Reduktion von Levoglucosenon zum Levoglucosenol. Dieser Alkohol wurde mit Allylbromid erfolgreich verethert. Neben der Untersuchungen zur Ethersynthese, erfolgte die Veresterung von Levoglucosenol mit verschiedenen Sulfonylchloriden zu den entsprechenden Sulfonsäureestern. Diese Olefine wurden in einer Dominometathesereaktion untersucht. Ausgehend vom Allyllevoglucosenylether erfolgte die Darstellung eines Dihydrofurans. N2 - Within this work, the first systematic investigation of vinyl sulfonic acid ethyl ester (1a), phenyl vinyl sulfone (1b), N-benzyl-N-methylethene sulfonamide (1c) in the FUJIWARA-MORITANI reaction (alternatively referred to as DHR) was carried out. In this transition metal-catalysed reaction, the formation of a new C-C bond takes place through double activation of a C-H bond. Therefore, an atom-economical construction of molecules can be realised without the formation of by-products in the form of salts. Acetanilides (2) were used as aromatic reactants so that a regiospecific coupling by the catalyst-directing acetamide group (CDG) takes place. An extensive optimisation was carried out for the Pd catalysed DHR and subsequently nine differently substituted 2 could be functionalised with 1a and seven differently substituted 2 with 1b. Since a reaction with 1c failed to occur, a switch was made to a Ru-catalysed method for the DHR. With this method, 1c could be functionalised with acetanilides (2) and the spectrum of the acetanilides (2) used could be expanded to deactivating substituents. Subsequently, the sulfalkenylated acetanilides were investigated in further reactions. For this purpose, a reaction sequence consisting of a deacetylation-diazotisation-coupling reaction was used to convert the acetamide group into a leaving group and then to couple it in a MATSUDA-HECK reaction. With this method, several 1,2-dialkenylbenzenes could be obtained and the CDG was used one more time. In addition to transferring the CDG into a leaving group, it could also be integrated into the synthesis of various heterocycles. First, a 1,3 cycloaddition was carried out by deprotonated tosylmethylisocanide on the electron-deficient sulfalkenyl group for the synthesis of pyrroles. This was followed by coupling of the pyrrole function and the CDG by cyclocondensation, producing quinolines. Through these syntheses, sulfur analogues of the natural product marinoquionoline A could be obtained. Another transition metal-catalysed C-H activation reaction, the MATSUDA-HECK reaction, was used to arylate 1b with different subtituted aryldiazonium salts. Numerous styrenyl sulfones were obtained. Vinylsulfonyl compounds could not be used in cross-metathesis reactions within this work. Therefore, the synthesis of different dialkenylated sulfonamides was carried out. For this purpose, the chain length of the alkenyl group was varied between 2-3 at the sulfur atom and 3-4 at the nitrogen atom. The dialkenylated sulfonamides were used in the previously investigated C-H activation methods. N-allyl-N-phenylethensulfonamide (3) was successfully functionalised using the DHR and HECK reaction. Here, a method-specific coupling took place depending on the electron density of the corresponding alkenyl group. The DHR led to selective arylation at the vinyl group and the HECK reaction to selective arylation at the allyl group. Mixed products were not obtained. For the other diolefins, complex mixtures of products were obtained. Furthermore, the diolefins were investigated in ring closing metathesis reaction and the corresponding sultams were obtained in very good yields. The use of the synthesised sultams in C-H activation was unsuccessful. It is suggested that for these di-substituted sulfonamides the existing reaction conditions need to be optimised. Finally, various enantiomerically pure olefins were prepared starting from levoglucosenone. For this purpose, levoglucosenone was first reacted with an allyl-Grignard and 3 butenyl-Grignard reagent. The corresponding products were obtained in moderate yields. Another method started with the reduction of levoglucosenone to levoglucosenol. This alcohol was successfully etherified with allyl bromide. In addition to the studies on ether synthesis, the esterification of levoglucosenol with various sulfonyl chlorides to the corresponding sulfonic acid esters was carried out. These olefins were investigated in a domino metathesis reaction. Starting with allyl levoglucosenyl ether, the synthesis of a dihydrofuran was presented. KW - Vinylsulfonylverbindungen KW - Übergangsmetallkatalyse KW - vinyl sulfonyl compounds KW - transition metal catalysis Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536879 ER - TY - THES A1 - Sanay, Berran T1 - Monomers and polymers based on renewable resources for new photopolymer coating N2 - The present work focuses on minimising the usage of toxic chemicals by integration of the biobased monomers, derived from fatty acid esters, to photopolymerization processes, which are known to be nature friendly. Internal double bond present in the oleic acid was converted to more reactive (meth)acrylate or epoxy group. Biobased starting materials, functionalized by different pendant groups, were used for photopolymerizing formulations to design of new polymeric structures by using ultraviolet light emitting diode (UV-LED) (395 nm) via free radical polymerization or cationic polymerization. New (meth)acrylates (2,3 and 4) consisting of two isomers, methyl 9-((meth)acryloyloxy)-10-hydroxyoctadecanoate / methyl 9-hydroxy-10-((meth)acryloyloxy)octadecanoate (2 and 3) and methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4), modified from oleic acid mix, and ionic liquid monomers (1a and 1b) bearing long alkyl chain were polymerized photochemically. New (meth)acrylates are based on vegetable oil, and ionic liquids (ILs) have nonvolatile behaviour. Therefore, both monomer types have green approach. Photoinitiated polymerization of new (meth)acrylates and ionic liquids was investigated in the presence of ethyl (2,4,6-trimethylbenzoyl) phenylphosphinate (Irgacure® TPO−L) or di(4-methoxybenzoyl)diethylgermane (Ivocerin®) as photoinitiator (PI). Additionally, the results were discussed in comparison with those obtained from commercial 1,6-hexanediol di(meth)acrylate (5 and 6) for deeper investigation of biobased monomer’s potential to substitute petroleum derived materials with renewable resources for possible coating applications. Kinetic study shows that methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4) and ionic liquids (1a and 1b) have quantitative conversion after irradiation process which is important for practical applications. On the other hand, heat generation occurs in a longer time during the polymerization of biobased systems or ILs. The poly(meth)acrylates modified from (meth)acrylated fatty acid methyl ester monomers generally show a low glass transition temperature because of the presence of long aliphatic chain in the polymer structure. However, poly(meth)acrylates containing aromatic group have higher glass transition temperature. Therefore, new 4-(4-methacryloyloxyphenyl)-butan-2-one (7) was synthesized which can be a promising candidate for the green techniques, such as light induced polymerization. Photokinetic investigation of the new monomer, 4-(4-methacryloyloxyphenyl)-butan-2-one (7), was discussed using Irgacure® TPO−L or Ivocerin® as photoinitiator. The reactivity of that monomer was compared to commercial 2-phenoxyethyl methacrylate (8) and phenyl methacrylate (9) basis of the differences on monomer structures. The photopolymer of 4-(4-methacryloyloxyphenyl)-butan-2-one (7) might be an interesting candidate for the coating application with the properties of quantitative conversion and high molecular weight. It also shows higher glass transition temperature. In addition to the linear systems based on renewable materials, new crosslinked polymers were also designed in this thesis. Therefore, isomer mixture consisting of ethane-1,2-diyl bis(9-methacryloyloxy-10-hydroxy octadecanoate), ethane-1,2-diyl 9-hydroxy-10-methacryloyloxy-9’-methacryloyloxy10’-hydroxy octadecanoate and ethane-1,2-diyl bis(9-hydroxy-10-methacryloyloxy octadecanoate) (10) was synthesized by derivation of the oleic acid which has not been previously described in the literature. Crosslinked material based on this biobased monomer was produced by photoinitiated free radical polymerization using Irgacure® TPO−L or Ivocerin® as photoinitiator. Furthermore, material properties were diversified by copolymerization of 10 with 4-(4-methacryloyloxyphenyl)-butan-2-one (7) or methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4). In addition to this, influence of comonomer with different chemical structure on the network system was investigated by analysis of thermo-mechanical properties, crosslink density and molecular weight between two crosslink junctions. An increase in the glass transition temperature caused by copolymerization of biobased monomer 10 with the excess amount of 4-(4-methacryloyloxyphenyl)-butan-2-one (7) was confirmed by both techniques, differential scanning calorimetry (DSC) and dynamic mechanical analysis (DMA). On the other hand, crosslink density decreased as a result of copolymerization reactions due to the reduction in the mean functionality of the system. Furthermore, surface characterization has been tested by contact angle measurements using solvents with different polarity. This work also contributes to the limited data reported about cationic photopolymerization of the epoxidized vegetable oils in the literature in contrast to the widely investigation of thermal curing of the biorenewable epoxy monomers. In addition to the 9,10-epoxystearic acid methyl ester (11), a new monomer of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) has been synthesized from oleic acid. These two biobased epoxies have been polymerized via cationic photoinitiated polymerization in the presence of bis(t-butyl)-iodonium-tetrakis(perfluoro-t-butoxy)aluminate ([Al(O-t-C4F9)4]-) and isopropylthioxanthone (ITX) as photinitiating system. Polymerization kinetic of 9,10-epoxystearic acid methyl ester (11) and bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) was investigated and compared with the kinetic of commercial monomers being 3,4-epoxycyclohexylmethyl-3’,4’-epoxycyclohexane carboxylate (13), 1,4-butanediol diglycidyl ether (14), and diglycidylether of bisphenol-A (15). Both biobased epoxies (11 and 12) showed higher conversion than cycloaliphatic epoxy (13), and lower reactivity than 1,4-butanediol diglycidyl ether (14). Additional network systems were designed by copolymerization of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) and diglycidylether of bisphenol-A (15) in different molar ratios (1:1; 1:5; 1:9). It addresses that, final conversion is dependent on polymerization rate as well as physical processes such as vitrification during polymerization. Moreover, low glass transition temperature of homopolymer derived from bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) was successfully increased by copolymerization with diglycidylether bisphenol-A (15). On the other hand, the surface produced from bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) shows hydrophobic character. Higher concentration of biobased diepoxy (12) in the copolymerizing mixture decreases surface free energy. Network systems were also investigated according to the rubber elasticity theory. Crosslinked polymer derived from the mixture of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) and diglycidylether of bisphenol-A (15) (molar ratio=1:5) exhibits almost ideal polymer network. N2 - Die vorliegende Arbeit konzentriert sich auf die Minimierung des Einsatzes von giftigen Chemikalien durch die Integration von biobasierten Monomeren, die aus Fettsäureestern gewonnen werden, in Photopolymerisationsprozessen, die als naturfreundlich bekannt sind. Die in der Ölsäure vorhandene interne Doppelbindung wurde in eine reaktivere (Meth)acrylat- oder Epoxidgruppe umgewandelt. Biobasierte Ausgangsmaterialien, funktionalisiert durch verschiedene Seitengruppen, wurden für photopolymerisierende Formulierungen verwendet, um neue polymere Strukturen unter Verwendung einer ultravioletten lichtemittierenden Diode (UV-LED) (395 nm) über freie radikalische Polymerisation oder kationische Polymerisation zu entwickeln. Neue (Meth)acrylate, Methyl-9-((meth)acryloyloxy)-10-hydroxyoctadecanoat / Methyl-9-hydroxy-10-((meth)acryloyloxy)octadecanoat (2 und 3) und Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)octadecanoat / Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)octadecanoat (4), modifiziert aus einem Ölsäuregemisch und ionischen flüssigen Monomeren mit eine langen Alkylkette wurden photochemisch polymerisiert. Die neuen (Meth)acrylate basieren auf Pflanzenöl. Die ionischen Flüssigkeiten (ILs) haben ein nichtflüchtiges Verhalten. Daher haben beide Monomertypen einen grünen Ansatz. Photoinitiierte Polymerisationen von neuen (Meth)acrylaten und ionischen Flüssigkeiten wurden in Gegenwart von Ethyl-(2,4,6-trimethylbenzoyl)phenylphosphinat (Irgacure® TPO-L) oder Di(4-methoxybenzoyl)diethylgerman (Ivocerin®) als Photoinitiator untersucht. Zusätzlich wurden die Ergebnisse im Vergleich mit denen von kommerziellem 1,6-hexandiol di(meth)acrylat (5 und 6) diskutiert, um das Potenzial von biobasierten Monomeren zur Substitution von erdölbasierten Materialien durch erneuerbare Ressourcen für mögliche Beschichtungsanwendungen genauer zu untersuchen. Die kinetische Studie zeigt, dass Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)octadecanoat / Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)octadecanoat (4) und die ionischen Flüssigkeiten (1a und 1b) eine quantitative Umsetzung nach dem Bestrahlungsprozess aufweisen, was für praktische Anwendungen wichtig ist. Andererseits erfolgt die Wärmeentwicklung bei der Polymerisation von biobasierten Systemen oder ILs in einem längeren Zeitraum. Die aus Fettsäuren hergestelltem modifizierten Poly(meth)acrylate zeigen im Allgemeinen eine niedrige Glasübergangstemperatur aufgrund der Anwesenheit einer langen aliphatischen Kette in der Polymerstruktur. Poly(meth)acrylate, die eine aromatische Gruppe enthalten, haben jedoch eine höhere Glasübergangstemperatur. Daher wurde das neue 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) synthetisiert, das ein vielversprechender Kandidat für die grünen Techniken, wie zum Beispiel die lichtinduzierte Polymerisation, sein kann. Die photokinetische Untersuchung des neuen Monomers, 4-(4-Methacryloyloxyphenyl)-butan-2-on (7), wurde unter Verwendung von Irgacure® TPO-L oder Ivocerin® als Photoinitiator diskutiert. Die Reaktivität dieses Monomers wurde mit kommerziellem 2-Phenoxyethylmethacrylat (8) und Phenylmethacrylat (9) aufgrund der Unterschiede in der Monomerstruktur verglichen. Das Photopolymer von 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) könnte ein interessanter Kandidat und eine Alternative zu den herkömmlichen Monomeren für die Beschichtungsanwendung sein aufgrund der quantitativen Umsetzung des Monomeren und des hohen Molekulargewichts sowie einer höheren Glasübergangstemperatur des resultieren den Photopolymeren. Neben den linearen Systemen auf Basis nachwachsender Rohstoffe wurden in dieser Arbeit auch neue vernetzte Polymere entwickelt. So wurde ein Ethan-1,2-diyl bis(9-methacryloyloxy-10-hydroxy octadecanoate), Ethane-1,2-diyl 9-hydroxy-10-methacryloyloxy-9’-methacryloyloxy10’-hydroxy octadecanoat und Ethane-1,2-diyl bis(9-hydroxy-10-methacryloyloxy octadecanoat) (10) Monomer mit zwei funktionellen Gruppen durch weitere Derivatisierung der Ölsäure synthetisiert, das bisher in der Literatur nicht beschrieben wurde. Ein vernetztes Material Auf Basis dieses biobasierten Monomers wurde durch photoinitiierte, radikalische Polymerisation unter Verwendung von Irgacure® TPO-L oder Ivocerin® als Photoinitiator hergestellt. Darüber hinaus wurden die Materialeigenschaften durch Copolymerisation des 10 mit 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) oder Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)-octadecanoat /Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)-octadecanoat (4) variiert. Darüber hinaus wurde der Einfluss von Comonomeren mit unterschiedlicher chemischer Struktur auf das Netzwerksystem durch Analyse der mechanischen Eigenschaften, der Glasübergangstemperaturen, der Vernetzungsdichte und des Molekulargewichts zwischen zwei Vernetzungsstellen untersucht. Eine Erhöhung der Glasübergangstemperatur durch die Copolymerisation von 10 mit einem Überschuss von 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) wurde durch DSC und DMA bestätigt. Andererseits verringerte sich die Vernetzungsdichte aufgrund der Verringerung der mittleren Funktionalität des Systems. Darüber hinaus wurde die Oberflächencharakterisierung durch Kontaktwinkelmessungen unter Verwendung von Lösungsmitteln mit unterschiedlicher Polarität getestet. Diese Arbeit trägt auch zur Erweiterung der in der Literatur über die kationische Photopolymerisation der epoxidierten Pflanzenöle berichteten Erkenntnisse bei, die, im Gegensatz zu den weit verbreiteten Untersuchungen zur thermischen Härtung der biobasierten Epoxidmonomere nur begrenzt verfügbar sind. Zusätzlich zum 9,10-Epoxystearinsäuremethylester (11) wurde ein neues Monomer Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) auf der Basis von Ölsäure synthetisiert. Diese beiden biobasierten Epoxide wurden durch kationische photoinitiierte Polymerisation in Gegenwart von Bis(t-butyl)-iodonium-tetrakis(perfluor-t-butoxy)aluminat ([Al(O-t-C4F9)4]-) und Isopropylthioxanthon (ITX) als photostimulierendes System polymerisiert. Die Polymerisationskinetik von 9,10-Epoxystearinsäuremethylester (11) und Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) wurde untersucht und mit der Kinetik der kommerziellen Monomere 3,4-Epoxycyclohexylmethyl-3',4'-epoxycyclohexancarboxylat (13), 1,4-Butandioldiglycidylether (14) und Diglycidylether von Bisphenol-A (15) verglichen. Beide biobasierten Epoxide (11 und 12) zeigten eine höhere Umwandlung als das cycloaliphatische Epoxid (13) und eine geringere als 1,4-Butandioldiglycidylether (14). Weitere Netzwerksysteme wurden durch Copolymerisation von Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) und Diglycidylether von Bisphenol-A (15) in verschiedenen molaren Verhältnissen (1:1; 1:5; 1:9) hergestellt. Es wird angesprochen, dass der endgültige Umsatz sowohl von der Polymerisationsgeschwindigkeit als auch von physikalischen Prozessen wie der Verglasung während der Polymerisation abhängig ist. Darüber hinaus wurde die niedrige Glasübergangstemperatur des Homopolymers aus Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) durch Copolymerisation mit Diglycidylether von Bisphenol-A (15) erfolgreich erhöht. Andererseits zeigt die aus Bis-(9,10-epoxystearinsäure) 1,2-ethan-diylester (12) hergestellte Oberfläche einen hydrophoben Charakter. Eine höhere Konzentration des biobasierten difunktionellen Epoxids (12) in der Copolymerisationsmischung verringert die freie Oberflächenenergie. Die Netzwerksysteme wurden auch unter Einsatz der Gummielastizitätstheorie untersucht. Das vernetzte Polymer, das aus der Mischung von Bis-(9,10-epoxystearinsäure) 1,2-ethan-diylester (12) und Diglycidylether von Bisphenol-A (15) (Molverhältnis=1:5) hergestellt wurde, zeigt ein nahezu ideales Polymernetzwerk. KW - Biobased Polymers KW - Renewable Resources KW - Coating Applications KW - Photopolymers KW - Photopolymerization KW - Biobasierte Polymere KW - Beschichtungsanwendung KW - Photoinitiierte Polymerisationen KW - Photopolymer KW - Erneuerbare Ressourcen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-518684 ER - TY - THES A1 - Sahlmann, Kristina T1 - Network management with semantic descriptions for interoperability on the Internet of Things T1 - Netzwerk Management mit semantischen Beschreibungen für Interoperabilität im Internet der Dinge N2 - The Internet of Things (IoT) is a system of physical objects that can be discovered, monitored, controlled, or interacted with by electronic devices that communicate over various networking interfaces and eventually can be connected to the wider Internet. [Guinard and Trifa, 2016]. IoT devices are equipped with sensors and/or actuators and may be constrained in terms of memory, computational power, network bandwidth, and energy. Interoperability can help to manage such heterogeneous devices. Interoperability is the ability of different types of systems to work together smoothly. There are four levels of interoperability: physical, network and transport, integration, and data. The data interoperability is subdivided into syntactic and semantic data. Semantic data describes the meaning of data and the common understanding of vocabulary e.g. with the help of dictionaries, taxonomies, ontologies. To achieve interoperability, semantic interoperability is necessary. Many organizations and companies are working on standards and solutions for interoperability in the IoT. However, the commercial solutions produce a vendor lock-in. They focus on centralized approaches such as cloud-based solutions. This thesis proposes a decentralized approach namely Edge Computing. Edge Computing is based on the concepts of mesh networking and distributed processing. This approach has an advantage that information collection and processing are placed closer to the sources of this information. The goals are to reduce traffic, latency, and to be robust against a lossy or failed Internet connection. We see management of IoT devices from the network configuration management perspective. This thesis proposes a framework for network configuration management of heterogeneous, constrained IoT devices by using semantic descriptions for interoperability. The MYNO framework is an acronym for MQTT, YANG, NETCONF and Ontology. The NETCONF protocol is the IETF standard for network configuration management. The MQTT protocol is the de-facto standard in the IoT. We picked up the idea of the NETCONF-MQTT bridge, originally proposed by Scheffler and Bonneß[2017], and extended it with semantic device descriptions. These device descriptions provide a description of the device capabilities. They are based on the oneM2M Base ontology and formalized by the Semantic Web Standards. The novel approach is using a ontology-based device description directly on a constrained device in combination with the MQTT protocol. The bridge was extended in order to query such descriptions. Using a semantic annotation, we achieved that the device capabilities are self-descriptive, machine readable and re-usable. The concept of a Virtual Device was introduced and implemented, based on semantic device descriptions. A Virtual Device aggregates the capabilities of all devices at the edge network and contributes therefore to the scalability. Thus, it is possible to control all devices via a single RPC call. The model-driven NETCONF Web-Client is generated automatically from this YANG model which is generated by the bridge based on the semantic device description. The Web-Client provides a user-friendly interface, offers RPC calls and displays sensor values. We demonstrate the feasibility of this approach in different use cases: sensor and actuator scenarios, as well as event configuration and triggering. The semantic approach results in increased memory overhead. Therefore, we evaluated CBOR and RDF HDT for optimization of ontology-based device descriptions for use on constrained devices. The evaluation shows that CBOR is not suitable for long strings and RDF HDT is a promising candidate but is still a W3C Member Submission. Finally, we used an optimized JSON-LD format for the syntax of the device descriptions. One of the security tasks of network management is the distribution of firmware updates. The MYNO Update Protocol (MUP) was developed and evaluated on constrained devices CC2538dk and 6LoWPAN. The MYNO update process is focused on freshness and authenticity of the firmware. The evaluation shows that it is challenging but feasible to bring the firmware updates to constrained devices using MQTT. As a new requirement for the next MQTT version, we propose to add a slicing feature for the better support of constrained devices. The MQTT broker should slice data to the maximum packet size specified by the device and transfer it slice-by-slice. For the performance and scalability evaluation of MYNO framework, we setup the High Precision Agriculture demonstrator with 10 ESP-32 NodeMCU boards at the edge of the network. The ESP-32 NodeMCU boards, connected by WLAN, were equipped with six sensors and two actuators. The performance evaluation shows that the processing of ontology-based descriptions on a Raspberry Pi 3B with the RDFLib is a challenging task regarding computational power. Nevertheless, it is feasible because it must be done only once per device during the discovery process. The MYNO framework was tested with heterogeneous devices such as CC2538dk from Texas Instruments, Arduino Yún Rev 3, and ESP-32 NodeMCU, and IP-based networks such as 6LoWPAN and WLAN. Summarizing, with the MYNO framework we could show that the semantic approach on constrained devices is feasible in the IoT. N2 - Ein Netzwerk von physischen Objekten (Dingen), die von elektronischen Geräten entdeckt, überwacht und gesteuert werden können, die über verschiedene Netzwerkschnittstellen kommunizieren und schließlich mit dem Internet verbunden werden können, bezeichnet man als Internet of Things (Internet der Dinge, IoT) [Guinard und Trifa, 2016]. Die elektronischen Geräte sind mit Sensoren und Aktuatoren ausgestattet und verfügen oft nur über begrenzte Rechenressourcen wie Leistung, Speicher, Netzwerkbandbreite und Energie. Interoperabilität ist die Fähigkeit verschiedener Systemtypen reibungslos zusammenzuarbeiten und kann helfen, heterogenen Geräte im IoT zu verwalten. Die Semantische Interoperabilität stellt sicher, dass die Bedeutung von Daten und das gemeinsame Verständnis des Vokabulars zwischen den Systemen vorhanden ist. Viele Organisationen und Unternehmen arbeiten an Standards und Lösungen für die Interoperabilität im IoT, bieten aber nur Insellösungen an. Die kommerziellen Lösungen führen jedoch zu einer Lieferantenbindung. Sie konzentrieren sich auf zentralisierte Ansätze wie Cloud-basierte Lösungen. Wir verfolgen einen dezentralen Ansatz, nämlich Edge Computing, und sehen die Verwaltung von IoT-Geräten aus der Perspektive des Netzwerkkonfigurationsmanagements. In dieser Arbeit wird ein Framework für das Netzwerkkonfigurationsmanagement heterogener IoT-Geräte mit begrenzten Rechenressourcen unter Verwendung semantischer Beschreibungen für die Interoperabilität vorgestellt. Das MYNO-Framework steht für die verwendeten Technologien MQTT, YANG, NETCONF und Ontologie. Das NETCONF-Protokoll ist der IETF-Standard für das Netzwerkkonfigurations-management und verwendet YANG als Datenmodellierungssprache. Das MQTT-Protokoll ist der De-facto-Standard im IoT. Die semantischen Beschreibungen enthalten eine detaillierte Liste der Gerätefunktionen. Sie basieren auf der oneM2M Base-Ontologie und verwenden Semantic Web Standards. Das Konzept eines Virtuellen Geräts wurde basierend auf den semantischen Gerätebeschreibungen eingeführt und implementiert. Der modellgesteuerte NETCONF Web-Client wird automatisch auf Basis von YANG generiert, das auf Basis der semantischen Gerätebeschreibung erstellt wird. Wir demonstrieren die Machbarkeit des MYNO Ansatzes in verschiedenen Anwendungsfällen: Sensor- und Aktuator-Szenarien sowie Ereigniskonfiguration und -auslösung. Eine der Sicherheitsaufgaben des Netzwerkmanagements ist die Verteilung von Firmware-Updates. Das MYNO Update Protocol (MUP) wurde auf den Geräten CC2538dk und 6LoWPAN Netzwerk entwickelt und evaluiert. Für die Bewertung der Leistung und Skalierbarkeit des MYNO-Frameworks wurde ein Precision Agriculture Demonstrator mit 10 ESP-32 NodeMCU Geräten eingerichtet. Zusammenfassend konnten wir mit dem MYNO-Framework zeigen, dass der semantische Ansatz für Geräte mit limitierten Rechenressourcen im Internet of Things machbar ist. KW - Internet of Things KW - Network Management KW - MQTT KW - Ontology KW - Interoperability KW - Netzwerk Management KW - Interoperabilität KW - Sensornetzwerke KW - Ontologie KW - 6LoWPAN KW - Semantic Web KW - IoT KW - NETCONF KW - oneM2M Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-529846 ER - TY - THES A1 - Runge, Alexandra T1 - Multispectral time series analyses with Landsat and Sentinel-2 to assess permafrost disturbances in North Siberia T1 - Multispektrale Zeitreihenanalyse mit Landsat und Sentinel-2 zur Einschätzung von Permafroststörungen in Nordsibirien N2 - Permafrost is warming globally, which leads to widespread permafrost thaw and impacts the surrounding landscapes, ecosystems and infrastructure. Especially ice-rich permafrost is vulnerable to rapid and abrupt thaw, resulting from the melting of excess ground ice. Local remote sensing studies have detected increasing rates of abrupt permafrost disturbances, such as thermokarst lake change and drainage, coastal erosion and RTS in the last two decades. All of which indicate an acceleration of permafrost degradation. In particular retrogressive thaw slumps (RTS) are abrupt disturbances that expand by up to several meters each year and impact local and regional topographic gradients, hydrological pathways, sediment and nutrient mobilisation into aquatic systems, and increased permafrost carbon mobilisation. The feedback between abrupt permafrost thaw and the carbon cycle is a crucial component of the Earth system and a relevant driver in global climate models. However, an assessment of RTS at high temporal resolution to determine the dynamic thaw processes and identify the main thaw drivers as well as a continental-scale assessment across diverse permafrost regions are still lacking. In northern high latitudes optical remote sensing is restricted by environmental factors and frequent cloud coverage. This decreases image availability and thus constrains the application of automated algorithms for time series disturbance detection for large-scale abrupt permafrost disturbances at high temporal resolution. Since models and observations suggest that abrupt permafrost disturbances will intensify, we require disturbance products at continental-scale, which allow for meaningful integration into Earth system models. The main aim of this dissertation therefore, is to enhance our knowledge on the spatial extent and temporal dynamics of abrupt permafrost disturbances in a large-scale assessment. To address this, three research objectives were posed: 1. Assess the comparability and compatibility of Landsat-8 and Sentinel-2 data for a combined use in multi-spectral analysis in northern high latitudes. 2. Adapt an image mosaicking method for Landsat and Sentinel-2 data to create combined mosaics of high quality as input for high temporal disturbance assessments in northern high latitudes. 3. Automatically map retrogressive thaw slumps on the landscape-scale and assess their high temporal thaw dynamics. We assessed the comparability of Landsat-8 and Sentinel-2 imagery by spectral comparison of corresponding bands. Based on overlapping same-day acquisitions of Landsat-8 and Sentinel-2 we derived spectral bandpass adjustment coefficients for North Siberia to adjust Sentinel-2 reflectance values to resemble Landsat-8 and harmonise the two data sets. Furthermore, we adapted a workflow to combine Landsat and Sentinel-2 images to create homogeneous and gap-free annual mosaics. We determined the number of images and cloud-free pixels, the spatial coverage and the quality of the mosaic with spectral comparisons to demonstrate the relevance of the Landsat+Sentinel-2 mosaics. Lastly, we adapted the automatic disturbance detection algorithm LandTrendr for large-scale RTS identification and mapping at high temporal resolution. For this, we modified the temporal segmentation algorithm for annual gradual and abrupt disturbance detection to incorporate the annual Landsat+Sentinel-2 mosaics. We further parametrised the temporal segmentation and spectral filtering for optimised RTS detection, conducted further spatial masking and filtering, and implemented a binary object classification algorithm with machine-learning to derive RTS from the LandTrendr disturbance output. We applied the algorithm to North Siberia, covering an area of 8.1 x 106 km2. The spectral band comparison between same-day Landsat-8 and Sentinel-2 acquisitions already showed an overall good fit between both satellite products. However, applying the acquired spectral bandpass coefficients for adjustment of Sentinel-2 reflectance values, resulted in a near-perfect alignment between the same-day images. It can therefore be concluded that the spectral band adjustment succeeds in adjusting Sentinel-2 spectral values to those of Landsat-8 in North Siberia. The number of available cloud-free images increased steadily between 1999 and 2019, especially intensified after 2016 with the addition of Sentinel-2 images. This signifies a highly improved input database for the mosaicking workflow. In a comparison of annual mosaics, the Landsat+Sentinel-2 mosaics always fully covered the study areas, while Landsat-only mosaics contained data-gaps for the same years. The spectral comparison of input images and Landsat+Sentinel-2 mosaic showed a high correlation between the input images and the mosaic bands, testifying mosaicking results of high quality. Our results show that especially the mosaic coverage for northern, coastal areas was substantially improved with the Landsat+Sentinel-2 mosaics. By combining data from both Landsat and Sentinel-2 sensors we reliably created input mosaics at high spatial resolution for comprehensive time series analyses. This research presents the first automatically derived assessment of RTS distribution and temporal dynamics at continental-scale. In total, we identified 50,895 RTS, primarily located in ice-rich permafrost regions, as well as a steady increase in RTS-affected areas between 2001 and 2019 across North Siberia. From 2016 onward the RTS area increased more abruptly, indicating heightened thaw slump dynamics in this period. Overall, the RTS-affected area increased by 331 % within the observation period. Contrary to this, five focus sites show spatiotemporal variability in their annual RTS dynamics, alternating between periods of increased and decreased RTS development. This suggests a close relationship to varying thaw drivers. The majority of identified RTS was active from 2000 onward and only a small proportion initiated during the assessment period. This highlights that the increase in RTS-affected area was mainly caused by enlarging existing RTS and not by newly initiated RTS. Overall, this research showed the advantages of combining Landsat and Sentinel-2 data in northern high latitudes and the improvements in spatial and temporal coverage of combined annual mosaics. The mosaics build the database for automated disturbance detection to reliably map RTS and other abrupt permafrost disturbances at continental-scale. The assessment at high temporal resolution further testifies the increasing impact of abrupt permafrost disturbances and likewise emphasises the spatio-temporal variability of thaw dynamics across landscapes. Obtaining such consistent disturbance products is necessary to parametrise regional and global climate change models, for enabling an improved representation of the permafrost thaw feedback. N2 - Permafrostböden erwärmen sich global, was zu weit verbreitetem Auftauen des Permafrosts führt und die angrenzenden Landschaften, Ökosysteme und Infrastruktur beeinflusst. Insbesondere eisreicher Permafrostboden ist anfällig für schnelles und abruptes Auftauen. Lokale Fernerkundungsstudien haben zunehmende Raten von abrupten Permafroststörungen festgestellt, was auf eine beschleunigte Degradation des Permafrostbodens hinweist. Vor allem Taurutschungen sind sehr abrupte Störungen, die sich jedes Jahr um bis zu mehreren Metern vergrößern und damit ihre Umgebung stark verändern. Unter anderem erhöht sich die Freisetzung von Kohlenstoff. Es ist daher wichtig zu bestimmen, wie viel und wie schnell Permafrostböden auftauen, um dieses auch in globale Klimamodelle einfließen lassen zu können. Primär, fehlen Untersuchungen mit vielen regelmäßigen Datenpunkten, um die zeitliche Entwicklung der Auftauprozesse zu bestimmen und die wichtigsten Taugründe zu ermitteln. Ferner fehlt die Untersuchung von abrupten Permafrosttauen für eine große Region. Die Fernerkundungsdatengrundlage für nördliche Breitengrade ist sehr gering, wodurch viele Untersuchungsalgorithmen nicht angewendet werden können. Das Hauptziel ist besser zu verstehen wo abrupte Permafroststörungen auftreten und wie schnell sie sich entwickeln und dies für eine große Region zu bestimmen. Folgende Forschungsziele wurden bearbeitet: 1. Die Bilddaten von Landsat und Sentinel-2 für eine gemeinsame Analysen in nördlichen hohen Breitengraden nutzen, 2. Eine Bildmosaik-Methode anpassen, so dass Landsat und Sentinel-2 Daten gemeinsam genutzt werden können, und 3. Automatisiert Identifizierung von Taurutschungen und die Untersuchung ihrer zeitlichen Entwicklung. Dafür haben wir Landsat-8 und Sentinel-2 Bilder verglichen und sie Werte bestimmt, um sie miteinander anzupassen. Des Weiteren haben wir Mosaike aus Landsat und Sentinel-2 Daten erstellt. Als letzten haben wir einen Algorithmus zur Erkennung von Permafroststörungen angepasst. Das Studiengebiet war Nordsibirien. Die Anpassungwerte von Landsat-8 und Sentinel-2 sorgen für eine gute Angleichung der Bilder. Die gemeinsamen Landsat und Sentinel-2 Mosaike decken das Untersuchungsgebiet gut ab und haben keine Datenlücken. Dies ist besonders für nördliche Küstenregionen eine Verbesserung. Mit den Landsat und Sentinel-2 Mosaiken kann der Algorithmus zur Erkennung von abrupten Permafroststörungen auf eine große Region angewendet werden. Wir haben 50.895 Taurutschungen hauptsächlich in eisreichen Permafrostregionen identifiziert. Die Fläche mit Taurutschungen hat sich von 2001 bis 2019 erhöht in Nordsibieren. Die Taurutschen waren ab 2016 besonders aktiv. Insgesamt ist die Fläche um 331 % angestiegen. Verschiedene lokale Untersuchungsgebiete zeigten, dass sich die Taurutschungen in manchen Jahren mehr und in anderen weniger entwickeln, was mit unterschiedlichen Taugründen zusammenhängt. Die meisten Taurutschungen gab es ab 2000 und nur wenig Neue entwickelten sich später. Dies zeigt, dass hauptsächlich bestehende Taurutschungen größer werden und zum Permafrosttauen beitragen. Insgesamt zeigte diese Untersuchung die Vorteile Landsat und Sentinel-2 Daten gemeinsam in nördlichen Breitengraden zu nutzen. Die gemeinsamen Mosaike helfen den Algorithmus zur Erkennung von Permafroststörungen anzuwenden. Unsere Ergebnisse zeigen die Taurutschungen in Nordsibirien und wie viel sie in den letzten 20 Jahren größer geworden sind. Die Taurutschungen entwickeln sich in verschiedenen Regionen zeitlich unterschiedlich. Dieses Ergebnis hilft Permafroststörungen besser in Klimamodelle einzubinden. KW - Remote Sensing KW - permafrost landscapes KW - time series KW - permafrost thaw disturbances KW - northern high latitudes KW - Fernerkundung KW - nördliche hohe Breitengrade KW - Permafrostlandschaften KW - Permafrost-Taustörungen KW - Zeitserie KW - Erdbeobachtung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-522062 ER - TY - THES A1 - Ruiz-Monroy, Ricardo T1 - Organic geochemical characterization of the Yacoraite Formation (NW-Argentina)-paleoenvironment and petroleum potential T1 - Organische geochemische Charakterisierung der Yacoraite-Formation (NW-Argentinien) – Paläoumgebung und Erdölpotenzial T1 - Caracterización geoquímica orgánica de la Formación Yacoraite (NO-Argentina) -paleoambiente y potencial petrolero N2 - This dissertation was carried out as part of the international and interdisciplinary graduate school StRATEGy. This group has set itself the goal of investigating geological processes that take place on different temporal and spatial scales and have shaped the southern central Andes. This study focuses on claystones and carbonates of the Yacoraite Fm. that were deposited between Maastricht and Dan in the Cretaceous Salta Rift Basin. The former rift basin is located in northwest Argentina and is divided into the sub-basins Tres Cruces, Metán-Alemanía and Lomas de Olmedo. The overall motivation for this study was to gain new knowledge about the evolution of marine and lacustrine conditions during the Yacoraite Fm. Deposit in the Tres Cruces and Metán-Alemanía sub-basins. Other important aspects that were examined within the scope of this dissertation are the conversion of organic matter from Yacoraite Fm. into oil and its genetic relationship to selected oils produced and natural oil spills. The results of my study show that the Yacoraite Fm. began to be deposited under marine conditions and that a lacustrine environment developed by the end of the deposition in the Tres Cruces and Metán-Alemanía Basins. In general, the kerogen of Yacoraite Fm. consists mainly of the kerogen types II, III and II / III mixtures. Kerogen type III is mainly found in samples from the Yacoraite Fm., whose TOC values are low. Due to the adsorption of hydrocarbons on the mineral surfaces (mineral matrix effect), the content of type III kerogen with Rock-Eval pyrolysis in these samples could be overestimated. Investigations using organic petrography show that the organic particles of Yacoraite Fm. mainly consist of alginites and some vitrinite-like particles. The pyrolysis GC of the rock samples showed that the Yacoraite Fm. generates low-sulfur oils with a predominantly low-wax, paraffinic-naphthenic-aromatic composition and paraffinic wax-rich oils. Small proportions of paraffinic, low-wax oils and a gas condensate-generating facies are also predicted. Here, too, mineral matrix effects were taken into account, which can lead to a quantitative overestimation of the gas-forming character. The results of an additional 1D tank modeling carried out show that the beginning (10% TR) of the oil genesis took place between ≈10 Ma and ≈4 Ma. Most of the oil (from ≈50% to 65%) was generated prior to the development of structural traps formed during the Plio-Pleistocene Diaguita deformation phase. Only ≈10% of the total oil generated was formed and potentially trapped after the formation of structural traps. Important factors in the risk assessment of this petroleum system, which can determine the small amounts of generated and migrated oil, are the generally low TOC contents and the variable thickness of the Yacoraite Fm. Additional risks are associated with a low density of information about potentially existing reservoir structures and the quality of the overburden. N2 - Diese Dissertation wurde im Rahmen des internationalen und interdisziplinären Graduiertenkollegs StRATEGy durchgeführt. Diese Gruppe hat sich zum Ziel gesetzt, geologische Prozesse zu untersuchen, die auf unterschiedlichen zeitlichen und räumlichen Skalen ablaufen und die südlichen Zentralanden geprägt haben. Diese Studie konzentriert sich auf die Tonsteine und Karbonate der Yacoraite Fm., die zwischen Maastricht und Dan im kreidezeitlichen Salta-Grabenbecken abgelagert wurden. Das ehemalige Riftbecken liegt im Nordwesten Argentiniens und gliedert sich in die Teilbecken Tres Cruces, Metán-Alemanía und Lomas de Olmedo. Die übergreifende Motivation für diese Studie war es, neue Erkenntnisse über die Entwicklung der marinen und lakustrinen Bedingungen während der Ablagerung der Yacoraite Fm. in den Tres Cruces und Metán-Alemanía Sub-Becken zu gewinnen. Weitere wichtige Aspekte, die im Rahmen dieser Dissertation untersucht wurden, sind die Umwandlung von organischer Materie der Yacoraite Fm. in Öl sowie deren genetische Beziehung zu ausgewählten produzierten Ölen und natürlichen Ölaustritten. Die Ergebnisse meiner Studie zeigen, dass die Ablagerung der Yacoraite Fm. unter marinen Bedingungen begann und sich bis zum Ende der Ablagerung in den Tres Cruces- und Metán-Alemanía-Becken ein lakustrines Milieu entwickelte. Im Allgemeinen besteht das Kerogen der Yacoraite Fm. überwiegend aus den Kerogentypen II, III und II/III-Mischungen. Der Kerogentyp III findet sich vor allem in Proben aus der Yacoraite Fm., deren TOC-Werte niedrig sind. Aufgrund der Adsorption von Kohlenwasserstoffen an den Mineraloberflächen (Mineralmatrixeffekt) könnte der Gehalt an Typ-III-Kerogen mit der Rock-Eval-Pyrolyse in diesen Proben überschätzt werden. Untersuchungen mittels organischer Petrographie zeigen, dass die organischen Partikel der Yacoraite Fm. hauptsächlich aus Alginiten und einigen Vitrinit-artigen Partikeln bestehen. Die Pyrolyse-GC der Gesteinsproben zeigte, dass die Yacoraite Fm. schwefelarme Öle mit einer überwiegend Wachs-armen paraffinisch-naphthenisch-aromatischen Zusammensetzung und paraffinische Wachs-reiche Öle generiert. Geringe Anteile paraffinischer, Wachs-armer Öle und einer Gaskondensat-generierenden Fazies werden ebenfalls vorausgesagt. Auch hier wurden Mineralmatrixeffekte berücksichtigt, die zu einer quantitativen Überschätzung des gasbildenden Charakters führen können. Die Ergebnisse einer zusätzlich durchgeführten 1D-Beckenmodellierung zeigen, dass der Beginn (10 %TR) der Ölgenese zwischen ≈10 Ma und ≈4 Ma stattfand. Der größte Teil des Öls (von ≈50 % bis 65 %) wurde vor der Entwicklung struktureller Fallen gebildet, die während der plio-pleistozänen Diaguita Deformatiosphase gebildet wurden. Nur ≈10 % des insgesamt generierten Öls wurde nach der Entstehung struktureller Fallen gebildet und potentiell darin gefangen. Wichtige Faktoren in der Risikobewertung dieses Erdölsystems, welche die geringen Mengen an generiertem und migriertem Öl bestimmen können, stellen die allgemein niedrigen TOC-Gehalte und die variable Mächtigkeit der Yacoraite Fm. dar. Weitere Risiken sind mit einer niedrigen Informationsdichte über potentiell vorhandene Reservoirstrukturen und die Qualität der Deckgesteine verbunden. N2 - This dissertation was carried out within the framework of the international and interdisciplinary research training group StRATEGy whose aim is to study geological processes occurring at different times and spatial scales that have shaped the southern Central Andes. The study focuses on the shales and carbonates of the Yacoraite Fm. deposited in the Salta rift basin (NW Argentina) during the Maastrichtian to Danian, and is divided into the Tres Cruces, Metán-Alemanía, and Lomas de Olmedo sub-basins. The Yacoraite Fm. is considered the potential source rock for most oil fields in NW Argentina. The overall motivation for this research was to provide new insights into the occurrence of marine and lacustrine settings during the deposition of the Yacoraite Fm. in the Tres Cruces and Metán-Alemanía sub-basins. Other important aspects assessed in this research are the likely transformation of organic matter of the Yacoraite Fm. into oil as well as its genetic relation to selected produced oils and natural oil seep samples. Fifty-two outcropping samples from the Yacoraite Fm. collected in the Tres Cruces and Metán-Alemanía sub-basins, seven oil seep samples from the Tres Cruces and Lomas de Olmedo sub-basins and eight produced oils from the latter sub-basin were evaluated. Characterization of the depositional environment and kerogen types of the Yacoraite Fm. was performed using various geochemical analyses encompassing pyrolysis, chromatography, spectrometry and petrography. Minerals were analyzed by X-ray diffraction. The elemental composition of rock samples was determined by X-ray fluorescence and more precise quantification was done by ICP-MS analysis. The study of the hydrocarbon potential of the Yacoraite Fm. was addressed by the following analyses of its organic matter and modeling procedures: • The assessment of the amount, quality, and thermal maturity of the organic matter; • Measurement of the rate of thermal cracking (bulk kinetics) of the organic matter into oil; • The extrapolation of high heating rate kinetics to low heating rates at geological conditions using the first-order kinetic approach provided by the Arrhenius equation; • The prediction of the composition (compositional kinetics) and the phase behavior of its first-formed petroleum; • The specific activation energy distribution of the bulk kinetics of representative samples collected in the Tres Cruces sub-basin were used in the 1D-basin modeling, enabling a comparison between the timing of oil generation and the timing of the formation of structural traps. Subsequently, the implications of these variables on the accumulation of oil in the Tres Cruces sub-basin were assessed. The characterization of produced oils and oil seep samples was carried out by chromatographic and spectrometric techniques. Genetic relationships (source rock-oil correlation) of the oil seep samples in the Tres Cruces sub-basin was studied by comparing their compositional affinities to rock extracts from outcropping samples of the Yacoraite Fm. in the same sub-basin. Since no rock samples were available from the Lomas de Olmedo sub-basin, the source-rock correlation for the oil seep samples and the produced oils assume that the Yacoraite Fm. in this sub-basin has similar organofacies as in the Tres Cruces and Metán-Alemanía sub-basins. The results of this research indicate that the deposition of the Yacoraite Fm. began in marine environments. Lacustrine settings developed during the middle part and predominated towards the end of the deposition in the Tres Cruces and Metán-Alemanía sub-basins. In general, the kerogen of the Yacoraite Fm. is predominantly composed of Type II, II/III, and Type III kerogens. The latter is largely found in samples from the Yacoraite Fm. whose TOC values were low. In these samples, the content of Type III kerogen could be overestimated with Rock-Eval pyrolysis due to hydrocarbon adsorption on mineral surfaces (mineral-matrix effect). Organic petrography showed that the organic particles of the Yacoraite Fm. correspond mainly to alginites and some vitrinite-like particles. Pyrolysis-GC of whole-rock samples indicated that the Yacoraite Fm. generates low sulphur oils with a mainly Paraffinic-Naphthenic-Aromatic Low Wax composition and Paraffinic High Wax oils. Minor contributions of Paraffinic Low Wax Oil and Gas condensate-generating facies are also predicted. Mineral-matrix effects can lead to an overestimation of the gas-prone character and were considered. Extrapolation of bulk kinetics experiments to a geological heating rate of 3 K/Myr reveals that the oil generation from the Yacoraite Fm. in the Tres Cruces sub-basin occurs in a range of approximately 60 °C. The onset (10%TR) of oil generation occurs at geological temperatures from 108 °C to 132 °C. The complete transformation of the organic matter into oil (90%TR) is reached at temperatures between 142 °C and 169 °C. The gas exsolution from the oil occurs at pressures below 200 bar as predicted from PVT-compatible compositional kinetics with subsequent separation of two phases and the increase in liquid viscosity at depths <1.8 km. The analysis of outcrop samples of the Yacoraite Fm. collected in the Metán-Alemanía and Tres Cruces sub-basins document that their maturity is at least at the onset of oil generation. The formation is more mature in the deeper buried centers of the basins being in the main oil window, as indicated by the presence of genetically related oil seep samples and supported by predictions of thermal modeling. The results of 1D-basin modeling indicate that the onset (10%TR) of oil generation occurred between ≈10 Ma and ≈4 Ma. Most of the oil (from ≈50% to 65%) was generated before the structural traps associated with the Diaguita tectonic phase (c.a. 2.5 Ma) formed. The amount of oil generated after the formation of structural traps and potentially accumulated in them accounts for ≈10%. The petroleum system risk assessment identifies the generally low TOC content and variable thickness of Yacoraite Fm. as important factors that may determine the low volumes of generated and migrated oil. Additional risks are associated with the lack of information regarding the existence of reservoirs and the quality of the seals. Oil-source rock correlations based on depositional-, age- and maturity-related biomarkers show that the oil samples of the Caimancito oil field and from Well-10 of the Martinez del Tineo oil field were generated from the Yacoraite Fm., while partial correlations are determined between this formation and the oil samples from Well-18 and Chirete x100-1. The oil samples from well-11 and Río Pescado show no correlation and were sourced from a different rock. According to the project partners, it is most likely the Devonian Los Monos Fm. The oil-oil correlations reflect the source oil-source rock correlations mentioned above and were supported by the ratios of light hydrocarbons using the classical approach of Halpern (1995). The Río Pescado and well-11 oil samples lack most of the biomarkers, which distinguishes them from the rest of the oils. The sample from well-11 was found to be a mixture of oils of varying thermal maturity. The least mature oil in this mixture contains stigmastane and correlates with the oil sample from the Caimancito-21 well. The most mature sample is characterized by higher concentrations of diamantanes and adamantanes. An anomalously high uranium content was measured in one sample at the base of the Yacoraite Fm. in the west sector of the Metán-Alemanía sub-basin. High radiation doses appear to be the cause for the very low hydrocarbon generation during Rock-Eval pyrolysis. The sample is composed mainly of alginites with minor amounts of terrigenous material and plots in the field of Type IV kerogen in a pseudo-Van Krevelen diagram. Since radiation induces aromatization in the kerogen structure, it potentially mimics higher thermal maturity as determined by vitrinite reflectance. The higher Tmax is caused by the high adsorption of hydrocarbons on the highly-aromatized kerogen and the contribution of hydrocarbons adsorption on mineral surfaces. The lack of biomarkers in the solvent-extracted portion (bitumen) of the same highly-irradiated sample prevents the characterization of kerogen type and the depositional environment. However, unlike Py-GC results for kerogen, GC-FID analysis on extracted bitumen still shows n-alkanes, pristane, and phytane. This may not only indicate a different response of bitumen and kerogen to radiation, at least in the magnitude, but also offers an alternative for kerogen typing in samples where the kerogen is highly affected by radiation which makes its classification unreliable. In this example, the ratios of pristane/n-C17 and phytane/n-C18 in bitumen indicate that a Type II/III kerogen composes this sample, which is consistent with the presence of alginite as the main organic component and some vitrinite-like particles. In conclusion, molecular geochemical analyses have documented the presence of gammacerane in extracts of the Yacoraite Fm. which indicate the development of hypersaline conditions as well as the changing depositional environment of the Yacoraite Fm. from marine towards lacustrine settings. The variability of organofacies of this formation in the Tres Cruces and Metán-Alemanía sub-basins is a consequence of the changes in the depositional environment. Future work may provide insights into the evolution of paleosalinity during Yacoraite Fm. deposition by using specific proxies e.g., methyltrimethyltridecylchromans. Future research may include characterizing the NSO fraction of these oils as well as elucidating possible fractionation during expulsion, migration, and accumulation. A regional study is needed to clarify the uncertainties associated with the existence of the reservoir, the quality of the seals and to improve the data-input for thermal modeling for the Tres Cruces sub-basin. Studies that aim to increase the database of the concentration of methyldiamantanes (3- + 4-) and methyladamantanes (1- + 2-) in produced oils will provide a threshold for the assessment of oil cracking. Further research is aimed at helping to understand how the distribution of uranium can affect the different responses of bitumen and kerogen to radiation. KW - Yacoraite Formation KW - Argentina KW - Caimancito oil field KW - Salta basin KW - Cretaceous basin KW - Martinez del Tineo KW - Chirete KW - Ramos X-11 KW - Río Pescado KW - radiolysis KW - kerogen kinetics KW - PhaseKinetics KW - radiation and chemical properties KW - oil seeps KW - organofacies KW - organofacies KW - mineral matrix KW - age-related biomarkers KW - maturity-related biomarkers KW - biodegradation KW - Diaguita KW - Argentinien KW - Caimancito-Ölfeld KW - Chirete KW - Kreidebecken KW - Diaguita KW - Martinez del Tineo KW - Phasenkinetik KW - Ramos X-11 KW - Río Pescado KW - Salta-Becken KW - Yacoraite Formation KW - biologischer Abbau KW - Kerogenkinetik KW - Reifegradbezogene Biomarker KW - mineralische Matrix KW - natürlichen Ölaustritten KW - Organofazies KW - radiolyse KW - Strahlung und chemische Eigenschaften KW - Argentina KW - Campo petrolero Caimancito KW - Chirete KW - Cuenca Cretácica KW - Diaguita KW - Martinez del Tineo KW - Cinética de fases KW - Formación Yacoraite KW - biomarcadores diagnósticos de edad KW - biodegradación KW - Cinética del querógeno KW - biomarcadores diagnósticos de madurez KW - matríz mineral KW - manaderos de petróleo KW - radiólisis KW - radiación y propiedades químicas Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-518697 ER - TY - THES A1 - Rottler, Erwin T1 - Transient merging of two Rhine flow regimes from climate change T1 - Vorübergehende Überlagerung von zwei Abflussregimen im Rhein durch den Klimawandel N2 - River flooding poses a threat to numerous cities and communities all over the world. The detection, quantification and attribution of changes in flood characteristics is key to assess changes in flood hazard and help affected societies to timely mitigate and adapt to emerging risks. The Rhine River is one of the major European rivers and numerous large cities reside at its shores. Runoff from several large tributaries superimposes in the main channel shaping the complex from regime. Rainfall, snowmelt as well as ice-melt are important runoff components. The main objective of this thesis is the investigation of a possible transient merging of nival and pluvial Rhine flood regimes under global warming. Rising temperatures cause snowmelt to occur earlier in the year and rainfall to be more intense. The superposition of snowmelt-induced floods originating from the Alps with more intense rainfall-induced runoff from pluvial-type tributaries might create a new flood type with potentially disastrous consequences. To introduce the topic of changing hydrological flow regimes, an interactive web application that enables the investigation of runoff timing and runoff season- ality observed at river gauges all over the world is presented. The exploration and comparison of a great diversity of river gauges in the Rhine River Basin and beyond indicates that river systems around the world undergo fundamental changes. In hazard and risk research, the provision of background as well as real-time information to residents and decision-makers in an easy accessible way is of great importance. Future studies need to further harness the potential of scientifically engineered online tools to improve the communication of information related to hazards and risks. A next step is the development of a cascading sequence of analytical tools to investigate long-term changes in hydro-climatic time series. The combination of quantile sampling with moving average trend statistics and empirical mode decomposition allows for the extraction of high resolution signals and the identification of mechanisms driving changes in river runoff. Results point out that the construction and operation of large reservoirs in the Alps is an important factor redistributing runoff from summer to winter and hint at more (intense) rainfall in recent decades, particularly during winter, in turn increasing high runoff quantiles. The development and application of the analytical sequence represents a further step in the scientific quest to disentangling natural variability, climate change signals and direct human impacts. The in-depth analysis of in situ snow measurements and the simulations of the Alpine snow cover using a physically-based snow model enable the quantification of changes in snowmelt in the sub-basin upstream gauge Basel. Results confirm previous investigations indicating that rising temperatures result in a decrease in maximum melt rates. Extending these findings to a catchment perspective, a threefold effect of rising temperatures can be identified: snowmelt becomes weaker, occurs earlier and forms at higher elevations. Furthermore, results indicate that due to the wide range of elevations in the basin, snowmelt does not occur simultaneously at all elevation, but elevation bands melt together in blocks. The beginning and end of the release of meltwater seem to be determined by the passage of warm air masses, and the respective elevation range affected by accompanying temperatures and snow availability. Following those findings, a hypothesis describing elevation-dependent compensation effects in snowmelt is introduced: In a warmer world with similar sequences of weather conditions, snowmelt is moved upward to higher elevations, i.e., the block of elevation bands providing most water to the snowmelt-induced runoff is located at higher elevations. The movement upward the elevation range makes snowmelt in individual elevation bands occur earlier. The timing of the snowmelt-induced runoff, however, stays the same. Meltwater from higher elevations, at least partly, replaces meltwater from elevations below. The insights on past and present changes in river runoff, snow covers and underlying mechanisms form the basis of investigations of potential future changes in Rhine River runoff. The mesoscale Hydrological Model (mHM) forced with an ensemble of climate projection scenarios is used to analyse future changes in streamflow, snowmelt, precipitation and evapotranspiration at 1.5, 2.0 and 3.0 ◦ C global warming. Simulation results suggest that future changes in flood characteristics in the Rhine River Basin are controlled by increased precipitation amounts on the one hand, and reduced snowmelt on the other hand. Rising temperatures deplete seasonal snowpacks. At no time during the year, a warming climate results in an increase in the risk of snowmelt-driven flooding. Counterbalancing effects between snowmelt and precipitation often result in only little and transient changes in streamflow peaks. Although, investigations point at changes in both rainfall and snowmelt-driven runoff, there are no indications of a transient merging of nival and pluvial Rhine flood regimes due to climate warming. Flooding in the main tributaries of the Rhine, such as the Moselle River, as well as the High Rhine is controlled by both precipitation and snowmelt. Caution has to be exercised labelling sub-basins such as the Moselle catchment as purely pluvial-type or the Rhine River Basin at Basel as purely nival-type. Results indicate that this (over-) simplifications can entail misleading assumptions with regard to flood-generating mechanisms and changes in flood hazard. In the framework of this thesis, some progress has been made in detecting, quantifying and attributing past, present and future changes in Rhine flow/flood characteristics. However, further studies are necessary to pin down future changes in the flood genesis of Rhine floods, particularly very rare events. N2 - Überflutungen durch Flusshochwasser stellen für zahlreiche Städte und Gemeinden auf der ganzen Welt eine große Gefahr dar. Die Detektion, Quantifizierung und Attribuierung sich verändernder Hochwassereigenschaften ist wichtig, um Änderungen in der Gefahrenlage zu bewerten und Anrainerstaaten die Möglichkeit zur Abschwächung und Anpassung an das Hochwasserrisiko zu geben. Der Rhein ist einer der großen Flüsse Europas und zahlreiche Städte liegen an seinen Ufern. Sich überlagernde Abflüsse aus den großen Zuflüssen prägen das komplexe Abflussregime des Rheins. Sowohl Regen, Schneeschmelze als auch Eisschmelze sind wichtige Abflusskomponenten. Vorrangiges Ziel dieser Arbeit ist die Untersuchung der Möglichkeit einer durch den Klimawandel verursachten vorübergehenden Überlagerung von nivalen und pluvial Hochwasserereignissen im Rheingebiet. Steigende Temperaturen können zu einer früheren Schneeschmelze und intensivieren Niederschlägen führen. Die Überlagerung von durch Schneeschmelze angetriebenen Spitzenabflüssen aus den Alpen mit intensiveren Hochwasserereignissen aus den pluvialen Zuflüssen, könnte zur Bildung eines neuen Hochwassertyps mit möglicherweise katastrophalen Folgen führen. Eine interaktive Web-Anwendung, die es ermöglicht, Zeitpunkt und Saisonalität von Abfluss auf der ganzen Welt zu untersuchen, führt in die Thematik sich verändernder hydrologischer Abflussregime ein. Die Untersuchungen und der Vergleich von unterschiedlichsten Abflusspegeln im Rheingebiet und darüber hinaus weißen darauf hin, dass sich Flusssysteme auf der ganzen Welt im Wandel befinden. In der Gefahren- und Risikoforschung ist die Bereitstellung von Hintergrundinformationen und Informationen zu aktuellen Entwicklungen für Anwohner und Entscheidungsträger auf leicht zugängliche Weise von großer Bedeutung. Zukünftige Studien sollten sich das Potential wissenschaftlicher Web-Anwendungen, um die Kommunikation in Bezug auf Naturgefahren und -risiken zu verbessern, verstärkt zu Nutze machen. Nächster Schritt ist die Entwicklung einer kaskadierenden Sequenz analytischer Methoden, um langfristige Änderungen in hydro-klimatoligischen Zeitreihen zu detektieren. Eine Kombination aus Quantil-Berechnungen, Statistiken basierend auf gleitenden Mittelwerten und empirischer Bandzerlegung ermöglicht die Extraktion hochaufgelöster Signale und die Identifizierungen zu Grunde liegender Antriebsmechanismen. Die Ergebnisse der Analysen zeigen, dass der Bau und Betrieb von großen Stauseen zur Gewinnung von Wasserkraft zu einer Umverteilung von Wasser vom Sommer in den Winter führt. Zudem weisen die Ergebnisse auf (mehr) intensivere Niederschläge hin, die wiederum hohe Abflussquantile intensivieren. Die Entwicklung und Anwendung der analytischen Sequenz stellt einen weiteren Schritt in dem wissenschaftlichen Bestreben, natürliche Klimavariabilität, Signale des Klimawandels und direkte anthropogene Einflüsse zu entwirren, dar. Die detaillierte Untersuchung von Schneemessungen und die Simulation der alpinen Schneedecke mittels physikalisch-basiertem Schneemodell, ermöglicht die Quantifizierung von Änderungen in der Schneeschmelze im Rheingebiet oberhalb von Basel. Steigenden Temperaturen verringern nicht nur hohe Schmelzraten, ein Dreifach-Effekt kann identifiziert werden: Schneeschmelze wird schwächer, findet früher statt und formiert sich in höhere Lagen. Auf Grund der großen Höhenunterschiede im Gebiet, findet die Schneeschmelze nicht gleichzeitig in allen Höhenlagen statt. Simulationen weisen darauf hin, dass Höhenbänder zusammen in Blöcken schmelzen. Der Beginn und das Ende eines Schmelzereignisses scheint durch vorbeiziehende warme Luftmassen und die betroffenen Höhenlagen durch zugehörige Temperaturen und die Schneeverfügbarkeit bestimmt zu werden. Basieren auf diesen Erkenntnissen, wird eine Hypothese, die höhenabhängige Kompensationseffekte in der Schneeschmelze beschreibt, vorgestellt: In einem wärmeren Klima mit einer gleichbleibenden Abfolge von Witterungsbedingungen, findet die Schneeschmelze in höheren Lagen statt, d.h., der Block an Höhenbändern, der den Hauptbestandteil des Schmelzwassers freigibt, ist nach oben verschoben. Die Verschiebung in höhere Lagen führt dazu, dass die Schneeschmelze in einzelnen Höhenbändern früher kommt, der Zeitpunkt des Schmelzereignisses jedoch unverändert bleibt. Schmelzwasser aus höheren Lagen ersetzt, zumindest teilweise, Schmelzwasser aus tieferen Lagen. Die Erkenntnisse über historische und gegenwärtige Änderungen im Abfluss, der Schneedecke und zu Grunde liegenden Mechanismen bilden die Grundlage der Untersuchungen möglicher zukünftiger Änderungen im Abfluss des Rheins. Das für die Mesoskala entwickelte hydrologisiche Modell mHM wird mit einem Ensemble aus Klimaszenarien angetrieben und projizierte Änderungen im Abfluss, der Schneeschmelze, im Niederschlag und der Evapotranspiration bei 1.5, 2.0 und 3.0 ◦ C Erwärmung untersucht. Ergebnisse der hydrologischen Simulationen zeigen, dass künftige Änderungen der Hochwassereigenschaften im Rheingebiet durch zunehmenden Niederschlagsmengen und abnehmende Schneeschmelze bestimmt werden. Steigende Temperaturen verringern saisonale Schneedecken. Zu keinem Zeitpunkt im Jahr führen höhere Temperaturen zu einer Zunahme des Hochwasserrisikos durch die Schneeschmelze. Kompensationseffekte zwischen Schneeschmelze und Niederschlag resultieren oftmals in geringe und nur vorübergehende Erhöhungen von Spitzenabflüssen. Obwohl Untersuchungen auf Veränderungen sowohl in der Schneeschmelze als auch im Niederschlag hinweisen, finden sich keine Hinweise auf eine durch den Klimawandel verursachte vorübergehende Überlagerung von nivalen und pluvialen Hochwasserregimen im Rheingebiet. Hochwasserereignisse in den Hauptzuflüssen, wie zu Beispiel der Mosel, und dem Hochrhein werden sowohl durch Niederschläge als auch Schneeschmelze kontrolliert. Vorsicht muss geübt werden, wenn Teilgebiete, wie das Einzugsgebiet der Mosel als rein pluvial oder das Rheingebiet oberhalb von Basel als rein nival gesehen werden. Die Ergebnisse zeigen, dass diese (zu starke) Vereinfachung zu irreführenden Annahmen bezüglich möglicher Änderungen von Hochwasser verursachender Mechanismen und Hochwassergefahr führen können. Diese Doktorarbeit ist ein Schritt vorwärts im wissenschaftlichen Streben die Detektion, Quantifizierung und Attribuierung vergangener und zukünftiger Veränderungen in den Abfluss- und Hochwasserregimen des Rheins zu verbessern. Weitere Untersuchungen sind nötig, um zukünftige Veränderungen in der Hochwassergenese sehr seltener Hochwasserereignisse einzuschätzen. KW - runoff seasonality KW - Rhine River KW - flooding KW - snowmelt KW - Abflusssaisonalität KW - Rhein KW - Hochwasser KW - Schneeschmelze Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-517665 ER - TY - THES A1 - Rohloff, Tobias T1 - Learning analytics at scale BT - supporting learning and teaching in MOOCs with data-driven insights N2 - Digital technologies are paving the way for innovative educational approaches. The learning format of Massive Open Online Courses (MOOCs) provides a highly accessible path to lifelong learning while being more affordable and flexible than face-to-face courses. Thereby, thousands of learners can enroll in courses mostly without admission restrictions, but this also raises challenges. Individual supervision by teachers is barely feasible, and learning persistence and success depend on students' self-regulatory skills. Here, technology provides the means for support. The use of data for decision-making is already transforming many fields, whereas in education, it is still a young research discipline. Learning Analytics (LA) is defined as the measurement, collection, analysis, and reporting of data about learners and their learning contexts with the purpose of understanding and improving learning and learning environments. The vast amount of data that MOOCs produce on the learning behavior and success of thousands of students provides the opportunity to study human learning and develop approaches addressing the demands of learners and teachers. The overall purpose of this dissertation is to investigate the implementation of LA at the scale of MOOCs and to explore how data-driven technology can support learning and teaching in this context. To this end, several research prototypes have been iteratively developed for the HPI MOOC Platform. Hence, they were tested and evaluated in an authentic real-world learning environment. Most of the results can be applied on a conceptual level to other MOOC platforms as well. The research contribution of this thesis thus provides practical insights beyond what is theoretically possible. In total, four system components were developed and extended: (1) The Learning Analytics Architecture: A technical infrastructure to collect, process, and analyze event-driven learning data based on schema-agnostic pipelining in a service-oriented MOOC platform. (2) The Learning Analytics Dashboard for Learners: A tool for data-driven support of self-regulated learning, in particular to enable learners to evaluate and plan their learning activities, progress, and success by themselves. (3) Personalized Learning Objectives: A set of features to better connect learners' success to their personal intentions based on selected learning objectives to offer guidance and align the provided data-driven insights about their learning progress. (4) The Learning Analytics Dashboard for Teachers: A tool supporting teachers with data-driven insights to enable the monitoring of their courses with thousands of learners, identify potential issues, and take informed action. For all aspects examined in this dissertation, related research is presented, development processes and implementation concepts are explained, and evaluations are conducted in case studies. Among other findings, the usage of the learner dashboard in combination with personalized learning objectives demonstrated improved certification rates of 11.62% to 12.63%. Furthermore, it was observed that the teacher dashboard is a key tool and an integral part for teaching in MOOCs. In addition to the results and contributions, general limitations of the work are discussed—which altogether provide a solid foundation for practical implications and future research. N2 - Digitale Technologien sind Wegbereiter für innovative Bildungsansätze. Das Lernformat der Massive Open Online Courses (MOOCs) bietet einen einfachen und globalen Zugang zu lebenslangem Lernen und ist oft kostengünstiger und flexibler als klassische Präsenzlehre. Dabei können sich Tausende von Lernenden meist ohne Zulassungsbeschränkung in Kurse einschreiben, wodurch jedoch auch Herausforderungen entstehen. Eine individuelle Betreuung durch Lehrende ist kaum möglich und das Durchhaltevermögen und der Lernerfolg hängen von selbstregulatorischen Fähigkeiten der Lernenden ab. Hier bietet Technologie die Möglichkeit zur Unterstützung. Die Nutzung von Daten zur Entscheidungsfindung transformiert bereits viele Bereiche, aber im Bildungswesen ist dies noch eine junge Forschungsdisziplin. Als Learning Analytics (LA) wird das Messen, Erfassen, Analysieren und Auswerten von Daten über Lernende und ihren Lernkontext verstanden, mit dem Ziel, das Lernen und die Lernumgebungen zu verstehen und zu verbessern. Die riesige Menge an Daten, die MOOCs über das Lernverhalten und den Lernerfolg produzieren, bietet die Möglichkeit, das menschliche Lernen zu studieren und Ansätze zu entwickeln, die den Anforderungen von Lernenden und Lehrenden gerecht werden. Der Schwerpunkt dieser Dissertation liegt auf der Implementierung von LA für die Größenordnung von MOOCs und erforscht dabei, wie datengetriebene Technologie das Lernen und Lehren in diesem Kontext unterstützen kann. Zu diesem Zweck wurden mehrere Forschungsprototypen iterativ für die HPI-MOOC-Plattform entwickelt. Daher wurden diese in einer authentischen und realen Lernumgebung getestet und evaluiert. Die meisten Ergebnisse lassen sich auf konzeptioneller Ebene auch auf andere MOOC-Plattformen übertragen, wodurch der Forschungsbeitrag dieser Arbeit praktische Erkenntnisse über das theoretisch Mögliche hinaus liefert. Insgesamt wurden vier Systemkomponenten entwickelt und erweitert: (1) Die LA-Architektur: Eine technische Infrastruktur zum Sammeln, Verarbeiten und Analysieren von ereignisgesteuerten Lerndaten basierend auf einem schemaagnostischem Pipelining in einer serviceorientierten MOOC-Plattform. (2) Das LA-Dashboard für Lernende: Ein Werkzeug zur datengesteuerten Unterstützung der Selbstregulierung, insbesondere um Lernende in die Lage zu versetzen, ihre Lernaktivitäten, ihren Fortschritt und ihren Lernerfolg selbst zu evaluieren und zu planen. (3) Personalisierte Lernziele: Eine Reihe von Funktionen, um den Lernerfolg besser mit persönlichen Absichten zu verknüpfen, die auf ausgewählten Lernzielen basieren, um Leitlinien anzubieten und die bereitgestellten datengetriebenen Einblicke über den Lernfortschritt darauf abzustimmen. (4) Das LA-Dashboard für Lehrende: Ein Hilfsmittel, das Lehrkräfte mit datengetriebenen Erkenntnissen unterstützt, um ihre Kurse mit Tausenden von Lernenden zu überblicken, mögliche Probleme zu erkennen und fundierte Maßnahmen zu ergreifen. Für alle untersuchten Aspekte dieser Dissertation werden verwandte Forschungsarbeiten vorgestellt, Entwicklungsprozesse und Implementierungskonzepte erläutert und Evaluierungen in Fallstudien durchgeführt. Unter anderem konnte durch den Einsatz des Dashboards für Lernende in Kombination mit personalisierten Lernzielen verbesserte Zertifizierungsraten von 11,62% bis 12,63% nachgewiesen werden. Außerdem wurde beobachtet, dass das Dashboard für Lehrende ein entscheidendes Werkzeug und ein integraler Bestandteil für die Lehre in MOOCs ist. Neben den Ergebnissen und Beiträgen werden generelle Einschränkungen der Arbeit diskutiert, die insgesamt eine fundierte Grundlage für praktische Implikationen und zukünftige Forschungsvorhaben schaffen. KW - Learning Analytics KW - MOOCs KW - Self-Regulated Learning KW - E-Learning KW - Service-Oriented Architecture KW - Online Learning Environments Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-526235 ER - TY - THES A1 - Riedl, Simon T1 - Active tectonics in the Kenya Rift T1 - Aktive Tektonik im Keniarift BT - implications for continental rifting and paleodrainage systems BT - Erkenntnisse über kontinentale Riftzonen und Paläogewässersysteme N2 - Magmatische und tektonisch aktive Grabenzonen (Rifts) stellen die Vorstufen entstehender Plattengrenzen dar. Diese sich spreizenden tektonischen Provinzen zeichnen sich durch allgegenwärtige Abschiebungen aus, und die räumliche Verteilung, die Geometrie, und das Alter dieser Abschiebungen lässt Rückschlüsse auf die räumlichen und zeitlichen Zusammenhänge zwischen tektonischer Deformation, Magmatismus und langwelliger Krustendeformation in Rifts zu. Diese Arbeit konzentriert sich auf die Störungsaktivität im Kenia-Rift des känozoischen Ostafrikanischen Grabensystems im Zeitraum zwischen dem mittleren Pleistozän und dem Holozän. Um die frühen Stadien der Entstehung kontinentaler Plattengrenzen zu untersuchen, wird in dieser Arbeit eine zeitlich gemittelte minimale Extensionsrate für den inneren Graben des Nördlichen Kenia-Rifts (NKR) für die letzten 0,5 Mio Jahre abgeleitet. Die Analyse beruht auf Messungen mit Hilfe des digitalen TanDEM-X-Höhenmodells, um die Abschiebungen entlang der vulkanisch-tektonischen Achse des inneren Grabens des NKR zu kartieren und deren Versatzbeträge zu bestimmen. Mithilfe von vorhandenen Geochronologiedaten der deformierten vulkanischen Einheiten sowie in dieser Arbeit erstellten ⁴⁰Ar/³⁹Ar-Datierungen werden zeitlich gemittelte Extensionsraten berechnet. Die Auswertungen zeigen, dass im inneren Graben des NKR die langfristige Extensionsrate für mittelpleistozäne bis rezente Störungen Mindestwerte von 1,0 bis 1,6 mm yr⁻¹ aufweist und lokal allerdings auch Werte bis zu 2,0 mm yr⁻¹ existieren. In Anbetracht der nahezu inaktiven Randstörungen des NKR zeigt sich somit, dass sich die Extension auf die Region der aktiven vulkanisch-tektonischen Achse im inneren Graben konzentriert und somit ein fortgeschrittenes Stadium kontinentaler Extensionsprozesse im NKR vorliegt. In dieser Arbeit wird diese räumlich fokussierte Extension zudem im Rahmen einer Störungsanalyse der jüngsten vulkanischen Erscheinungen des Kenia-Rifts betrachtet. Die Arbeit analysiert mithilfe von Geländekartierungen und eines auf Luftbildern basierenden Geländemodells die Störungscharakteristika der etwa 36 tausend Jahre alten Menengai-Kaldera und der umliegenden Gebiete im zentralen Kenia-Rift. Im Allgemeinen sind die holozänen Störungen innerhalb des Rifts reine, NNO-streichende Abschiebungen, die somit das gegenwärtige tektonische Spannungsfeld wiederspiegeln; innerhalb der Menengai-Kaldera sind die jungen Strukturen jedoch von andauernder magmatischer Aktivität und von Aufdomung überprägt. Die Kaldera befindet sich im Zentrum eines sich aktiv dehnenden Riftsegments und zusammen mit den anderen quartären Vulkanen des Kenia-Rifts lassen sich diese Bereiche als Kernpunkte der extensionalen Störungsaktivität verstehen, die letztlich zu einer weiter entwickelten Phase magmengestützter Kontinentalseparation führen werden. Die bereits seit dem Tertiär andauernde Störungsaktivität im Kenia-Rift führt zur Zergliederung der größeren Rift-Senken in kleinere Segmente und beeinflusst die Sedimentologie und die Hydrologie dieser Riftbecken. Gegenwärtig sind die meisten, durch Störungen begrenzten Becken des Kenia-Rifts hydrologisch isoliert, sie waren aber während feuchter Klimaphasen hydrologisch miteinander verbunden; in dieser Arbeit untersuche ich deshalb auch diese hydrologische Verbindung der Rift-Becken für die Zeit der Afrikanischen Feuchteperiode des frühen Holozäns. Mithilfe der Analyse von digitalen Geländemodellen, unter Berücksichtigung von geomorphologischen Anzeigern für Seespiegelhochstände, Radiokarbondatierungen und einer Übersicht über Fossiliendaten konnten zwei kaskadierende Flusssysteme aus diesen Daten abgeleitet werden: eine Flusskaskade in Richtung Süden und eine in Richtung Norden. Beide Kaskaden haben die derzeit isolierten Becken während des frühen Holozäns durch überlaufende Seen und eingeschnittene Schluchten miteinander verbunden. Diese hydrologische Verbindung führte zu der Ausbreitung aquatischer Fauna entlang des Rifts, und gleichzeitig stellte die Wasserscheide zwischen den beiden Flusssystemen den einzigen terrestrischen Ausbreitungskorridor dar, der eine Überquerung des Kenia-Rifts ermöglichte. Diese tektonisch-geomorphologische Rekonstruktion erklärt die heute isolierten Vorkommen nilotischer Fischarten in den Riftseen Kenias sowie die isolierten Vorkommen Guineo-Congolischer Säugetiere in Wäldern östlich des Kenia-Rifts, die sich über die Wasserscheide im Kenia-Rift ausbreiten konnten. Auf längeren Zeitskalen sind solche Phasen hydrologischer Verbindung und Phasen der Isolation wiederholt aufgetreten und zeigen sich in wechselnden paläoökologischen Indikatoren in Sedimentbohrkernen. Hier stelle ich einen Sedimentbohrkern aus dem Koora-Becken des Südlichen Kenia-Rifts vor, der einen Datensatz der Paläo-Umweltbedingungen der letzten 1 Million Jahre beinhaltet. Dieser Datensatz zeigt, dass etwa vor 400 tausend Jahren die zuvor relativ stabilen Umweltbedingungen zum Erliegen kamen und tektonische, hydrologische und ökologische Veränderungen dazu führten, dass die Wasserverfügbarkeit, die Grasland-Vergesellschaftungen und die Bedeckung durch Baumvegetation zunehmend stärkeren und häufigeren Schwankungen unterlagen. Diese großen Veränderungen fallen zeitlich mit Phasen zusammen, in denen das südliche Becken des Kenia-Rifts von vulkanischer und tektonischer Aktivität besonders betroffen war. Die vorliegende Arbeit zeigt deshalb deutlich, inwiefern die tektonischen und geomorphologischen Gegebenheiten im Zuge einer zeitlich langanhaltenden Extension die Hydrologie, die Paläo-Umweltbedingungen sowie die Biodiversität einer Riftzone beeinflussen können. N2 - Magmatic continental rifts often constitute the earliest stage of nascent plate boundaries. These extensional tectonic provinces are characterized by ubiquitous normal faulting and volcanic activity; the spatial pattern, the geometry, and the age of these normal faults can help to unravel the spatiotemporal relationships between extensional deformation, magmatism, and long-wavelength crustal deformation of continental rift provinces. This study focuses on the active faulting in the Kenya Rift of the Cenozoic East African Rift System (EARS) with a focus on the mid-Pleistocene to the present-day. To examine the early stages of continental break-up in the EARS, this thesis presents a time-averaged minimum extension rate for the inner graben of the Northern Kenya Rift (NKR) for the last 0.5 m.y. Using the TanDEM-X digital elevation model, fault-scarp geometries and associated throws are determined across the volcano-tectonic axis of the inner graben of the NKR. By integrating existing geochronology of faulted units with new ⁴⁰Ar/³⁹Ar radioisotopic dates, time-averaged extension rates are calculated. This study reveals that in the inner graben of the NKR, the long-term extension rate based on mid-Pleistocene to recent brittle deformation has minimum values of 1.0 to 1.6 mm yr⁻¹, locally with values up to 2.0 mm yr⁻¹. In light of virtually inactive border faults of the NKR, we show that extension is focused in the region of the active volcano-tectonic axis in the inner graben, thus highlighting the maturing of continental rifting in the NKR. The phenomenon of focused extension is further investigated with a structural analysis of the youngest volcanic manifestations of the Kenya Rift, their relationship with extensional structures, and their overprint by Holocene faulting. In this context I analyzed the fault characteristics at the ~36 ka old Menengai Caldera and adjacent areas in the Central Kenya Rift using detailed field mapping and a structure-from-motion-based DEM generated from UAV data. In general, the Holocene intra-rift normal faults are dip-slip faults which strike NNE and thus reflect the present-day tectonic stress field; however, inside Menengai caldera persistent magmatic activity and magmatic resurgence overprints these young structures significantly. The caldera is located at the center of an actively extending rift segment and this and the other volcanic edifices of the Kenya Rift may constitute nucleation points of faulting an magmatic extensional processes that ultimately lead into a future stage of magma-assisted rifting. When viewed at the scale of the entire Kenya Rift the protracted normal faulting in this region compartmentalizes the larger rift depressions, and influences the sedimentology and the hydrology of the intra-rift basins at a scale of less than 100 km. In the present day, most of the fault-bounded sub-basins of the Kenya Rift are hydrologically isolated due to this combination of faulting and magmatic activity that has generated efficient hydrological barriers that maintain these basins as semi-independent geomorphic entities. This isolation, however, was overcome during wetter climatic conditions during the past when the basins were transiently connected. I therefore also investigated the hydrological connectivity of the rift basins during the African Humid Period of the early Holocene, when climate was wetter. With the help of DEM analysis, lake-highstand indicators, radiocarbon dating, and a review of the fossil record, two lake-river-cascades could be identified: one directed southward, and one directed northward. Both cascades connected presently isolated rift basins during the early Holocene via spillovers of lakes and incised river gorges. This hydrological connection fostered the dispersal of aquatic faunas along the rift, and in addition, the water divide between the two river systems represented the only terrestrial dispersal corridor across the Kenya Rift. The reconstruction explains isolated distributions of Nilotic fish species in Kenya Rift lakes and of Guineo-Congolian mammal species in forests east of the Kenya Rift. On longer timescales, repeated episodes of connectivity and isolation must have occurred. To address this problem I participated in research to analyze a sediment drill core from the Koora basin of the Southern Kenya Rift, which provides a paleo-environmental record of the last 1 Ma. Based on this record it can be concluded that at ~400 ka relatively stable environmental conditions were disrupted by tectonic, hydrological, and ecological changes, resulting in increasingly large and frequent fluctuations in water availability, grassland communities, and woody plant cover. The major environmental shifts reflected in the drill core data coincide with phases where volcano-tectonic activity affected the basin. This thesis therefore shows how protracted extensional tectonic processes and the resulting geomorphologic conditions can affect the hydrology, the paleo-environment and the biodiversity of extensional zones in Kenya and elsewhere. KW - Tektonik KW - tectonics KW - Ostafrikanisches Rift KW - East African Rift KW - Biodiversität KW - biodiversity KW - Paläoökologie KW - paleoecology KW - Kenia KW - Kenya Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-538552 ER - TY - THES A1 - Richter, Enrico Christian T1 - Das letzte Kapitel des deutschen Zionismus T1 - The last chapter of German Zionism BT - Organisation, Ideologie und Realpolitik in der neu-alten Heimat Erez Israel 1932 – 1948 BT - organisation, ideology and realpolitik in the new-old homeland Eretz Israel 1932 – 1948 N2 - Die Geschichtsschreibung terminiert das Ende des deutschen Zionismus bisher mit dem NS-Verbot der Zionistischen Vereinigung für Deutschland im Zuge des Novemberpogroms 1938. Zu diesem Zeitpunkt hatte er aber von seinem geographischen Kontext entgrenzt, in Erez Israel bereits neue Wurzeln geschlagen. Zionisten aus Deutschland schickten sich nun an, mit ihrem spezifischen Erfahrungshorizont und Wertemaßstab und mitgebrachtem ideologischen Rüstzeug die Entwicklung des jüdischen Nationalheims mitzugestalten und einer umfassenden ökonomischen, kulturellen und politischen Akkulturation der deutschen Alijah den Weg zu bahnen. Entgegen aller zionistischen Theorie gründeten sie auf landsmannschaftlicher Basis im Jahr 1932 die Selbsthilfeorganisation Hitachduth Olej Germania und während des Weltkrieges die Partei Alija Chadascha. Die Dissertation beinhaltet die Gesamtschau des deutschen Zionismus in seiner letzten Phase in den Jahren 1932 bis 1948; zugleich beleuchtet sie die Geschichte der etwa 60.000 in Palästina eingewanderten Juden aus Deutschland in der für diese Abhandlung relevanten Zeitperiode. Im ersten Teil wird in chronologischer Folge die 1932 beginnende letztmalige Sammlung und Neuformierung des deutschen Zionismus in seiner neu-alten Heimat dargestellt. Wenn man so will, die formativen Jahre im personellen, organisatorischen und ideologisch-politischen Sinne, die schließlich nach dem fast gänzlichen Scheitern der politischen Integration der deutschen Alijah mit der – in der Rückschau – fast zwangsläufig erscheinenden Begründung der Alija Chadascha ihren Abschluss fanden. Im zweiten Teil werden die Positionen der deutschen Zionisten zu den existenziellen Fragen der jüdischen Gemeinschaft in Palästina, hebräisch Jischuw genannt, in der im Fokus stehenden Zeitperiode dargestellt. Im Einzelnen handelt es sich erstens um die Einwanderungsfrage, die untrennbar verbunden war mit der in der zionistischen Theorie unabdingbaren Forderung nach der Erlangung einer jüdischen Majorität in Palästina; zweitens um die der staatlichen Ausgestaltung des zukünftigen jüdischen Gemeinwesens und drittens um die Frage der adäquaten Reaktion des Jischuw auf die Schoah. In diese jeweils in separaten Kapiteln behandelten Themenkomplexe wird die Frage nach dem anzustrebenden Verhältnis zur britischen Mandatsmacht mit einfließen. Hieran mussten die deutschen Zionisten ihr mitgebrachtes geistig-ideologisches Rüstzeug einem Praxistest unterziehen und nach realpolitischen Antworten suchen. Dem kometenhaften Aufstieg der weiterhin landsmannschaftlich geprägten Alija Chadascha folgte dann in den ersten Nachkriegsjahren ein ebenso rapider Zerfall. Einige Monate nach der Staatsgründung Israels löste sie sich dann sang- und klanglos auf und das Gros ihrer Aktivisten integrierte sich in das Parteiengefüge des neuen Staates. Der deutsche Zionismus als politische Bewegung kam nun wirklich an sein Ende. Diese Abhandlung wird somit zum einen den Kampf der deutschen Alijah um gesellschaftliche Anerkennung und politische Partizipation im Jischuw nachzeichnen und zum anderen eine geistig-ideologische Verortung des deutschen Zionismus in seiner letzten Phase vollziehen und Tendenzen der ideologischen Neuausrichtung offenlegen. Darüber hinaus werden in der Historiographie vorhandene Allgemeinplätze wie die fast allseits anerkannte These vom Scheitern der deutschen Zionisten in der neuen Heimat einer Überprüfung unterzogen. Die letzte vorhandene Leerstelle im wissenschaftlichen Kanon zur mehr als 50-jährigen Geschichte des deutschen Zionismus wird somit geschlossen. KW - Zionismus KW - Jischuw KW - Alijah KW - Erez Israel KW - Alija Chadascha KW - Hitachduth Olej Germania KW - NS-Herrschaft KW - Aliyah Hadasha KW - aliyah KW - Eretz Israel KW - Hitachduth Olej Germania KW - Yishuv KW - National Socialist rule KW - Zionism Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615756 ER - TY - THES A1 - Reppert, Alexander von T1 - Magnetic strain contributions in laser-excited metals studied by time-resolved X-ray diffraction T1 - Untersuchung magnetischer Beiträge zur Ausdehnung laserangeregter Metalle mittels zeitaufgelöster Röntgenbeugungsexperimente N2 - In this work I explore the impact of magnetic order on the laser-induced ultrafast strain response of metals. Few experiments with femto- or picosecond time-resolution have so far investigated magnetic stresses. This is contrasted by the industrial usage of magnetic invar materials or magnetostrictive transducers for ultrasound generation, which already utilize magnetostrictive stresses in the low frequency regime. In the reported experiments I investigate how the energy deposition by the absorption of femtosecond laser pulses in thin metal films leads to an ultrafast stress generation. I utilize that this stress drives an expansion that emits nanoscopic strain pulses, so called hypersound, into adjacent layers. Both the expansion and the strain pulses change the average inter-atomic distance in the sample, which can be tracked with sub-picosecond time resolution using an X-ray diffraction setup at a laser-driven Plasma X-ray source. Ultrafast X-ray diffraction can also be applied to buried layers within heterostructures that cannot be accessed by optical methods, which exhibit a limited penetration into metals. The reconstruction of the initial energy transfer processes from the shape of the strain pulse in buried detection layers represents a contribution of this work to the field of picosecond ultrasonics. A central point for the analysis of the experiments is the direct link between the deposited energy density in the nano-structures and the resulting stress on the crystal lattice. The underlying thermodynamical concept of a Grüneisen parameter provides the theoretical framework for my work. I demonstrate how the Grüneisen principle can be used for the interpretation of the strain response on ultrafast timescales in various materials and that it can be extended to describe magnetic stresses. The class of heavy rare-earth elements exhibits especially large magnetostriction effects, which can even lead to an unconventional contraction of the laser-excited transducer material. Such a dominant contribution of the magnetic stress to the motion of atoms has not been demonstrated previously. The observed rise time of the magnetic stress contribution in Dysprosium is identical to the decrease in the helical spin-order, that has been found previously using time-resolved resonant X-ray diffraction. This indicates that the strength of the magnetic stress can be used as a proxy of the underlying magnetic order. Such magnetostriction measurements are applicable even in case of antiparallel or non-collinear alignment of the magnetic moments and a vanishing magnetization. The strain response of metal films is usually determined by the pressure of electrons and lattice vibrations. I have developed a versatile two-pulse excitation routine that can be used to extract the magnetic contribution to the strain response even if systematic measurements above and below the magnetic ordering temperature are not feasible. A first laser pulse leads to a partial ultrafast demagnetization so that the amplitude and shape of the strain response triggered by the second pulse depends on the remaining magnetic order. With this method I could identify a strongly anisotropic magnetic stress contribution in the magnetic data storage material iron-platinum and identify the recovery of the magnetic order by the variation of the pulse-to-pulse delay. The stark contrast of the expansion of iron-platinum nanograins and thin films shows that the different constraints for the in-plane expansion have a strong influence on the out-of-plane expansion, due to the Poisson effect. I show how such transverse strain contributions need to be accounted for when interpreting the ultrafast out-of-plane strain response using thermal expansion coefficients obtained in near equilibrium conditions. This work contributes an investigation of magnetostriction on ultrafast timescales to the literature of magnetic effects in materials. It develops a method to extract spatial and temporal varying stress contributions based on a model for the amplitude and shape of the emitted strain pulses. Energy transfer processes result in a change of the stress profile with respect to the initial absorption of the laser pulses. One interesting example occurs in nanoscopic gold-nickel heterostructures, where excited electrons rapidly transport energy into a distant nickel layer, that takes up much more energy and expands faster and stronger than the laser-excited gold capping layer. Magnetic excitations in rare earth materials represent a large energy reservoir that delays the energy transfer into adjacent layers. Such magneto-caloric effects are known in thermodynamics but not extensively covered on ultrafast timescales. The combination of ultrafast X-ray diffraction and time-resolved techniques with direct access to the magnetization has a large potential to uncover and quantify such energy transfer processes. N2 - In dieser Arbeit untersuche ich den Einfluss magnetischer Ordnung auf die laser-induzierte, ultraschnelle Ausdehnung von Metallen. In Experimenten mit Femto- oder Pikosekunden Zeitauflösung sind magnetische Drücke bisher kaum erforscht. Dies steht im Kontrast zur industriellen Verwendung von magnetischen Invar Materialien oder magnetostriktiven Ultraschallgebern, in denen magnetische Drücke bereits in niedrigeren Frequenzbereichen Anwendung finden. In meinen Experimenten untersuche ich, wie der Energieeintrag durch die Absorption von Femtosekunden-Laserpulsen in dünnen Metallschichten zu einem ultraschnellen Druckanstieg führt. Dabei nutze ich, dass der Druckanstieg zu einer Ausdehnung führt, welche Deformationswellen auf der Nanometerskala, sogenannte Hyperschallpulse, in angrenzende Schichten aussendet. Sowohl die Ausdehnung als auch die Deformationspulse ändern den mittleren Abstand zwischen den Atomen in der Probe, welcher mittels Röntgenbeugung an einer Laser-getriebenen Plasma-Röntgenquelle mit einer Subpikosekunden-Zeitauflösung detektiert wird. Das Verfahren der ultraschnellen Röntgenbeugung gelingt auch in Heterostrukturen mit vergrabenen Detektionsschichten, zu denen optische Methoden aufgrund ihrer limitierter Eindringtiefe in Metallen keinen Zugang haben. Ein Beitrag dieser Arbeit zum Feld der Pikosekunden-Akustik ist es, aus der Ausdehnung einer solchen Detektionsschicht Rückschlüsse auf die initialen Energietransferprozesse zu ziehen. Der direkte Zusammenhang zwischen der eingebrachten Energiedichte in die Nanostrukturen und dem resultierenden Druck auf das Atomgitter ist ein zentraler Punkt in meiner Analyse der Experimente. Das zu Grunde liegende thermodynamische Konzept des Grüneisen-Parameters bildet den theoretischen Kontext meiner Publikationen. Anhand verschiedener Materialien demonstriere ich, wie dieses Prinzip auch zur Analyse der Ausdehnung auf ultraschnellen Zeitskalen verwendet werden kann und sich auch auf magnetische Drücke übertragen lässt. Insbesondere in der Materialklasse der schweren, seltenen Erdelemente sind Magnetostriktionseffekte sehr groß und führen dort sogar zu einem ungewöhnlichen Zusammenziehen des Materials nach der Laseranregung. Solch ein bestimmender Einfluss des magnetischen Drucks auf die Atombewegung ist bisher nicht gezeigt worden. Die Zeitskala des magnetischen Druckanstiegs entspricht dabei der beobachteten Abnahme der helikalen Spin-Ordnung, welche zuvor mittels zeitaufgelöster, resonanter Röntgenbeugung ermittelt wurde. Dies zeigt, dass die Stärke des magnetischen Drucks als Maß für magnetische Ordnung dienen kann, insbesondere auch im Fall von antiparalleler oder nicht-kollinearer Ordnung der magnetischen Momente in Proben mit verschwindender Magnetisierung. In Metallfilmen ist die Dehnung des Atomgitters in der Regel durch Druck von Elektronen und Gitterschwingungen geprägt. Um den magnetischen Druckbeitrag auch in solchen Fällen zu extrahieren, in denen systematische Experimente oberhalb und unterhalb der magnetischen Ordnungstemperatur nicht praktikabel sind, habe ich ein neuartiges Doppelpuls-Anregungsverfahren entwickelt, welches allgemein für die Untersuchung von Phasenübergängen nützlich ist. Der Energieeintrag durch den ersten Laserpuls führt dabei zu einer partiellen, ultraschnellen Demagnetisierung, sodass die Amplitude und Form der Gitterausdehnung nach dem zweiten Puls von der Stärke des verbliebenen magnetischen Drucks und somit von der verbliebenen magnetischen Ordnung abhängt. Mit dieser Methode ist es möglich geworden, einen stark richtungsabhängigen, magnetischen Druckbeitrag im Speichermedium Eisen-Platin zu identifizieren und mittels Variation des Puls-zu-Puls Abstands auch die Rückkehr der magnetischen Ordnung zu zeigen. Die unterschiedliche Ausdehnung von Eisen-Platin Nanopartikeln und dünnen Filmen zeigt dabei, dass die verschiedenen Zwangsbedingungen für die Ausdehnung entlang der Probenoberfläche aufgrund des Poisson-Effekts einen entscheidenden Einfluss auf die ultraschnelle Ausdehnung senkrecht zur Probenoberfläche hat. Ich analysiere, wie die zugrunde liegende Querkontraktion bei der Interpretation der ultraschnellen Ausdehnung auf der Basis von thermischen Ausdehnungskoeffizienten im Quasi-Gleichgewicht berücksichtigt werden kann. Meine Arbeit erweitert die Literatur um einen Beitrag zur ultraschnellen Magnetostriktion und entwickelt eine Methodik mittels derer räumlich und zeitlich variierende Druckbeiträge anhand einer Modellierung der Form der Deformationswellen extrahiert werden können. Energietransferprozesse spiegeln sich dabei durch eine Änderung des Druckprofils gegenüber dem Absorptionsprofil der Laserpulse wider. KW - lattice dynamics KW - magnetism KW - ultrafast KW - X-ray diffraction KW - Gitterdynamik KW - Magnetismus KW - ultraschnell KW - Röntgenbeugung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535582 ER - TY - THES A1 - Repasch, Marisa T1 - Fluvial sediment routing and the carbon cycle BT - insights from the Rio Bermejo, Argentina BT - Einblicke aus dem Rio Bermejo, Argentinien N2 - By regulating the concentration of carbon in our atmosphere, the global carbon cycle drives changes in our planet’s climate and habitability. Earth surface processes play a central, yet insufficiently constrained role in regulating fluxes of carbon between terrestrial reservoirs and the atmosphere. River systems drive global biogeochemical cycles by redistributing significant masses of carbon across the landscape. During fluvial transit, the balance between carbon oxidation and preservation determines whether this mass redistribution is a net atmospheric CO2 source or sink. Existing models for fluvial carbon transport fail to integrate the effects of sediment routing processes, resulting in large uncertainties in fluvial carbon fluxes to the oceans. In this Ph.D. dissertation, I address this knowledge gap through three studies that focus on the timescale and routing pathways of fluvial mass transfer and show their effect on the composition and fluxes of organic carbon exported by rivers. The hypotheses posed in these three studies were tested in an analog lowland alluvial river system – the Rio Bermejo in Argentina. The Rio Bermejo annually exports more than 100 Mt of sediment and organic matter from the central Andes, and transports this material nearly 1300 km downstream across the lowland basin without influence from tributaries, allowing me to isolate the effects of geomorphic processes on fluvial organic carbon cycling. These studies focus primarily on the geochemical composition of suspended sediment collected from river depth profiles along the length of the Rio Bermejo. In Chapter 3, I aimed to determine the mean fluvial sediment transit time for the Rio Bermejo and evaluate the geomorphic processes that regulate the rate of downstream sediment transfer. I developed a framework to use meteoric cosmogenic 10Be (10Bem) as a chronometer to track the duration of sediment transit from the mountain front downstream along the ~1300 km channel of the Rio Bermejo. I measured 10Bem concentrations in suspended sediment sampled from depth profiles, and found a 230% increase along the fluvial transit pathway. I applied a simple model for the time-dependent accumulation of 10Bem on the floodplain to estimate a mean sediment transit time of 8.5±2.2 kyr. Furthermore, I show that sediment transit velocity is influenced by lateral migration rate and channel morphodynamics. This approach to measuring sediment transit time is much more precise than other methods previously used and shows promise for future applications. In Chapter 4, I aimed to quantify the effects of hydrodynamic sorting on the composition and quantity of particulate organic carbon (POC) export transported by lowland rivers. I first used scanning electron miscroscopy (SEM) coupled with nanoscale secondary ion mass spectrometry (NanoSIMS) analyses to show that the Bermejo transports two principal types of POC: 1) mineral-bound organic carbon associated with <4 µm, platy grains, and 2) coarse discrete organic particles. Using n-alkane stable isotope data and particle shape analysis, I showed that these two carbon pools are vertically sorted in the water column, due to differences in particle settling velocity. This vertical sorting may drive modern POC to be transported efficiently from source-to-sink, driving efficient CO2 drawdown. Simultaneously, vertical sorting may drive degraded, mineral-bound POC to be deposited overbank and stored on the floodplain for centuries to millennia, resulting in enhanced POC remineralization. In the Rio Bermejo, selective deposition of coarse material causes the proportion of mineral-bound POC to increase with distance downstream, but the majority of exported POC is composed of discrete organic particles, suggesting that the river is a net carbon sink. In summary, this study shows that selective deposition and hydraulic sorting control the composition and fate of fluvial POC during fluvial transit. In Chapter 5, I characterized and quantified POC transformation and oxidation during fluvial transit. I analyzed the radiocarbon content and stable carbon isotopic composition of Rio Bermejo suspended sediment and found that POC ages during fluvial transit, but is also degraded and oxidized during transient floodplain storage. Using these data, I developed a conceptual model for fluvial POC cycling that allows the estimation of POC oxidation relative to POC export, and ultimately reveals whether a river is a net source or sink of CO2 to the atmosphere. Through this study, I found that the Rio Bermejo annually exports more POC than is oxidized during transit, largely due to high rates of lateral migration that cause erosion of floodplain vegetation and soil into the river. These results imply that human engineering of rivers could alter the fluvial carbon balance, by reducing lateral POC inputs and increasing the mean sediment transit time. Together, these three studies quantitatively link geomorphic processes to rates of POC transport and degradation across sub-annual to millennial time scales and nanoscale to 103 km spatial scales, laying the groundwork for a global-scale fluvial organic carbon cycling model. N2 - Der globale Kohlenstoffkreislauf bestimmt das Klima und die Bewohnbarkeit unseres Planeten durch die Regulierung der Kohlenstoffkonzentration in unserer Atmosphäre. Erdoberflächenprozesse spielen eine zentrale, aber nicht ausreichend verstandene Rolle in der Regulierung der Kohlenstoffflüsse zwischen terrestrischen Reservoiren und der Atmosphäre. Flusssysteme steuern globale biogeochemische Kreisläufe, indem sie große Mengen Kohlenstoff in der Landschaft umverteilen. Dabei bestimmt das Gleichgewicht zwischen Kohlenstoffoxidation und -konservierung, ob der Flusstransport in einer atmosphärischen Netto CO2-Quelle oder -Senke resultiert. Die Auswirkungen von Sedimentverlagerungsprozessen werden in bestehenden Modellen für den Kohlenstofftransport in Flüssen jedoch nicht berücksichtigt, was zu großen Unsicherheiten in der Bestimmung von Kohlenstoffflüssen von Quellen zu Senken führt. In dieser Dissertation adressiere ich diese Wissenslücke mithilfe von drei Studien, die verschiedene Komponenten des Stofftransfers von Quelle zu Senke und seine Auswirkungen auf die Zusammensetzung und den Transfer des organischen Kohlenstoffs im Fluss herausgreifen. Die in diesen drei Studien aufgestellten Hypothesen wurden in einem analogen alluvialen Tieflandflusssystem - dem Rio Bermejo in Argentinien - getestet. Der Rio Bermejo exportiert jährlich mehr als 100 Mt Sedimente und organisches Material aus den Zentralanden und transportiert dieses fast 1300 km flussabwärts ohne Einfluss von Nebenflüssen durch das Tieflandbecken. Dies erlaubt die Isolierung der Auswirkungen geomorphologischer Prozesse auf den organischen Kohlenstoffkreislauf im Fluss. Die Studien basieren auf geochemischen Daten eines Satzes Sedimentproben der Suspensionsfracht, die entlang des Rio Bermejo aus Flusstiefenprofilen entnommen wurden. In Kapitel 3 habe ich mir das Ziel gesetzt die mittlere Flusssedimenttransitzeit des Rio Bermejo sowie die geomorphologischen Prozesse, die die Geschwindigkeit des Sedimenttransfers flussabwärts regulieren, zu bestimmen. Dazu habe ich ein Framework entwickelt, wie meteorisches kosmogenes 10Be (10Bem) als Chronometer verwendet werden kann, das die Dauer des Sedimenttransits von der Bergfront stromabwärts entlang des ~ 1300 km langen Kanals des Rio Bermejo misst. Ich habe 10Bem -Konzentrationen an den Tiefenprofilen der Suspensionsfracht gemessen und dabei einen Anstieg von 230% entlang des Flusstransfers festgestellt. Für die zeitabhängige Akkumulation von 10Bem auf der Überflutungsebene habe ich ein einfaches Modell angewendet und dadurch eine mittlere Sedimenttransitzeit von ~ 8,5 ± 2,2 kyr abgeschätzt. Meine Daten haben zusätzlich gezeigt, dass Unterschiede in der lateralen Migrationsrate und der Kanalmorphodynamik Unterschiede in der Sedimenttransitgeschwindigkeit verursachen. Dieser Ansatz zur Messung der Sedimenttransitzeit ist viel präziser als andere bisher verwendete Methoden und hat ein großes Potential für zukünftige Anwendungen. Kapitel 4 habe ich darauf ausgerichtet die Auswirkungen der vorübergehenden Speicherung in Überflutungsebenen, der Verfeinerung der Korngrößen flussabwärts und der organomineralischen Assoziationen auf die Zusammensetzung und Menge des Exports von fluvialem partikulärem organischem Kohlenstoff (POC) zu quantifizieren. Daten stabiler n Alkan-Isotope zeigten eine vertikale Sortierung organischer Stoffe in der Flusswassersäule, durch die 13C -angereichertes, mineralassoziiertes POC am oberen Ende der Wassersäule konzentriert wurde. Mithilfe von Rasterelektronenmikroskopie (SEM) und nanoskalige Sekundärionen-Massenspektrometrie (NanoSIMS) -Analysen habe ich gezeigt, dass Organomineralassoziationen größtenteils in feinen, plattigen Mineralkörnern mit niedrigen Absetzgeschwindigkeiten gefunden werden, welche zum Aufsteigen des mineralgebundenen POC in der Wassersäule führen. Organomineralassoziationen und 13C -Anreicherung sind typisch für den Abbau von organischem Kohlenstoff im Boden, was darauf hindeutet, dass mineralgebundener POC größtenteils aus der Erosion verwitterter Auenböden stammt. Ich habe gezeigt, dass> 70% des suspendierten POC-Exports in Zusammenhang mit feinem Sediment seht. Dieser POC ist wahrscheinlich aufgrund des Abbaus während der vorübergehenden Lagerung in den Überflutungsebenen stärker an 13C angereichert. Da mineralgebundenes POC und diskrete organische Partikel in der Wassersäule in unterschiedlichen Tiefen transportiert werden, weisen sie wahrscheinlich unterschiedliche Flusslaufzeiten und damit unterschiedliche Oxidationswahrscheinlichkeiten während des Flusstransfers auf. Zusammenfassend zeigt diese Studie, dass hydrodynamische Sortiereffekte die Zusammensetzung und das Schicksal des fluvialen POC während des Transits von Quelle zu Senke steuern. In Kapitel 5 habe ich die POC-Transformation und -Oxidation während des Flussdurchgangs charakterisiert und quantifiziert. Dazu habe ich den Radiokohlenstoffgehalt und die stabile Kohlenstoffisotopenzusammensetzung der Suspensionsfracht des Rio Bermejo analysiert. Die Daten zeigten sowohl eine Alterung des POC während des Flusstransits und als auch den Abbau von POC während der vorübergehenden Ablagerung in Überflutungsebenen. Unter Verwendung dieser Daten entwickelte ich ein konzeptionelles Modell für den Fluss-POC-Kreislauf, das die Abschätzung der POC-Oxidation im Verhältnis zum POC-Export ermöglicht und zeigt, ob ein Fluss eine Nettoquelle oder -senke für CO2 in der Atmosphäre darstellt. Durch diese Studie fand ich heraus, dass der Rio Bermejo jährlich mehr POC exportiert, als während des Transits oxidiert wird, was hauptsächlich auf die hohen seitlichen Migrationsraten zurückzuführen ist, die zur Erosion der Auenvegetation und der Auenböden in den Fluss führen. Diese Ergebnisse deuten darauf hin, dass die menschliche Gestaltung von Flüssen die Kohlenstoffbilanz im Fluss verändern könnte, indem die seitlichen POC-Einträge reduziert und die mittlere Sedimenttransitzeit erhöht werden. Zusammengenommen verknüpfen diese drei Studien geomorphologische Prozesse quantitativ mit den Raten des POC-Transports und der POC-Degradation über sub-jährliche bis tausendjährige Zeitskalen und Nano bis 103 km räumlichen Skalen und bilden die Grundlage für ein Modell des globalen, fluvialen, organischen Kohlenstoffkreislaufs. T2 - Flusssedimenttransfer und Kohlenstoffkreislauf KW - biogeoscience KW - geomorphology KW - rivers KW - Biogeowissenschaften KW - Geomorphologie KW - Flüsse Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-493978 ER - TY - THES A1 - Raffeiner, Margot T1 - Funktionelle Charakterisierung des Xanthomonas Typ-III Effektorproteins XopS T1 - Functional characterisation of the Xanthomonas type-III effector protein XopS N2 - Angepasste Pathogene besitzen eine Reihe von Virulenzmechanismen, um pflanzliche Immunantworten unterhalb eines Schwellenwerts der effektiven Resistenz zu unterdrücken. Dadurch sind sie in der Lage sich zu vermehren und Krankheiten auf einem bestimmten Wirt zu verursachen. Eine essentielle Virulenzstrategie Gram-negativer Bakterien ist die Translokation von sogenannten Typ-III Effektorproteinen (T3Es) direkt in die Wirtszelle. Dort stören diese die Immunantwort des Wirts oder fördern die Etablierung einer für das Pathogen günstigen Umgebung. Eine kritische Komponente der Pflanzenimmunität gegen eindringende Pathogene ist die schnelle transkriptionelle Umprogrammierung der angegriffenen Zelle. Viele adaptierte bakterielle Pflanzenpathogene verwenden T3Es, um die Induktion Abwehr-assoziierter Gene zu stören. Die Aufklärung von Effektor-Funktionen, sowie die Identifikation ihrer pflanzlichen Zielproteine sind für das Verständnis der bakteriellen Pathogenese essentiell. Im Rahmen dieser Arbeit sollte das Typ-III Effektorprotein XopS aus Xanthomonas campestris pv. vesicatoria (Xcv) funktionell charakterisiert werden. Zudem lag hier ein besonderer Fokus auf der Untersuchung der Wechselwirkung zwischen XopS und seinem in Vorarbeiten identifizierten pflanzlichen Interaktionspartner WRKY40, einem transkriptionellen Regulator der Abwehr-assoziierten Genexpression. Es konnte gezeigt werden, dass XopS ein essentieller Virulenzfaktor des Phytopathogens Xcv während der präinvasiven Immunantwort ist. So zeigten xopS-defiziente Xcv Bakterien bei einer Inokulation der Blattoberfläche suszeptibler Paprika Pflanzen eine deutlich reduzierte Virulenz im Vergleich zum Xcv Wildtyp. Die Translokation von XopS durch Xcv, sowie die ektopische Expression von XopS in Arabidopsis oder N. benthamiana verhinderte das Schließen von Stomata als Reaktion auf Bakterien bzw. einem Pathogen-assoziierten Stimulus, wobei zudem gezeigt werden konnte, dass dies in einer WRKY40-abhängigen Weise geschieht. Weiter konnte gezeigt werden, dass XopS in der Lage ist, die Expression Abwehr-assoziierter Gene zu manipulieren. Dies deutet darauf hin, dass XopS sowohl in die prä-als auch in die postinvasive, apoplastische Abwehr eingreift. Phytohormon-Signalnetzwerke spielen während des Aufbaus einer effizienten pflanzlichen Immunantwort eine wichtige Rolle. Hier konnte gezeigt werden, dass XopS mit genau diesen Signalnetzwerken zu interferieren scheint. Eine ektopische Expression des Effektors in Arabidopsis führte beispielsweise zu einer signifikanten Induktion des Phytohormons Jasmonsäure (JA), während eine Infektion von suszeptiblen Paprika Pflanzen mit einem xopS-defizienten Xcv Stamm zu einer ebenfalls signifikanten Akkumulation des Salicylsäure (SA)-Gehalts führte. So kann zu diesem Zeitpunkt vermutet werden, dass XopS die Virulenz von Xcv fördert, indem JA-abhängige Signalwege induziert werden und es gleichzeitig zur Unterdrückung SA-abhängiger Signalwege kommt. Die Virus-induzierte Genstilllegung des XopS Interaktionspartners WRKY40a in Paprika erhöhte die Toleranz der Pflanze gegenüber einer Xcv Infektion, was darauf hindeutet, dass es sich bei diesem Protein um einen transkriptionellen Repressor pflanzlicher Immunantworten handelt. Die Hypothese, dass WRKY40 die Abwehr-assoziierte Genexpression reprimiert, konnte hier über verschiedene experimentelle Ansätze bekräftigt werden. So wurde beispielsweise gezeigt, dass die Expression von verschiedenen Abwehrgenen einschließlich des SA-abhängigen Gens PR1 und die des Negativregulators des JA-Signalwegs JAZ8 von WRKY40 gehemmt wird. Um bei einem Pathogenangriff die Abwehr-assoziierte Genexpression zu gewährleisten, muss WRKY40 als Negativregulator abgebaut werden. Vorarbeiten zeigten, dass WRKY40 über das 26S Proteasom abgebaut wird. In der hier vorliegenden Studie konnte weiter bestätigt, dass der T3E XopS zu einer Stabilisierung des WRKY40 Proteins führt, indem er auf bislang ungeklärte Weise dessen Abbau über das 26S Proteasom verhindert. Die Ergebnisse aus der hier vorliegenden Arbeit lassen die Vermutung zu, dass die Stabilisierung des Negativregulators der Immunantwort WRKY40 seitens XopS dazu führt, dass eine darüber vermittelte Manipulation der Abwehr-assoziierten Genexpression, sowie eine Umsteuerung phytohormoneller Wechselwirkungen die Ausbreitung von Xcv auf suszeptiblen Paprikapflanzen fördert. Ein weiteres Ziel dieser Arbeit war es, weitere potentielle in planta Interaktionspartner von XopS zu identifizieren die für seine Interaktion mit WRKY40 bzw. für die Aufschlüsselung seines Wirkmechanismus relevant sein könnten. So konnte die Deubiquitinase UBP12 als weiterer pflanzlicher Interaktionspartner sowohl von XopS als auch von WRKY40 gefunden werden. Dieses Enzym ist in der Lage, die Ubiquitinierung von Substratproteinen zu modifizieren und seine Funktion könnte somit ein Bindeglied zwischen XopS und dessen Interferenz mit dem proteasomalen Abbau von WRKY40 sein. Während einer kompatiblen Xcv-Wirtsinteraktion führte die Virus-induzierte Genstilllegung von UBP12 zu einer reduzierten Resistenz der Pflanze gegenüber des Pathogens Xcv, was auf dessen positiv-regulatorische Wirkung während der Immunantwort hindeutet. Zudem zeigten Western Blot Analysen, dass das Protein WRKY40 bei einer Herunterregulierung von UBP12 akkumuliert und dass diese Akkumulation von der Anwesenheit des T3Es XopS zusätzlich verstärkt wird. Weiterführende Analysen zur biochemischen Charakterisierung der XopS/WRKY40/UBP12 Interaktion sollten in Zukunft durchgeführt werden, um den genauen Wirkmechanismus des XopS T3Es weiter aufzuschlüsseln. N2 - Adapted pathogens have acquired a number of virulence mechanisms to suppress plant immune responses below a threshold of effective resistance and are thus able to replicate and cause disease on a given host. Virulence mechanisms include the translocation of so-called type-III effector proteins (T3Es) directly into the host cell, where they disrupt immune responses or assist the pathogen to establish a beneficial environment. A critical component of plant immunity against invading pathogens is rapid transcriptional reprogramming of the targeted cell to minimize virulence. Many adapted bacterial plant pathogens use T3Es to interfere with the induction of defense-associated genes. Due to the fact that for most of the T3Es studied to date their target proteins in the host are unknown, it is often unclear by which mechanisms these defense responses are disrupted. Thus, the elucidation of effector functions, as well as the identification of their plant target proteins, are necessary for the understanding of bacterial pathogenesis. In this work, the type-III effector protein XopS from Xanthomonas campestris pv. vesicatoria (Xcv) was functionally characterized. In addition, a particular focus of this characterization was to investigate the interaction between XopS and its plant interaction partner WRKY40, a transcriptional regulator of defense-associated gene expression, identified in preliminary work. XopS was shown to be an essential virulence factor of the phytopathogen Xcv during the preinvasive immune response. Thus, xopS-deficient Xcv bacteria showed significantly reduced virulence when inoculated on the leaf surface of susceptible pepper plants compared to Xcv wild type. Translocation of XopS by Xcv, as well as ectopic expression of XopS in Arabidopsis or N. benthamiana, prevented stomatal closure in response to bacteria or a pathogen-associated stimulus, respectively, and it was further shown that this occurs in a WRKY40-dependent manner. Additionally, XopS was shown to be able to manipulate the expression of defense-associated genes. This suggests that XopS interferes with both preinvasive and postinvasive apoplastic defense mechanisms. Phytohormone signaling networks play an important role during the establishment of an efficient plant immune response. Here, it was shown that XopS appears to interfere with these signaling networks. For example, ectopic expression of the effector in Arabidopsis led to a significant induction of the phytohormone jasmonic acid (JA), while infection of susceptible pepper plants with a xopS-deficient Xcv strain resulted in an equally significant accumulation of the salicylic acid (SA) content. Thus, at this stage it can be speculated that XopS promotes the virulence of Xcv by inducing JA-dependent signaling pathways and simultaneously suppressing SA signaling pathways via it. In this work, it was confirmed that XopS interacts not only with WRKY40 from N. benthamiana but also with its orthologous proteins from Arabidopsis (AtWRKY40) and pepper (CaWRKY40a). Virus-induced gene silencing of WRKY40a in bell pepper increased plant tolerance to Xcv infection, suggesting that this protein is a transcriptional regulator that suppresses induction of plant immune responses. The hypothesis that WRKY40 is a transcriptional repressor of defense-associated gene expression was corroborated here via several experimental approaches. For example, the expression of several defense genes including the SA-dependent gene PR1 and that of the negative regulator of the JA pathway JAZ8 was shown to be inhibited by WRKY40. To ensure defense-associated gene expression during pathogen attack, WRKY40 as a negative regulator must be removed to allow expression of defense genes. Preliminary work showed that WRKY40 is degraded via the 26S proteasome. The present study further confirmed that the T3E XopS leads to stabilization of WRKY40 protein by preventing its proteasomal degradation in a yet unexplained manner. The results from the work presented here suggest that stabilization of the negative regulator of immune responses WRKY40 by XopS leads to the manipulation of defense-associated gene expression, as well as a redirection of phytohormonal interactions, which in turn promotes the spread of Xcv on susceptible pepper plants. Another goal of this work was to identify other potential in planta interaction partners of XopS that might be relevant for its interaction with WRKY40 or for the deciphering of its mechanism of action. This identified the deubiquitinase UBP12 as another plant interaction partner of both XopS and WRKY40. UBP12 is able to modify the ubiquitination of substrate proteins and its function could thus represent a link between XopS and its interference with the proteasomal degradation of WRKY40. During a compatible Xcv-host interaction, virus-induced gene silencing of UBP12 resulted in reduced plant resistance to the pathogen Xcv, suggesting its positive regulatory effect during the immune response. Moreover, Western blot analyses showed that the protein WRKY40 accumulates upon down-regulation of UBP12 and that this accumulation is further enhanced by the presence of the T3E XopS. Further analysis on the biochemical characterization of the XopS/WRKY40/UBP12 interaction should be performed in the future to further elucidate the exact mode of action of the XopS T3E. KW - Xanthomonas campestris pv. vesicatoria KW - XopS KW - WRKY40 KW - Stomatäre Immunität KW - Proteasomaler Abbau KW - Xanthomonas campestris pv. vesicatoria KW - XopS KW - WRKY40 KW - stomatal immunity KW - proteasomal degradation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525532 ER - TY - THES A1 - Raatz, Larissa T1 - Boon and bane T1 - Segen und Fluch BT - how semi-natural habitats shape biodiversity-driven ecosystem (dis)services in agricultural landscapes BT - wie naturnahe Habitate biodiversitätsbedingte Ökosystemdienstleistungen in Agrarlandschaften beeinflussen N2 - Semi-natural habitats (SNHs) in agricultural landscapes represent important refugia for biodiversity including organisms providing ecosystem services. Their spill-over into agricultural fields may lead to the provision of regulating ecosystem services such as biological pest control ultimately affecting agricultural yield. Still, it remains largely unexplored, how different habitat types and their distributions in the surrounding landscape shape this provision of ecosystem services within arable fields. Hence, in this thesis I investigated the effect of SNHs on biodiversity-driven ecosystem services and disservices affecting wheat production with an emphasis on the role and interplay of habitat type, distance to the habitat and landscape complexity. I established transects from the field border into the wheat field, starting either from a field-to-field border, a hedgerow, or a kettle hole, and assessed beneficial and detrimental organisms and their ecosystem functions as well as wheat yield at several in-field distances. Using this study design, I conducted three studies where I aimed to relate the impacts of SNHs at the field and at the landscape scale on ecosystem service providers to crop production. In the first study, I observed yield losses close to SNHs for all transect types. Woody habitats, such as hedgerows, reduced yields stronger than kettle holes, most likely due to shading from the tall vegetation structure. In order to find the biotic drivers of these yield losses close to SNHs, I measured pest infestation by selected wheat pests as potential ecosystem disservices to crop production in the second study. Besides relating their damage rates to wheat yield of experimental plots, I studied the effect of SNHs on these pest rates at the field and at the landscape scale. Only weed cover could be associated to yield losses, having their strongest impact on wheat yield close to the SNH. While fungal seed infection rates did not respond to SNHs, fungal leaf infection and herbivory rates of cereal leaf beetle larvae were positively influenced by kettle holes. The latter even increased at kettle holes with increasing landscape complexity suggesting a release of natural enemies at isolated habitats within the field interior. In the third study, I found that also ecosystem service providers benefit from the presence of kettle holes. The distance to a SNH decreased species richness of ecosystem service providers, whereby the spatial range depended on species mobility, i.e. arable weeds diminished rapidly while carabids were less affected by the distance to a SNH. Contrarily, weed seed predation increased with distance suggesting that a higher food availability at field borders might have diluted the predation on experimental seeds. Intriguingly, responses to landscape complexity were rather mixed: While weed species richness was generally elevated with increasing landscape complexity, carabids followed a hump-shaped curve with highest species numbers and activity-density in simple landscapes. The latter might give a hint that carabids profit from a minimum endowment of SNHs, while a further increase impedes their mobility. Weed seed predation was affected differently by landscape complexity depending on weed species displayed. However, in habitat-rich landscapes seed predation of the different weed species converged to similar rates, emphasising that landscape complexity can stabilize the provision of ecosystem services. Lastly, I could relate a higher weed seed predation to an increase in wheat yield even though seed predation did not diminish weed cover. The exact mechanisms of the provision of weed control to crop production remain to be investigated in future studies. In conclusion, I found habitat-specific responses of ecosystem (dis)service providers and their functions emphasizing the need to evaluate the effect of different habitat types on the provision of ecosystem services not only at the field scale, but also at the landscape scale. My findings confirm that besides identifying species richness of ecosystem (dis)service providers the assessment of their functions is indispensable to relate the actual delivery of ecosystem (dis)services to crop production. N2 - Naturnahe Habitate, wie zum Beispiel Hecken und Sölle, stellen wichtige Refugien für die Biodiversität in Agrarlandschaften dar, weil aus diesen Habitaten Organismen in die Agrarflächen einwandern und dort regulierende Ökosystemdienstleistungen, wie zum Beispiel biologische Schädlingsbekämpfung, erbringen können. Weitgehend unerforscht ist bisher, in welcher Art und Weise die verschiedenen Habitattypen und ihre Verteilung in der umgebenden Landschaft die Bereitstellung dieser Ökosystemdienstleistungen, die letztlich auch einen Einfluss auf die landwirtschaftlichen Erträge haben können, beeinflussen. Daher habe ich den Einfluss von naturnahen Habitattypen auf biodiversitätsbedingte Ökosystemdienstleistungen und ihre Auswirkung auf die Weizenproduktion untersucht. Der Schwerpunkt meiner Arbeit lag auf dem Einfluss und dem Zusammenspiel von Habitattyp, Entfernung zum naturnahen Habitat und der umgebenden Landschaftsvielfalt. Auf intensiv bewirtschafteten Weizenfeldern habe ich entlang von Transekten von der Feldgrenze in das Feld hinein Nützlinge und Schädlinge, Ökosystemfunktionen sowie den Weizenertrag ermittelt. In der ersten Studie habe ich am Feldrand für alle Habitattypen einen Ertragsverlust im Vergleich zur Feldmitte beobachtet, wobei Hecken die stärkste Ertragsreduktion aufwiesen. Dieses Resultat führe ich auf die Beschattung durch die hohe Vegetationsstruktur zurück. Um Ertragsverluste besser zu verstehen, habe ich in der zweiten Studie den Schädlingsbefall durch ausgewählte Weizenschädlinge sowie den direkten Einfluss der naturnahen Habitate auf die Schädlingsraten auf der Feld- und Landschaftsskala untersucht. Nur die Unkrautbedeckung konnte mit dem Ertragsverlust in Verbindung gebracht werden, wobei sie einen stärkeren Einfluss auf die Ernteerträge in der Nähe der naturnahen Habitate hatte. Darüber hinaus konnte ich zeigen, dass die Befallsraten von Blattpathogenen und die Fraßraten der Larven des Getreidehähnchens an Söllen erhöht waren. Letzteres stieg sogar an Söllen mit zunehmender Landschaftsvielfalt an, was auf den Wegfall natürlicher Feinde an isolierten Habitaten im Feldinneren, wie Söllen, schließen lässt. In meiner dritten Studie fand ich heraus, dass auch Ökosystemdienstleister, wie Laufkäfer sowie die Samenprädation von Unkräutern, von Söllen profitieren. Die Entfernung zu einem naturnahen Habitat verringerte den Artenreichtum der Ökosystemdienstleister, im Gegensatz zur Samenprädation, welche zur Feldmitte zunahm. Dies deutet darauf hin, dass eine höhere Nahrungsverfügbarkeit an Feldrändern die Prädation von Versuchssamen abgeschwächt haben könnte. Während mit zunehmender Landschaftsvielfalt die Artenanzahl an Unkräutern anstieg, war bei den Laufkäfern die höchste Artenzahl und Aktivitätsdichte in Landschaften mit geringer Vielfalt zu beobachten. Das lässt den Schluss zu, dass eine Minimalausstattung an naturnahen Habitaten für Laufkäfer vorteilhaft ist, während ein zu großer Anteil an naturnahen Habitaten ihre Mobilität behindern könnte. Die ausgelegten Samen wurden in habitatarmen Landschaften unterschiedlich stark gefressen, wohingegen sie sich in habitatreichen Landschaften anglichen. Dieses Resultat unterstreicht, dass Landschaftsvielfalt die Bereitstellung von Ökosystemdienstleistungen stabilisieren kann. Abschließend konnte ich zeigen, dass mit ansteigender Samenprädation von Unkräutern ein Anstieg des Weizenertrages einherging, wenn auch die Unkrautbedeckung nicht verringert wurde. Die genauen Mechanismen der Bereitstellung von natürlicher Unkrautbekämpfung für die Pflanzenproduktion sollten in zukünftigen Studien weiter untersucht werden. Zusammenfassend lässt sich sagen, dass die untersuchten Ökosystemdienstleister und ihre Schädlings- sowie Prädationsraten Habitatpräferenzen aufwiesen. Diese Tatsache unterstreicht die Notwendigkeit, die Auswirkungen verschiedener Habitattypen auf die Bereitstellung von Ökosystemdienstleistungen nicht nur auf der Feldskala, sondern auch auf der Landschaftsskala zu bewerten. Meine Ergebnisse bestätigen, dass neben der Aufnahme des Artenreichtums von Ökosystemdienstleistern die Bewertung ihrer Funktionen unerlässlich ist, um die tatsächliche Bereitstellung von Ökosystemdienstleistungen mit dem landwirtschaftlichen Ertrag in Beziehung zu setzen. KW - semi-natural habitat KW - agroecology KW - yield KW - pest KW - natural enemies KW - Agrarökologie KW - Nützlinge KW - Schädlinge KW - naturnahe Habitate KW - Ernte Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-519653 ER - TY - THES A1 - Petsiuk, Andrei T1 - Investigation of charge carrier transport in metal halide perovskites by THz Spectroscopy T1 - Untersuchung des Ladungstransportes in den Metal Halogenid Perowskiten durch THz Spektroskopie N2 - Halide perovskites are a class of novel photovoltaic materials that have recently attracted much attention in the photovoltaics research community due to their highly promising optoelectronic properties, including large absorption coefficients and long carrier lifetimes. The charge carrier mobility of halide perovskites is investigated in this thesis by THz spectroscopy, which is a contact-free technique that yields the intra-grain sum mobility of electrons and holes in a thin film. The polycrystalline halide perovskite thin films, provided from Potsdam University, show moderate mobilities in the range from 21.5 to 33.5 cm2V-1s-1. It is shown in this work that the room temperature mobility is limited by charge carrier scattering at polar optical phonons. The mobility at low temperature is likely to be limited by scattering at charged and neutral impurities at impurity concentration N=1017-1018 cm-3. Furthermore, it is shown that exciton formation may decrease the mobility at low temperatures. Scattering at acoustic phonons can be neglected at both low and room temperatures. The analysis of mobility spectra over a broad range of temperatures for perovskites with various cation compounds shows that cations have a minor impact on charge carrier mobility. The low-dimensional thin films of quasi-2D perovskite with different numbers of [PbI6]4−sheets (n=2-4) alternating with long organic spacer molecules were provided by S. Zhang from Potsdam University. They exhibit mobilities in the range from 3.7 to 8 cm2V-1s-1. A clear decrease of mobility is observed with decrease in number of metal-halide sheets n, which likely arises from charge carrier confinement within metal-halide layers. Modelling the measured THz mobility with the modified Drude-Smith model yields localization length from 0.9 to 3.7 nm, which agrees well on the thicknesses of the metal-halide layers. Additionally, the mobilities are found to be dependent on the orientation of the layers. The charge carrier dynamics is also dependent on the number of metal-halide sheets n. For the thin films with n =3-4 the dynamics is similar to the 3D MHPs. However, the thin film with n = 2 shows clearly different dynamics, where the signs of exciton formation are observed within 390 fs timeframe after photoexcitation. Also, the charge carrier dynamics of CsPbI3 perovskite nanocrystals was investigated, in particular the effect of post treatments on the charge carrier transport. N2 - Metall-Halogenid Perowskite sind eine Klasse von photovoltaischen Materialien, welche in letzter Zeit sehr viel Aufmerksamkeit von Forschern bekommen haben. Der Grund dafür liegt in ihren vielversprechenden optoelektronischen Eigenschaften, wie beispielsweise hohe Absorptionskoeffizienten, lange Lebenszeiten der Ladungsträger und moderate Beweglichkeiten. Die Beweglichkeit der Ladungsträger und deren Kinetik wurde in dieser Dissertation mit Hilfe von Teraherzspektroskopie in verschiedenen Metall-Halogenide Perowskiten untersucht. Die polykristallinen Halogenide Perowskit-Dünnschichten, bereitgestellt von Dr. M. Stolterfoht von der Universität Potsdam, haben bei Raumtemperatur moderate Ladungsträgerbeweglichkeiten in einem Bereich von 21.5 bis 33.5 cm²V-1s-1. Die Analyse dieser Beweglichkeiten in Abhängigkeit der Temperatur zeigt, dass die Beweglichkeit bei Raumtemperatur durch die Interaktion mit polaren optischen Phononen limitiert wird. Bei niedrigeren Temperaturen sind die Beweglichkeiten durch Streuung an geladenen und neutralen Störstellen limitiert, wobei die Störstellenkonzentration bei ca. N =1017-1018 cm-3 liegt. Weiterhin wird es gezeigt, dass die Reduktion der Anzahl beweglicher Ladungsträger durch Exzitonenbildung ebenfalls bei niedrigen Temperaturen berücksichtigt werden muss. Streuung an akustischen Phononen kann sowohl bei Raum- als auch bei niedrigen Temperaturen vernachlässigt werden. Die Analyse der Beweglichkeitsspektren von Perowskiten mit unterschiedlichen Kationen und bei verschiedenen Temperaturspannen zeigt, dass diese Kationen einen sehr geringen Einfluss auf die Ladungsträgerbeweglichkeit haben. Niederdimensionale Perowskit-Dünnschichten aus alternierenden quasi-2D [PbI6]4− Schichten n (n=3-4) und organischen Trennschichten wurde von S. Zhang von der Universität Potsdam bereitgestellt. Diese zeigen Beweglichkeiten zwischen 3.7 und 8 cm²V-1s-1. Der signifikante Rückgang der beobachteten Beweglichkeit lässt sich auf die Anzahl der Metall-Halogeniden Schichten n zurückführen, in welcher die Ladungsträger räumlich eingeschränkt sind. Die Lokalisationslänge reicht von 0.9 bis 3.7 nm und ist vergleichbar mit der Dicke der einzelnen quasi-2D-Schichten. Ebenfalls ist die Beweglichkeit abhängig von der Schichtenorientierung. Zusätzlich ist die Ladungsträgerdynamik abhängig von der Anzahl der Metall-Halogeniden [PbI6]4−Schichten n. Dicke quasi-2D-Schichten (n = 3-4) zeigen ähnliche Dynamik wie drei dimensionale Perowskite, wogegen die dünnen quasi-2D-Schichten (n = 2) schnelle Exzitonbildung innerhalb 390 fs nach der Ladungsträgeranregung zeigen. Des weiteren wurde die Ladungsträgerdynamik von CsPbI3 Perovskite-Nanokristallen untersucht, insbesondere die Auswirkung von Ligandenaustausch und Temperierung auf die Ladungsträgerbeweglichkeit. KW - Photovoltaics KW - THz Spectroscopy KW - Metal Halide Perovskites KW - Metal Halogenid Perowskiten KW - Photovoltaik KW - THz Spektroskopie Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-515441 ER -