TY - THES A1 - Satanowski, Jerome Ari T1 - Design and in vivo implementation of metabolic modules for synthetic carbon fixation N2 - Climate change, driven by increasing atmospheric levels of carbon dioxide (CO2), presents a significant societal challenge for the 21st century. Biotechnological approaches for microbial production of commodity chemicals and fuels offer possible solutions to re-fix CO2 from the atmosphere, thereby mitigating carbon emissions and contributing to a sustainable carbon-economy in the future. Biological CO2 fixation is also at the heart of agricultural productivity, where photosynthesis and the Calvin-Benson-Bassham cycle present promising biotechnological targets for crop improvement. Synthetic biology allows testing metabolic solutions not known to exist in nature, which may exceed their natural counterparts in terms of efficiency. In this thesis, I explore the design of such new-to-nature metabolic pathways for biological CO2 utilization and their implementation in living cells (in vivo). In the first chapter, I describe the development of a metabolic pathway that enables intracellular conversion of CO2 to formate, giving access to highly efficient carbon fixation routes. In nature, CO2-reduction remains restricted to anaerobic organisms and low redox potentials. Here, we introduce the “CORE cycle”, a synthetic metabolic pathway that converts CO2 to formate under fully aerobic conditions and ambient CO2 levels, using only NADPH as a reductant. We leverage this synthetic, ATP-energized pathway to overcome the thermodynamic and kinetic barriers associated with CO2-reduction. Applying rational metabolic engineering and adaptive evolution, this work demonstrates that Escherichia coli can utilize ambient CO2 as the sole source of one-carbon units and serine, achieving a first step towards novel modes of synthetic autotrophy. We further apply computational modeling to showcase the potential of the CORE cycle as a photorespiratory bypass for enhancing photosynthesis. In the second chapter, I describe the development of the “LCM module”, a novel metabolic route for CO2-incorporating conversion of acetyl-CoA to pyruvate. This route relies on the newly uncovered, promiscuous activity of an adenosylcobalamin (B12)-dependent enzyme, which we significantly optimize through targeted hypermutation and in vivo selection strategies. The LCM module provides a shorter and more efficient pathway for acetyl-CoA assimilation compared to natural routes, offering novel opportunities for synthetic CO2 fixation. Overall, through theoretical pathway analysis, enzyme bioprospecting, and modular metabolic engineering in E. coli, this thesis expands the solution space for biological CO2 fixation. KW - synthetic biology KW - metabolic engineering KW - carbon fixation KW - photosynthesis KW - enzyme KW - CO2 assimilation KW - auxotrophy Y1 - 2024 ER - TY - THES A1 - Lagarde, Sophie T1 - Seismic imprint of natural and anthropogenic processes on the Earth surface T1 - Seismische Merkmale natürlicher und anthropogener Prozesse auf der Erdoberfläche N2 - Terrestrial landscape dynamics are dominated by the production, mobilisation, transfer and deposition of sediment. Numerous chemical elements are carried by sediments, making them a key component for ecological processes, as soil constitution and thus plants and animal ecosystems depends on them, and by extension the human species. They are also essential for climate evolution and regulation as marine sedimentation acts as a carbon sink. However, the processes at the origin of their production, mobilisation, transfer can occur suddenly with high-energy content – such as volcanic eruption, mass wasting or flooding events and wildfires – shaking ecosystems and shaping landforms. Besides, in the last era, the human species has shown its ability to disturb landscape dynamics and change sediments cycles. Thus, there is a need for predictive understanding of the processes involved. This relies on un-derstanding of the mechanisms of key processes and their controls, and knowledge of the state and evolution of the Earth’s surface. Classic approaches to these challenges include empirical observations and numerical modeling of geochemical fluxes and surface processes, as well as the study of terrestrial sedimentary archives to better understand the parameters at stake in landscape dynamics and climate changes and the different actions and retroactions between the production, mobilisation, transfer and deposition of sediments which ultimately shape landscapes. Environmental seismology complements these approaches. Environmental seismology is the science topic investigating the source functions and propagation properties of seismic vibrations triggered by processes happening at or near the Earth’s surface, below and above it - cryosphere, hydrosphere, atmosphere, human habitat, biosphere, etc., to obtain insight into all these physical processes. Indeed, from mass wasting event to rivers, from wild species to hu-man, all these processes are generating seismic waves. Environmental seismology is a rather recent field, with new branches rapidly expanding and at various stages of scientific progress. This thesis is motivated by the goal of learning more on two major natural process hazards (river bedload transport and mass wasting) as well as on human-generated acoustic hazard, while covering the axis of funda-mental research progression, from data exploration and method and theory development to proof of concept, with the twin aims of developing a better understanding of the operation of these specific processes, and of advancing the methods we have at our disposal to study them. First, I provide a benchmark for assessment of the reliability of existing seismic bedload model inver-sion to retrieve bedload flux from seismic data. Bedload flux measurements are essential to better understand river dynamics, and this can be achieved with environmental seismology. However, due to a lack of well-constrained validation data, the accuracy of the resulting inversions is unknown. I address this gap in Chapter 2.2, reporting a seismic field experiment, and comparing the results to high-quality independent bedload measurements to constrain a seismic bedload model. The study shows that the quality of bedload flux estimates from seismic data strongly depends on the quality of the input data for the model. Direct measurements of relevant parameters, chiefly seismic ground proper-ties needed for the Green's function and the grain size distribution of the moving bedload, considerably improve the model quality over generic approaches using empirical or theoretical functions. I also pro-vide a numerical tool to facilitate the use of water turbulence and bedload seismic inversion models: seismic models for bedload flux and water turbulence require painstaking work to constrain parame-ters describing the ground properties by active seismic study or analysis of passive seismic data, and the grain size distribution via independent measurements. Reasonable predictions can be achieved by using a Monte Carlo approach to optimize the free parameters with respect to the target parameters. The validation of the tool, in Chapter 2.3, with independent measurements of water depth and bedload flux at a study site on the Eshtemoa river in Israël makes it available for reliable use at other sites. The work reported in this chapter has been published in Lagarde et al. 2021 and Dietze et al. 2019b. In a second study, reported in Chapter 3, I investigate the formation of a failure plane prior to a rock-slide. A better understanding of the dynamics of the preparation phase is essential to determine the timing, volume and mobilization mechanism of a rock slope failure, and this can be achieved with envi-ronmental seismology. I take advantage of a network of seismic stations close to an instable slope recording cracking signals prior to the slope failure, and use a machine learning technique based on hidden Markov models to isolate these signals from the seismic data, retrieving the cumulative number of cracking events in a period of 20 days prior to a large rockslide and 10 days after. The trajectory of the cumulative number of cracks shifts from a rather linear shape in the two weeks prior to the rock-slide to an S-shaped development in the last 27 h before failure. I interpret this change as a switch from initial distributed cracking to localised damage accumulation in the hours prior to the failure. I develop a simple physical model to explain the temporal evolution of crack activity during the S-shape phase, revealing the importance of an internal parameter, the total crack boundary length as the dominant control parameter of failure plane evolution. This study has been published as Lagarde et al. 2023. Third, I develop a model converting acoustic signals to seismic signals. A part of the acoustic vibrations generated on the Earth’s surface is converted to seismic signals at the ground interface. Consequently, noise pollution may be translated to slope fatigue and rock micro (or macro) fracturing resulting in a degrading effect on landforms. Moreover, this pollution can have negative impacts, such as physical, physiological as well as psychological effects on animal species. At present, the impact of seismic pol-lution generated by acoustic sources is difficult to evaluate. In Chapter 4, I improve and implement a model converting the acoustic pressure generated by a source in the atmosphere to the corresponding seismic signal for a receiver within the ground. The ground is considered to be a porous elastic medium in which wave behaviour can be approximated by the Biot-Stoll model. The model is extended for use of a temporal pressure pulse as an input, and to produce output on a plan 2D map, where the wind effect on the acoustic to seismic coupling can be reproduced. I invest extensive effort in making the model user-friendly, as the project aims at reaching a large audience, comprising, for example, geo-morphologists, biologists and sociologists. Finally, the model is subjected to synthetic testing as well as a qualitative comparison of the predicted ground particle velocity and the seismic signal of a real heli-copter flight as a source of acoustic input. These studies advance understanding of the operation of specific natural processes in channels and on hillslopes, and bring us closer to designing functioning early warning systems for mass-wasting and flood events. This thesis also raises questions that have not been considered before, such as the con-tribution of human acoustic pollution to the seismic hum and its impact on the natural environment, or the importance of cracks in the self-development of the failure plane prior to slope. Together, these studies question general assumptions usually made regarding the triggering of mass wasting or the hillslope-channel connectivity. Beyond this, the thesis covers the axis of fundamental research progres-sion, from data exploration and method and theory development to proof of concept, and shows how in the rapidly developing field of environmental seismology, an active awareness of progress can help strengthen and accelerate general advances. N2 - Die Dynamik terrestrischer Landschaften wird von der Produktion, Mobilisierung, Übertragung und Ablagerung von Sedimenten dominiert. In Sedimenten sind zahlreiche chemische Elemente enthalten, die sie zu einer Schlüsselkomponente für ökologische Prozesse machen, da von ihnen die Bodenbe-schaffenheit und damit die Ökosysteme von Pflanzen und Tieren und damit auch das menschliche Wohlergehen abhängen. Sie sind auch für die Entwicklung und Regulierung des Klimas von wesentlicher Bedeutung, da Sedimentation im Meer als Kohlenstoffsenke fungieren kann. Allerdings können die Pro-zesse, die ihrer Produktion, Mobilisierung und Übertragung zugrunde liegen, bei hohem Energiegehalt plötzlich auftreten – wie Vulkanausbrüche, gravitative Massenbewegungen, Überschwemmungen und Waldbrände – und Ökosysteme erschüttern und Landschaften formen. Darüber hinaus hat die mensch-liche Spezies immer wieder gezeigt, dass sie die Landschaftsdynamik stören und Sedimentzyklen verän-dern kann. Daher besteht Bedarf, die beteiligten Prozesse auf eine Weise zu verstehen, die quantitative Vorhersagen erlaubt. Dies erfordert ein Verständnis der Physik wichtiger Prozesse, der Parameter, die sie bedingen, sowie Kenntnisse über den Zustand und die Entwicklung der Erdoberfläche. Zu den klassi-schen Ansätzen zur Bewältigung dieser Herausforderungen gehören empirische Beobachtungen und numerische Modellierung geochemischer Stoffflüsse und Oberflächenprozesse sowie die Untersuchung terrestrischer Sedimentarchive, um die Parameter, die bei Landschaftsdynamik und Klimaveränderun-gen eine Rolle spielen, sowie die unterschiedlichen Aktionen und Rückwirkungen zwischen Produktion, Mobilisierung, Transfer und Ablagerung von Sedimenten, die letztendlich Landschaften formen. Die Umweltseismologie ergänzt diese Ansätze. Umweltseismologie ist das wissenschaftliche Fachgebiet, das die Quellfunktionen und Ausbreitungsei-genschaften seismischer Schwingungen untersucht, die durch Prozesse an oder in der Nähe der Erd-oberfläche, darunter und darüber ausgelöst werden – zum Beispiel in der Kryosphäre, Hydrosphäre, Atmosphäre, dem menschlichen Lebensraum, der Biosphäre usw. –, um Einblicke in deren physikalische Prozesse zu gewinnen. All diese Prozesse erzeugen seismische Wellen, von Massenbewegungen bis hin zu Flüssen, von wild lebenden Tierarten bis hin zum Menschen. Die Umweltseismologie ist ein recht junges, schnell wachsendes Fachgebiet, mit Zweigen, die sich in unterschiedlichen Stadien des wissen-schaftlichen Fortschritts befinden. Ziel dieser Arbeit ist es, zwei große Naturgefahrenprozesse, Ge-schiebetransport in Flüssen und gravitative Massenbewegung, sowie über vom Menschen verursachte akustische Gefahren zu untersuchen. Gleichzeitig soll die Achse des grundlegenden Forschungsfort-schritts von der Datenexploration bis zur Methode und von der Theorieentwicklung bis zum Proof of Concept abgedeckt werden, mit dem doppelten Ziel ein besseres Verständnis für die Funktionsweise dieser spezifischen Prozesse zu entwickeln und die uns zur Verfügung stehenden Methoden zu ihrer Untersuchung weiterzuentwickeln. Zunächst stelle ich einen Maßstab für die Bewertung der Zuverlässigkeit der bestehenden seismischen Geschiebemodellinversion vor, um den Geschiebetrieb aus seismischen Daten abzuleiten. Messungen des Geschiebetriebs sind für ein besseres Verständnis der Flussdynamik unerlässlich, und dies kann mit der Umweltseismologie erreicht werden. Aufgrund des Mangels an streng eingeschränkten Validie-rungsdaten ist die Genauigkeit der resultierenden Inversionen jedoch unbekannt. Auf diese Lücke gehe ich in Kapitel 2.2 ein, wo ich über ein seismisches Feldexperiment berichte und die Ergebnisse mit hochwertigen unabhängigen Geschiebemessungen vergleiche, um ein seismisches Geschiebemodell einzugrenzen. Die Studie zeigt, dass die Qualität der Berechnungen der Geschiebetransportraten aus seismischen Daten stark von der Qualität der Eingabedaten für das Modell abhängt. Direkte Messungen relevanter Parameter, vor allem seismischer Bodeneigenschaften, die für die Green-Funktion benötigt werden, und der Korngrößenverteilung des bewegten Geschiebes, verbessern die Modellqualität erheb-lich gegenüber generischen Ansätzen, die empirische oder theoretische Funktionen verwenden. Ich stelle auch ein numerisches Werkzeug zur Verfügung, um die Verwendung von Modellen für Was-serturbulenzen und seismische Geschiebeinversion zu erleichtern: Seismische Modelle für Geschiebe-fluss und Wasserturbulenzen erfordern Sorgfalt, um Parameter, die die Bodeneigenschaften beschrei-ben, durch aktive seismische Untersuchungen oder passive seismische Analysen einzuschränken Daten und die Korngrößenverteilung über unabhängige Messungen. Vernünftige Vorhersagen können durch die Verwendung eines Monte-Carlo-Ansatzes zur Optimierung der freien Parameter im Hinblick auf die Zielparameter erzielt werden. Die Validierung des Werkzeugs in Kapitel 2.3 mit unabhängigen Messun-gen der Wassertiefe und des Geschiebeflusses an einem Untersuchungsstandort am Eshtemoa in Israel macht es für den zuverlässigen Einsatz an anderen Standorten verfügbar. Die in diesem Kapitel be-schriebene Arbeit wurde in Lagarde et al. 2021 und Dietze et al. 2019b veröffentlicht. In einer zweiten Studie, über die in Kapitel 3 berichtet wird, untersuche ich die Bildung einer Bruchflä-che vor einem Steinschlag. Ein besseres Verständnis der Dynamik der Vorbereitungsphase ist für die Bestimmung des Zeitpunkts, des Volumens und des Mobilisierungsmechanismus eines Felshangbruchs von entscheidender Bedeutung. Dies kann mit der Umweltseismologie erreicht werden. Ich nutze ein Netzwerk von seismischen Stationen in der Nähe eines instabilen Hangs, um die Signale von Rissen im Gestein vor dem Hangversagen aufzeichnen. Mittels einer auf Hidden-Markov-Modellen basierenden Technik des maschinellen Lernens werden diese Signale aus den seismischen Daten isoliert und so die kumulative Anzahl der Rissereignisse in den 20 Tagen vor einem großen Felssturz und den 10 Tagen danach aufgezeichnet. Der Verlauf der kumulierten Anzahl von Rissen verschiebt sich von einer eher linearen Form in den zwei Wochen vor dem Felssturz zu einer S-förmigen Entwicklung in den letzten 27 Stunden vor dem Versagen. Ich interpretiere diese Veränderung als einen Wechsel von anfänglicher verteilter Rissbildung zu lokalisierter Schadensakkumulation in den Stunden vor dem Ausfall. Ich ent-wickle ein einfaches physikalisches Modell, um die zeitliche Entwicklung der Rissaktivität während der S-Form-Phase zu erklären und die Bedeutung eines internen Parameters, der gesamten Rissgrenzenlän-ge, als dominanten Kontrollparameter für die Entwicklung der Versagensebene aufzuzeigen. Diese Stu-die wurde als Lagarde et al. 2023 veröffentlicht. Drittens entwickle ich ein Modell, das akustische Signale in seismische Signale umwandelt. Ein Teil der auf der Erdoberfläche erzeugten akustischen Schwingungen wird an der Erdoberfläche in seismische Signale umgewandelt. Infolgedessen kann die Lärmbelästigung zu Hangermüdung und Mikro- (oder Makro-)Brüchen des Gesteins führen, was zu Schäden an Landschaftsformen führen kann. Darüber hinaus kann diese Verschmutzung negative Auswirkungen haben, beispielsweise physische, physiologi-sche und psychologische Auswirkungen auf Tierarten. Derzeit ist es schwierig, die Auswirkungen seismi-scher Verschmutzung durch akustische Quellen abzuschätzen. In Kapitel 4 implementierte und verbes-sere ich ein Modell, das den von einer Quelle in der Atmosphäre erzeugten Schalldruck in das entspre-chende seismische Signal für einen Empfänger im Boden umwandelt. Der Boden gilt als poröses elasti-sches Medium, in dem das Wellenverhalten durch das Biot-Stoll-Modell angenähert werden kann. Das Modell wird erweitert, um einen zeitlichen Druckimpuls als Eingabe zu verwenden und eine Ausgabe auf einer planaren 2D-Karte zu erzeugen, auf der der Windeffekt auf die akustische und seismische Kopp-lung reproduziert werden kann. Ich investiere große Anstrengungen, um das Modell benutzerfreundlich zu gestalten, da das Projekt darauf abzielt, ein großes Publikum zu erreichen, das beispielsweise aus Geomorphologen, Biologen und Soziologen besteht. Abschließend wird das Modell einer synthetischen Prüfung sowie einem qualitativen Vergleich der vorhergesagten Bodenpartikelgeschwindigkeit und dem seismischen Signal eines realen Hubschrauberfluges als Quelle akustischer Eingaben unterzogen. Diese Studien verbessern das Verständnis der Funktionsweise spezifischer natürlicher Prozesse in Gerinnen und an Berghängen und bringen uns der Entwicklung funktionierender Frühwarnsysteme für Massenbewegungen und Überschwemmungen näher. Diese Arbeit wirft auch Fragen auf, die bisher nicht berücksichtigt wurden, wie zum Beispiel den Beitrag menschlicher Schallverschmutzung zum seismischen Brummen und seine Auswirkungen auf die natürliche Umwelt oder die Bedeutung von Ris-sen bei der Selbstentwicklung einer Versagensebene. Zusammengenommen stellen diese Studien all-gemeine Annahmen in Frage, die üblicherweise hinsichtlich der Auslösung von Massenverschwenbewe-gungen oder der Verbindung zwischen Hang und Gerinne gemacht werden. Darüber hinaus deckt die Dissertation die Achse des Fortschritts der Grundlagenforschung ab, von der Datenexploration über die Methoden- und Theorieentwicklung bis hin zum Proof of Concept, und zeigt, wie im sich schnell entwi-ckelnden Bereich der Umweltseismologie ein aktives Bewusstsein für den Fortschritt dazu beitragen kann, diesen zu stärken und den Fortschritt zu beschleunigen. KW - environmental seismology KW - bedload flux KW - mass wasting preparation phase KW - acoustic to seismic field KW - akustische zu seismischen Wellen KW - Geschiebetrieb KW - Umweltseismologie KW - Vorboten für Massenbewegungen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649136 ER - TY - THES A1 - Skiba, Vanessa T1 - Alpine speleothems as recorders of glacier evolution T1 - Alpine Speläotheme als Archive für Gletscherentwicklung N2 - The European Alps are amongst the regions with highest glacier mass loss rates over the last decades. Under the threat of ongoing climate change, the ability to predict glacier mass balance changes for water and risk management purposes has become imperative. This raises an urgent need for reliable glacier models. The European Alps do not only host glaciers, but also numerous caves containing carbonate formations, called speleothems. Previous studies have shown that those speleothems also grew during times when the cave was covered by a warm-based glacier. In this thesis, I utilise speleothems from the European Alps as archives of local, environmental conditions related to mountain glacier evolution. Previous studies have shown that speleothem isotope data from the Alps can be strongly affected by in-cave processes. Therefore, part of this thesis focusses on developing an isotope evolution model, which successfully reproduces differences between contemporaneous growing speleothems. The model is used to propose correction approaches for prior calcite precipitation effects on speleothem oxygen isotopes (δ18O). Applications on speleothem records from caves outside of the Alps demonstrate that corrected δ18O agrees better with other records and climate model simulations. Existing speleothem growth histories and carbon isotope (δ13C) records from Alpine caves located at different elevations are used to infer soil vs. glacier cover and the thermal regime of the glacier over the last glacial cycle. The compatibility with glacier evolution models is statistically assessed. A general agreement between speleothem δ13C-derived information on soil vs. glacier presence and modelled glacier coverage is found. However, glacier retreat during Marine Isotope Stage (MIS) 3 seems to be underestimated by the model. Furthermore, speleothem data provides evidence of surface temperature above the freezing point which is, however, not fully reproduced by the simulations. History of glacier cover and their thermal regime is explored for the high-elevation cave system Melchsee-Frutt in the Swiss Alps. Based on new (MIS 9b – MIS 7b, MIS 2) and available speleothem δ13C (MIS 7a – 5d) data, warm-based glacier cover is inferred for MIS 8, 7d, 6, and 2. Also a short period of cold-based ice coverage is found for early MIS 6. In a detailed multi-proxy analysis (δ18O, δ13C, Mg/Ca and Sr/Ca), millennial-scale changes in the glacier-related source of the water infiltrating in the karst during MIS 8 and 7d are found and linked to Northern Hemisphere climate variability. While speleothem records from high-elevation cave sites in the Alps exhibit huge potential for glacier reconstruction, several limitations remain, which are discussed throughout this thesis. Ultimately, recommendations are given to further leverage subglacial speleothems as an archive of glacier dynamics. N2 - Die europäischen Alpen gehören zu den Regionen mit den höchsten Massenverlusten von Gletschern innerhalb der letzten Jahrzehnte. Angesichts des fortschreitenden Klimawandels ist die Vorhersage von Veränderungen in der Gletschermassenbilanz für das Wasser- und Risikomanagement unerlässlich geworden. Dafür werden zuverlässige Gletschermodelle dringend benötigt. Die europäischen Alpen beherbergen nicht nur Gletscher, sondern auch zahlreiche Höhlen inklusive Karbonatformationen, so genannte Speläotheme. Frühere Studien haben gezeigt, dass diese Speläotheme auch zu Zeiten entstanden sind, als die Höhle von einem Gletscher mit warmem Eis an der Basis bedeckt war. In dieser Dissertation verwende ich Speläotheme aus den europäischen Alpen als Archive für lokale Bedingungen im Zusammenhang mit der Evolution von Gebirgsgletschern. Frühere Studien haben gezeigt, dass die Isotopenzusammensetzung von Speläothemen aus den Alpen stark durch höhleninterne Prozesse beeinflusst werden können. Daher konzentriert sich ein Teil dieser Arbeit auf die Entwicklung eines Isotopenmodells, welches die Unterschiede zwischen gleichzeitig wachsenden Speläothemen erfolgreich reproduziert. Das Modell wird verwendet um Korrekturen der Auswirkungen solcher höhleninternen Prozesse auf die Sauerstoffisotope (δ18O) von Speläothemen vorzuschlagen. Die Anwendung auf Speläotheme aus Höhlen außerhalb der Alpen zeigt, dass das korrigierte δ18O besser mit anderen Datensätzen und Klimamodellsimulationen übereinstimmt. Bestehende Daten über die Wachstumsphasen von Speläothemen und die Kohlenstoffisotope (δ13C) von Höhlen der Alpen aus verschiedenen Höhenlagen werden verwendet, um Rückschlüsse auf die Gletscherbedeckung und deren thermisches Regime während der letzten Eiszeit zu ziehen. Die Kompatibilität mit Modellen der zeitlichen Gletscherentwicklung wird statistisch bewertet. Es zeigt sich eine allgemeine Übereinstimmung zwischen dem aus den Speläothemen δ13C abgeleiteten Auftreten von Gletschern und der modellierten Gletscherbedeckung. Jedoch scheint der Gletscherrückgang während dem Isotopenstadium (MIS) 3 vom Modell unterschätzt zu werden. Darüber hinaus liefern die Speläothem Daten einen Hinweis auf Oberflächentemperaturen oberhalb des Gefrierpunkts, die von den Simulationen jedoch nicht vollständig wiedergegeben werden. Die Geschichte der Gletscherbedeckung und des thermischen Regimes der Gletscher wird für das hochgelegene Höhlensystem Melchsee-Frutt in den Schweizer Alpen genauer untersucht. Auf der Grundlage neuer (MIS 9b - MIS 7b, MIS 2) und verfügbarer δ13C Daten (MIS 7a - 5d) wird für MIS 8, 7d, 6 und 2 auf Gletscherbedeckung mit warmem Eis an der Basis an diesem Standort geschlossen. Es gibt außerdem Hinweise auf eine kurze Periode einer Eisbedeckung mit kaltem Eis während einer tausendjährigen Kälteperiode im vorletzten Glazial. In einer detaillierten Multi-Proxy-Analyse (δ18O, δ13C, Mg/Ca und Sr/Ca) werden tausendjährige Schwankungen der gletscherabhängigen Quelle des in den Karst infiltrierenden Wassers während MIS 8 und 7d rekonstruiert und in Verbindung mit Klimavariabilität in der Nordhemisphäre gebracht. Obwohl Speläothem-Daten aus hochgelegenen Höhlen in den Alpen ein enormes Potenzial für Gletscherrekonstruktion aufweisen, gibt es noch immer Einschränkungen, die in dieser Arbeit ebenfalls diskutiert werden. Schließlich werden Empfehlungen zur weiteren Nutzung von subglazialen Speläothemen als Archiv für Gletscherdynamik gegeben. KW - palaeoclimate KW - Paläoklima KW - glacier KW - Gletscher KW - speleothem KW - Speläothem KW - Alps KW - Alpen KW - glacials KW - Eiszeiten KW - abrupt transitions KW - abrupte Ereignisse Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-655379 ER - TY - THES A1 - El Youssoufi, Dalal T1 - Stellar populations, morphology and kinematics of the Magellanic clouds N2 - Galaxy morphology is a fossil record of how galaxies formed and evolved and can be regarded as a function of the dynamical state of a galaxy. It encodes the physical processes that dominate its evolutionary history, and is strongly aligned with physical properties like stellar mass, star formation rate and local environment. At a distance of ∼50 and 60 kpc, the Magellanic Clouds represent the nearest interacting pair of dwarf irregular galaxies to the Milky Way, rendering them an important test bed for galaxy morphology in the context of galaxy interactions and the effect of the local environment in which they reside. The Large Magellanic Cloud is classified as the prototype for Magellanic Spiral galaxies, with one prominent spiral arm, an offset bar and an inclined rotating disc while the Small Magellanic Cloud is classified as a dwarf Irregular galaxy and is known for its unstructured shape and large depth across the line–of–sight. Resolved stellar populations are powerful probes of a wide range of astrophysical phenomena, the proximity of the Magellanic Clouds allows us to resolve their stellar populations to individual stars that share coherent chemical and age distributions. The coherent properties of resolved stellar populations enable us to analyse them as a function of position within the Magellanic Clouds, offering a picture of the growth of the galaxies’ substructures over time and yielding a comprehensive view of their morphology. Furthermore, investigating the kinematics of the Magellanic Clouds offers valuable insights into their dynamics and evolutionary history. By studying the motions and velocities of stars within these galaxies, we can trace their past interactions, with the Milky Way or with each other and unravel the complex interplay of forces that have influenced the Magellanic Clouds’ formation and evolution. In Chapter 2, the VISTA survey of the Magellanic Clouds was employed to generate unprecedented high-resolution morphological maps of the Magellanic Clouds in the near-infrared. Utilising colour-magnitude diagrams and theoretical evolutionary models to segregate stellar populations, this approach enabled a comprehensive age tomography of the galaxies. It revealed previously uncharacterised features in their central regions at spatial resolutions of 0.13 kpc (Large Magellanic Cloud) and 0.16 kpc (Small Magellanic Cloud), the findings showcased the impact of tidal interactions on their inner regions. Notably, the study highlighted the enhanced coherent structures in the Large Magellanic Cloud, shedding light on the significant role of the recent Magellanic Clouds’ interaction 200 Myr ago in shaping many of the fine structures. The Small Magellanic Cloud revealed asymmetry in younger populations and irregularities in intermediate-age ones, pointing towards the influence of past tidal interactions. In Chapter 3, an examination of the outskirts of the Magellanic Clouds led to the identification of new substructures through the use of near-infrared photometry from the VISTA Hemisphere Survey and multi-dimensional phase-space information from Gaia. The distances and proper motions of these substructures were investigated. This analysis revealed the impact of past Magellanic Clouds’ interactions and the influence of the Milky Way’s tidal field on the morphology and kinematics of the Magellanic Clouds. A bi-modal distance distribution was identified within the luminosity function of the red clump stars in the Small Magellanic Cloud, notably in its eastern regions, with the foreground substructure being attributed to the Magellanic Clouds’ interaction around 200 Myr ago. Furthermore, associations with the Counter Bridge and Old Bridge were uncovered through the detection of background and foreground structures in various regions of the SMC. In chapter 4, a detailed kinematic analysis of the Small Magellanic Cloud was conducted using spectra from the European Southern Observatory Science Archive Facility. The study reveals distinct kinematics in the Wing and bar regions, attributed to interactions with the Large Magellanic Cloud and variations in star formation history. Notably, velocity disparities are observed in the bar’s young main sequence stars, aligning with specific star-forming episodes, and suggesting potential galactic stretching or tidal stripping, as corroborated by proper motion studies. N2 - Galaxienmorphologie ist ein fossiles Aufzeichnungsmaterial dafür, wie Galaxien entstanden und sich entwickelt haben und kann als Funktion des dynamischen Zustands einer Galaxie betrachtet werden. Sie kodiert die physischen Prozesse, die ihre Entwicklungsgeschichte dominieren, und ist stark mit physischen Eigenschaften wie stellare Masse, Sternentstehungsrate und lokaler Umgebung verknüpft. In einer Entfernung von ∼50 und 60 kpc stellen die Magellanschen Wolken das nächstgelegene interagierende Paar von Zwergirregulären Galaxien zur Milchstraße dar und sind somit ein wichtiges Testfeld für Galaxienmorphologie im Kontext von Galaxieninteraktionen und dem Einfluss der lokalen Umgebung, in der sie sich befinden. Die Große Magellansche Wolke wird als Prototyp für Magellanische Spiralgalaxien klassifiziert, mit einem prominenten Spiralarm, einem versetzten Balken und einer geneigten rotierenden Scheibe, während die Kleine Magellansche Wolke als Zwergirreguläre Galaxie klassifiziert wird und für ihre unstrukturierte Form und große Tiefe entlang der Sichtlinie bekannt ist. Aufgelöste Sternpopulationen sind mächtige Sonden für eine breite Palette von astrophysikalischen Phänomenen, die Nähe der Magellanschen Wolken ermöglicht es uns, ihre Sternpopulationen bis zu einzelnen Sternen aufzulösen, die kohärente chemische und Altersverteilungen aufweisen. Die kohärenten Eigenschaften von aufgelösten Sternpopulationen ermöglichen es uns, sie als Funktion der Position innerhalb der Magellanschen Wolken zu analysieren, und bieten ein Bild des Wachstums der Galaxienunterstrukturen über die Zeit und vermitteln eine umfassende Sicht auf ihre Morphologie. Darüber hinaus bietet die Untersuchung der Kinetik der Magellanschen Wolken wertvolle Einblicke in ihre Dynamik und Entwicklungsgeschichte. Durch das Studium der Bewegungen und Geschwindigkeiten der Sterne innerhalb dieser Galaxien können wir ihre vergangenen Interaktionen, sei es mit der Milchstraße oder untereinander, nachverfolgen und das komplexe Zusammenspiel der Kräfte, die die Formation und Evolution der Magellanschen Wolken beeinflusst haben, entwirren. In Kapitel 2 wurde die VISTA Untersuchung der Magellanschen Wolken verwendet, um bisher beispiellose hochauflösende morphologische Karten der Magellanschen Wolken im nahen Infrarot zu erstellen. Mit Hilfe von Farb-Helligkeits-Diagrammen und theoretischen Entwicklungsmodellen zur Abgrenzung der Sternpopulationen ermöglichte dieser Ansatz eine umfassende Alters-Tomographie der Galaxien. Es wurden bisher unbekannte Merkmale in ihren Zentralregionen mit räumlichen Auflösungen von 0,13 kpc (Große Magellansche Wolke) und 0,16 kpc (Kleine Magellansche Wolke) offenbart, die Ergebnisse zeigten die Auswirkungen von Gezeitenwechselwirkungen auf ihre inneren Regionen. Bemerkenswert ist, dass die Studie die verstärkten kohärenten Strukturen in der Großen Magellanschen Wolke hervorhob und auf die bedeutende Rolle der jüngsten Interaktion der Magellanschen Wolken vor 200 Myr bei der Formung vieler Feinstrukturen hinwies. Die Kleine Magellansche Wolke zeigte Asymmetrie in jüngeren Populationen und Unregelmäßigkeiten bei mittelalten, was auf den Einfluss vergangener Gezeitenwechselwirkungen hinweist. In Kapitel 3 führte eine Untersuchung der Außenbereiche der Magellanschen Wolken zur Identifizierung neuer Unterstrukturen durch die Nutzung von Nahinfrarot-Photometrie aus der VISTA Hemisphere Survey und mehrdimensionalen Phasenraum-Informationen von Gaia. Die Entfernungen und Eigenbewegungen dieser Unterstrukturen wurden untersucht. Diese Analyse offenbarte die Auswirkungen vergangener Interaktionen der Magellanschen Wolken und den Einfluss des Gezeitenfeldes der Milchstraße auf die Morphologie und Kinetik der Magellanschen Wolken. Eine bimodale Entfernungsverteilung wurde innerhalb der Leuchtkraftfunktion der Red-Clump-Sterne in der Kleinen Magellanschen Wolke identifiziert, insbesondere in ihren östlichen Regionen, wobei die Vordergrundstruktur der Interaktion der Magellanschen Wolken vor etwa 200 Myr zugeschrieben wurde. Zudem wurden durch die Entdeckung von Hintergrund- und Vordergrundstrukturen in verschiedenen Regionen der SMC Assoziationen mit der Counter Bridge und Old Bridge aufgedeckt. In Kapitel 4 wurde eine detaillierte kinematische Analyse der Kleinen Magellanschen Wolke durchgeführt, unter Verwendung von Spektren aus der European Southern Observatory Science Archive Facility. Die Studie zeigt unterschiedliche Kinetik in den Wing- und Bar-Regionen auf, die auf Interaktionen mit der Großen Magellanschen Wolke und Variationen in der Sternentstehungsgeschichte zurückgeführt werden. Bemerkenswert sind Geschwindigkeitsunterschiede, die bei den jungen Hauptreihensternen der Bar beobachtet werden, die mit spezifischen Sternentstehungs-Episoden übereinstimmen und auf potenzielle galaktische Dehnung oder Gezeitenstripping hinweisen, wie es durch Studien der Eigenbewegung bestätigt wird. T2 - Stellare Populationen, Morphologie und Kinematik der Magellanschen Wolken KW - Near-field Cosmology KW - Stellar Populations KW - Magellanic Clouds KW - Galaxy Interactions KW - Galaxy Morphology KW - Stellare Populationen KW - Nahfeldkosmologie KW - Magellansche Wolken KW - Galaxienwechselwirkungen KW - Galaxienmorphologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-652607 ER - TY - THES A1 - Noureen, Riffat T1 - The dark side of empowering leadership N2 - As followers are becoming more educated and better connected, empowering leadership has gained traction in recent times as an alternative to traditional top-down models of leadership. Several scholars have investigated the relationship between empowering leadership and other variables in different contexts. As most previous studies have focused on the positive aspects of empowering leadership, research on its potential dark side is scarce. Furthermore, no previous study has examined whether and how the transfer of workload from followers to leaders can occur over time, which I proposed can lead to emotional exhaustion and work-family conflict among leaders. Therefore, I proposed that despite the positive outcomes of empowering leadership for both followers and leaders, it may also trigger negative outcomes capable of affecting the well-being of leaders. Drawing on the Conservation of Resources (COR) theory, Job Demand-Resources (JD-R) theory, and Too-Much-of-a-Good-Thing (TMGT) effect model, I investigated this idea. Using follower workload as a moderator, I proposed that the relationship between empowering leadership and leader workload is positive when follower workload is high and negative when follower workload is low. In addition, I examined how empowering leadership interacts with follower workload to affect leader emotional exhaustion and work-family conflict, mediated by leader workload. I proposed that this interaction results in a negative relationship between empowering leadership and both outcomes when follower workload is low, and a positive relationship when it is high. I tested these hypotheses using data from a three-wave time-lagged design field study with 65 leader-follower dyads consisting of civil servants from different administrative entities of India and Pakistan. The time lag between each study variable was four weeks. At Time 1 (T1), followers answered questions about demographic characteristics, virtual interaction with their leaders, their workload, and the extent to which their leaders practice empowering leadership. At the same time, leaders answered questions about demographic characteristics and their job satisfaction. At Time 2 (T2), leaders provided data on their own workload. Finally, at Time 3 (T3), leaders rated their emotional exhaustion and work-family conflict. A moderated mediation model was tested using PROCESS Model 7 in R. The findings of the study reveal that a significant increase in follower workload through empowering leadership will also increase the leader's workload. Consequently, this increased leader workload leads to a crossover of this interactive effect onto the level of emotional exhaustion and work-family conflict experienced by leaders. This research offers various contributions to the leadership literature. While empowering leadership has been commonly associated with positive outcomes, my study reveals that it can also lead to negative outcomes. In addition, it shifts the focus of existing research from the effect of empowering leadership on followers to the consequences that it might have for leaders themselves. Overall, my research underscores the need for leaders to consider the potential counterproductive effects of empowering leadership and tailor their approach accordingly. N2 - Empowering Leadership hat in jüngster Zeit als Alternative zu traditionellen Top-Down-Führungsmodellen an Bedeutung gewonnen, da die Mitarbeiter besser ausgebildet und vernetzt sind. Verschiedene Wissenschaftler und Wissenschaftlerinnen haben den Zusammenhang zwischen Empowering Leadership und anderen Variablen in unterschiedlichen Kontexten untersucht. Da sich die Literatur zu Empowering Leadership bisher überwiegend auf positive Effekte beschränkt hat, gibt es derzeit nur wenige Studien, die sich mit potentiellen negativen Effekten beschäftigt haben. Unter anderem wurde bisher nicht untersucht, ob und wie es im Laufe der Zeit zu einer Übertragung der Arbeitsbelastung von den Geführten auf die Führungskräfte kommen kann, was zu emotionaler Erschöpfung und Konflikten zwischen Beruf und Familie bei den Führungskräften führen kann. Daher nehme ich an, dass trotz der positiven Ergebnisse, die Empowering Leadership sowohl für Geführte als auch für Führungskräfte hat, diese Form von Führung auch negative Effekte auf das Wohlergehen der Führungskräfte haben kann. Mithilfe der Conservation of Resources Theorie (COR), der Job Demand-Resources Theorie (JD-R) und dem Too-Much-of-a-Good-Thing Modell (TMGT) habe ich diese Annahme untersucht. Ich nehme an, dass der Zusammenhang zwischen Empowering Leadership und der Arbeitsbelastung der Führungskraft positiv ist, wenn die Arbeitsbelastung der Geführten hoch ist, und negativ, wenn die Arbeitsbelastung der Geführten niedrig ist. Darüber hinaus habe ich untersucht, wie Empowering Leadership mit der Arbeitsbelastung der Geführten zusammenwirkt und sich durch die Arbeitsbelastung der Führungskraft auf die emotionale Erschöpfung und Konflikte zwischen Beruf und Familie bei Führungskräften auswirkt. Ich nehme an, dass diese Interaktion zu einem negativen Zusammenhang zwischen Empowering Leadership und beiden abhängigen Variablen führt, wenn die Arbeitsbelastung der Geführten niedrig ist, und zu einem positiven Zusammenhang, wenn sie hoch ist. Ich habe diese Hypothesen mithilfe einer Feldstudie mit einem zeitversetzten Drei-Wellen-Designs mit 65 Leader-Follower Dyaden getestet, die aus Beamten verschiedener Verwaltungseinheiten in Indien und Pakistan bestanden. Die Zeitspanne zwischen den einzelnen Studienvariablen betrug vier Wochen. Zum Zeitpunkt 1 (T1) beantworteten die Geführten Fragen zu demographischen Merkmalen, zur virtuellen Interaktion mit ihren Führungskräften, zu ihrer Arbeitsbelastung und zum Ausmaß, in dem ihre Führungskräfte Empowering Leadership praktiziert. Gleichzeitig beantworteten die Führungskräfte Fragen zu demographischen Merkmalen und ihrer Arbeitszufriedenheit. Zum Zeitpunkt 2 (T2) stellten die Führungskräfte Daten zu ihrer eigenen Arbeitsbelastung bereit. Schließlich bewerteten die Führungskräfte zum Zeitpunkt 3 (T3) ihre emotionale Erschöpfung und ihren Konflikt zwischen Beruf und Familie. Ein moderiertes Mediationsmodell wurde mit PROCESS Model 7 in R getestet. Die Ergebnisse der Studie zeigen, dass eine Steigerung der Arbeitsbelastung der Geführten durch Empowering Leadership auch die Arbeitsbelastung der Führungskraft erhöht. Außerdem führt eine erhöhte Arbeitsbelastung der Führungskraft dazu, dass sich dieser interaktive Effekt auf die Ebene der emotionalen Erschöpfung und die Konflikte zwischen Familie und Beruf der Führungskraft überträgt. Diese Arbeit leistet mehrere wichtige Beiträge zur Führungsliteratur. Während Empowering Leadership häufig mit positiven Effekten bei Geführten in Verbindung gebracht wird, zeigt meine Studie, dass sie auch negative Effekte haben kann. Darüber hinaus hilft sie dabei, den Fokus der bestehenden Forschung von der Wirkung von Empowering Leadership auf die Geführten zu den Konsequenzen für Führungskräfte selbst zu verschieben. Insgesamt unterstreicht meine Forschung, dass Führungskräfte die potenziell kontraproduktiven Auswirkungen von Empowering Leadership berücksichtigen und ihren Führungsansatz entsprechend anpassen sollten. KW - empowering leadership KW - follower workload KW - leader workload KW - emotional exhaustion KW - work-family conflict KW - Empowering Leadership KW - Arbeitsbelastung der Mitarbeiter KW - Arbeitsbelastung der Führungskraft KW - emotionale Erschöpfung der Führungskraft KW - Konflikt zwischen Beruf und Familie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-655318 ER - TY - THES A1 - Fernandez Palomino, Carlos Antonio T1 - Understanding hydrological dynamics in the tropical Andes of Peru and Ecuador and their responses to climate change T1 - Verständnis der hydrologischen Dynamik in den tropischen Anden von Peru und Ecuador und ihrer Reaktionen auf den Klimawandel N2 - Human-induced climate change is impacting the global water cycle by, e.g., causing changes in precipitation patterns, evapotranspiration dynamics, cryosphere shrinkage, and complex streamflow trends. These changes, coupled with the increased frequency and severity of extreme hydrometeorological events like floods, droughts, and heatwaves, contribute to hydroclimatic disasters, posing significant implications for local and global infrastructure, human health, and overall productivity. In the tropical Andes, climate change is evident through warming trends, glacier retreats, and shifts in precipitation patterns, leading to altered risks of floods and droughts, e.g., in the upper Amazon River basin. Projections for the region indicate rising temperatures, potential glacier disappearance or substantial shrinkage, and altered streamflow patterns, highlighting challenges in water availability due to these expected changes and growing human water demand. The evolving trends in hydroclimatic conditions in the tropical Andes present significant challenges to socioeconomic and environmental systems, emphasizing the need for a comprehensive understanding to guide effective adaptation policies and strategies in response to the impacts of climate change in the region. The main objective of this thesis is to investigate current hydrological dynamics in the tropical Andes of Peru and Ecuador and their responses to climate change. Given the scarcity of hydrometeorological data in the region, this objective was accomplished through a comprehensive data preparation and analysis in combination with hydrological modeling using the Soil and Water Assessment Tool (SWAT) eco-hydrological model. In this context, the initial steps involved assessing, identifying, and/or generating more reliable climate input data to address data limitations. The thesis introduces RAIN4PE, a high-resolution precipitation dataset for Peru and Ecuador, developed by merging satellite, reanalysis, and ground-based data with surface elevation through the random forest method. Further adjustments of precipitation estimates were made for catchments influenced by fog/cloud water input on the eastern side of the Andes using streamflow data and applying the method of reverse hydrology. RAIN4PE surpasses other global and local precipitation datasets, showcasing superior reliability and accuracy in representing precipitation patterns and simulating hydrological processes across the tropical Andes. This establishes it as the optimal precipitation product for hydrometeorological applications in the region. Due to the significant biases and limitations of global climate models (GCMs) in representing key atmospheric variables over the tropical Andes, this study developed regionally adapted GCM simulations specifically tailored for Peru and Ecuador. These simulations are known as the BASD-CMIP6-PE dataset, and they were derived using reliable, high-resolution datasets like RAIN4PE as reference data. The BASD-CMIP6-PE dataset shows notable improvements over raw GCM simulations, reflecting enhanced representations of observed climate properties and accurate simulation of streamflow, including high and low flow indices. This renders it suitable for assessing regional climate change impacts on agriculture, water resources, and hydrological extremes. In addition to generating more accurate climatic input data, a reliable hydrological model is essential for simulating watershed hydrological processes. To tackle this challenge, the thesis presents an innovative multiobjective calibration framework integrating remote sensing vegetation data, baseflow index, discharge goodness-of-fit metrics, and flow duration curve signatures. In contrast to traditional calibration strategies relying solely on discharge goodness-of-fit metrics, this approach enhances the simulation of vegetation, streamflow, and the partitioning of flow into surface runoff and baseflow in a typical Andean catchment. The refined hydrological model calibration strategy was applied to conduct reliable simulations and understand current and future hydrological trajectories in the tropical Andes. By establishing a region-suitable and thoroughly tested hydrological model with high-resolution and reliable precipitation input data from RAIN4PE, this study provides new insights into the spatiotemporal distribution of water balance components in Peru and transboundary catchments. Key findings underscore the estimation of Peru's total renewable freshwater resource (total river runoff of 62,399 m3/s), with the Peruvian Amazon basin contributing 97.7%. Within this basin, the Amazon-Andes transition region emerges as a pivotal hotspot for water yield (precipitation minus evapotranspiration), characterized by abundant rainfall and lower atmospheric water demand/evapotranspiration. This finding underlines its paramount role in influencing the hydrological variability of the entire Amazon basin. Subsurface hydrological pathways, particularly baseflow from aquifers, strongly influence water yield in lowland and Andean catchments, sustaining streamflow, especially during the extended dry season. Water yield demonstrates an elevation- and latitude-dependent increase in the Pacific Basin (catchments draining into the Pacific Ocean), while it follows an unimodal curve in the Peruvian Amazon Basin, peaking in the Amazon-Andes transition region. This observation indicates an intricate relationship between water yield and elevation. In Amazon lowlands rivers, particularly in the Ucayali River, floodplains play a significant role in shaping streamflow seasonality by attenuating and delaying peak flows for up to two months during periods of high discharge. This observation underscores the critical importance of incorporating floodplain dynamics into hydrological simulations and river management strategies for accurate modeling and effective water resource management. Hydrological responses vary across different land use types in high Andean catchments. Pasture areas exhibit the highest water yield, while agricultural areas and mountain forests show lower yields, emphasizing the importance of puna (high-altitude) ecosystems, such as pastures, páramos, and bofedales, in regulating natural storage. Projected future hydrological trajectories were analyzed by driving the hydrological model with regionalized GCM simulations provided by the BASD-CMIP6-PE dataset. The analysis considered sustainable (low warming, SSP1-2.6) and fossil fuel-based development (high-end warming, SSP5-8.5) scenarios for the mid (2035-2065) and end (2065-2095) of the century. The projected changes in water yield and streamflow across the tropical Andes exhibit distinct regional and seasonal variations, particularly amplified under a high-end warming scenario towards the end of the century. Projections suggest year-round increases in water yield and streamflow in the Andean regions and decreases in the Amazon lowlands, with exceptions such as the northern Amazon expecting increases during wet seasons. Despite these regional differences, the upper Amazon River's streamflow is projected to remain relatively stable throughout the 21st century. Additionally, projections anticipate a decrease in low flows in the Amazon lowlands and an increased risk of high flows (floods) in the Andean and northern Amazon catchments. This thesis significantly contributes to enhancing climatic data generation, overcoming regional limitations that previously impeded hydrometeorological research, and creating new opportunities. It plays a crucial role in advancing hydrological model calibration, improving the representation of internal hydrological processes, and achieving accurate results for the right reasons. Novel insights into current hydrological dynamics in the tropical Andes are fundamental for improving water resource management. The anticipated intensified changes in water flows and hydrological extreme patterns under a high-end warming scenario highlight the urgency of implementing emissions mitigation and adaptation measures to address the heightened impacts on water resources. In fact, the new datasets (RAIN4PE and BASD-CMIP6-PE) have already been utilized by researchers and experts in regional and local-scale projects and catchments in Peru and Ecuador. For instance, they have been applied in river catchments such as Mantaro, Piura, and San Pedro to analyze local historical and future developments in climate and water resources. N2 - Menschgemachter Klimawandel beeinflusst den globalen Wasserkreislauf durch Veränderungen in Niederschlagsmustern, Verdunstungsdynamiken, dem Rückgang der Gletscher und komplexen Trends in den Abflussraten in den Flüssen. Diese Veränderungen, gepaart mit der zunehmenden Häufigkeit und Schwere von extremen hydrometeorologischen Ereignissen wie Überschwemmungen, Dürren und Hitzewellen, tragen zu hydroklimatischen Katastrophen bei und haben erhebliche Auswirkungen auf lokale und globale Infrastruktur, die menschliche Gesundheit und die Gesamtproduktivität. In den tropischen Anden zeigt sich der Klimawandel durch Erwärmungstrends, Gletscherschmelzen und Verschiebungen in den Niederschlagsmustern, was zu erhöhten Risiken von Überschwemmungen und Dürren führt, beispielsweise im oberen Amazonas-Einzugsgebiet. Projektionen für die Region deuten auf steigende Temperaturen, potenzielles Verschwinden oder erhebliche Schrumpfung von Gletschern und veränderte Abflussmuster hin, was die Herausforderungen bei der Wasserverfügbarkeit aufgrund dieser erwarteten Veränderungen und des wachsenden menschlichen Wasserbedarfs zeigt. Die Trends in den hydroklimatischen Bedingungen in den tropischen Anden stellen erhebliche Herausforderungen für sozioökonomische und Umweltsysteme dar und unterstreichen die Notwendigkeit eines umfassenden Verständnisses, um effektive Anpassungspolitiken und -strategien im Hinblick auf die Auswirkungen des Klimawandels in der Region zu steuern. Das Hauptziel dieser Dissertation ist es, die aktuellen hydrologischen Dynamiken in den tropischen Anden von Peru und Ecuador und ihre Reaktionen auf den Klimawandel zu untersuchen. Aufgrund der Knappheit von hydrometeorologischen Daten in der Region wurde dieses Ziel durch eine umfassende Datenvorbereitung und -analyse in Kombination mit hydrologische Modellierung mithilfe des ökohydrologischen Modells Soil and Water Assessment Tool (SWAT) erreicht. Die ersten Schritte umfassten die Bewertung, Identifizierung und/oder Generierung zuverlässigerer Klimadaten, um Datenbeschränkungen zu bewältigen. Die Arbeit beginnt mit der Vorstellung von RAIN4PE, einen hochauflösenden Niederschlagsdatensatz für Peru und Ecuador, der durch die Zusammenführung von Satelliten-, Reanalysen- und bodengestützten Daten mit der Geländeoberfläche durch die Methode des Random Forest entwickelt wurde. Weitere Anpassungen der Niederschlagsschätzungen erfolgen unter Verwendung von Abflussdaten für Einzugsgebiete, die durch den Einfluss von Nebel-/Wolkenwasser auf der östlichen Seite der Anden beeinflusst werden, und mit Hilfe der Methode der Reverse-Hydrologie. RAIN4PE übertrifft andere globale und lokale Niederschlagsdatensätze und zeigt eine überlegene Zuverlässigkeit und Genauigkeit bei der Darstellung von Niederschlagsmustern und der Simulation hydrologischer Prozesse in den tropischen Anden. Dies etabliert ihn als das optimale Niederschlagsprodukt für hydrometeorologische Anwendungen in der Region. Aufgrund der signifikanten Ungenauigkeiten und Beschränkungen globaler Klimamodelle (GCMs) bei der Darstellung wichtiger atmosphärischer Variablen über den tropischen Anden entwickelte diese Studie regional angepasste GCM-Simulationen, die speziell für Peru und Ecuador maßgeschneidert wurden. Diese Simulationen sind als der BASD-CMIP6-PE-Datensatz bekannt und wurden unter Verwendung zuverlässiger, hochauflösender Datensätze wie RAIN4PE als Referenzdaten abgeleitet. Der BASD-CMIP6-PE-Datensatz weist gegenüber rohen GCM-Ergebnissen bedeutende Verbesserungen auf, zeigt eine verbesserte Darstellung beobachteter Klimaeigenschaften und eine genaue Simulation des Wasserabflusses einschließlich seiner Hoch- und Niedrigflussindizes. Dies macht ihn geeignet, regionale Auswirkungen des Klimawandels auf Landwirtschaft, Wasserressourcen und hydrologische Extremereignisse zu bewerten. Zusätzlich zur Generierung genauerer klimatischer Eingabedaten ist ein zuverlässiges hydrologisches Modell für die Simulation hydrologischer Dynamiken im Einzugsgebiet unerlässlich. Um diese Herausforderung zu bewältigen, stellt die Arbeit einen innovativen multiobjektiven Kalibrierungsrahmen vor, der fernerkundungsbasierte Vegetationsdaten, Basisabfluss-Index, Abflussgütemaße und Kennzeichen der Abflussdauerkurve integriert. Im Gegensatz zu traditionellen Kalibrierungsstrategien, die ausschließlich auf Abflussgütemaße beruhen, verbessert dieser Ansatz die Simulation von Vegetation, Wasserabfluss und Aufteilung des Abflusses in Oberflächen- und Basisabfluss in einem typischen Anden-Einzugsgebiet. Die verfeinerte Kalibrierungsstrategie des hydrologischen Modells wurde angewendet, um zuverlässigere Simulationen zu erzielen und aktuelle und zukünftige hydrologische Entwicklungen in den tropischen Anden zu verstehen. Aufbauend auf einer der Region angepassten hydrologischen Modell mit hochauflösenden und zuverlässigen Niederschlagsdaten von RAIN4PE liefert diese Studie neue Einblicke in die räumlich-zeitliche Verteilung von Wasserbilanzkomponenten in Peru und grenzüberschreitenden Einzugsgebieten. Die wichtigsten Erkenntnisse betonen die Schätzung der Gesamtmenge an erneuerbarem Süßwasser in Peru (Gesamtwasserabfluss von 62.399 m3/s), wobei das peruanische Amazonasbecken 97,7% dazu beiträgt. Innerhalb dieses Beckens wird die Übergangsregion Amazonas-Anden als zentraler Hotspot für Wasserertrag (Niederschlag minus Evapotranspiration) hervorgehoben, geprägt durch reichlichen Niederschlag und eine geringere atmosphärische Wassernachfrage/Evapotranspiration. Diese Erkenntnis unterstreicht ihre herausragende Rolle bei der Beeinflussung der hydrologischen Variabilität des gesamten Amazonasbeckens. Unterirdische hydrologische Komponenten, insbesondere der Grundwasserabfluss, beeinflussen deutlich die Abflussbildung in Tiefland- und Anden-Einzugsgebieten und unterstützen den Abfluss in den Flüssen, insbesondere während der verlängerten Trockenzeit. Wasserertrag zeigt einen höhen- und breitengradabhängigen Anstieg im Pazifikbecken (Einzugsgebiete, die in den Pazifik münden), während er im peruanischen Amazonasbecken einer unimodalen Kurve folgt und im Übergangsgebiet Amazonas-Anden seinen Höhepunkt erreicht. Dieses Ergebnis verdeutlicht den Zusammenhang zwischen Abflussbildung und Geländehöhe. In Flüssen der Tiefebenen des Amazonas, insbesondere im Ucayali-Fluss, spielen Überschwemmungsgebiete eine bedeutende Rolle bei der saisonalen Wasserflussdynamik, indem sie Spitzenflüsse für bis zu zwei Monate während Perioden hoher Abflüsse abschwächen und verzögern. Dieses Ergebnis unterstreicht die Wichtigkeit der Einbeziehung von Überschwemmungsdynamiken in hydrologische Simulationen und Flussmanagementstrategien für eine präzise Modellierung und effektive Wasserressourcenbewirtschaftung. Hydrologische Reaktionen variieren je nach Landnutzungstypen in hohen Anden-Einzugsgebieten. Weideflächen zeigen den höchsten Wasserertrag, während landwirtschaftliche Flächen und Bergwälder geringere Wasserertrag aufweisen, was die Bedeutung von Puna (hochgelegenen) Ökosystemen wie Weiden, Páramos und Bofedales bei der Regulierung natürlicher Speicher betont. Projektierte zukünftige hydrologische Entwicklungen wurden analysiert, indem das hydrologische Modell mit regionalisierten GCM-Simulationen des BASD-CMIP6-PE-Datensatzes angetrieben wurde. Diese Analyse berücksichtigte nachhaltige (geringe Erwärmung, SSP1-2.6) und auf starker Nutzung fossiler Brennstoffe basierende (hochgradige Erwärmung, SSP5-8.5) Szenarien für die Mitte (2035-2065) und das Ende (2065-2095) des 21. Jahrhunderts. Die projektierten Veränderungen in Wasserertrag und Wasserabfluss in den tropischen Anden zeigen deutliche regionale und saisonale Variationen, insbesondere unter einem Szenario mit hoher Erwärmung gegen Ende des Jahrhunderts. Diese Projektionen deuten auf ganzjährige Zunahmen im Wasserertrag und Wasserabfluss in den Andenregionen und Rückgänge in den Tiefebenen des Amazonas hin, mit Ausnahmen wie im nördlichen Amazonasgebiet, wo Zunahmen während der Regenzeiten projektiert werden. Trotz dieser regionalen Unterschiede wird der jährliche Wasserabfluss des oberen Amazonas voraussichtlich im gesamten 21. Jahrhundert relativ stabil bleiben. Darüber hinaus deuten die Projektionen auf eine Abnahme der Niedrigabflüsse in den Tiefebenen des Amazonas und ein erhöhtes Risiko von Hochwasserabflüssen (Überschwemmungen) in den Anden- und nördlichen Amazonas-Einzugsgebieten hin. Diese Arbeit trägt erheblich zur Verbesserung der Datenlage bzgl. des Klimas in dieser Region bei, überwindet regionale Datenbegrenzungen, die zuvor hydrometeorologische Forschung behinderten, und schafft neue Möglichkeiten. Sie trägt zur Fortentwicklung der Kalibrierung hydrologischer Modelle bei, der Verbesserung der Darstellung interner hydrologischer Prozesse und damit der Erzielung hydrologisch konsistenter Simulationsergebnisse. Diese neuen Erkenntnisse zu den hydrologischen Dynamiken in den tropischen Anden sind grundlegend für eine verbesserte Bewirtschaftung der regionalen Wasserressourcen. Die erwartete Intensivierung des regionalen Wasserkreislaufs unter einem Szenario mit hoher Erwärmung unterstreichen die Dringlichkeit der Umsetzung von Maßnahmen zur Emissionsminderung und Anpassung, um den verstärkten Auswirkungen auf Wasserressourcen zu begegnen. Tatsächlich wurden die neuen Datensätze (RAIN4PE und BASD-CMIP6-PE) bereits von Forschern und Experten in regionalen und lokalen Projekten und Einzugsgebieten in Peru und Ecuador genutzt. Zum Beispiel wurden sie in Flusseinzugsgebieten wie Mantaro, Piura und San Pedro angewendet, um lokale historische und zukünftige Entwicklungen in Klima und Wasserressourcen zu analysieren. KW - hydrology KW - Hydrologie KW - tropical Andes KW - tropische Anden KW - climate change KW - Klimawandel KW - water resources KW - Wasserressourcen KW - RAIN4PE KW - RAIN4PE KW - BASD-CMIP6-PE KW - BASD-CMIP6-PE Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-656534 ER - TY - THES A1 - Hodapp, Alice T1 - Error-based learning in predictive language processing at the level of meaning T1 - Fehlerbasiertes Lernen in prädiktiver Sprachverarbeitung auf semantischer Ebene N2 - Prediction is often regarded as a central and domain-general aspect of cognition. This proposal extends to language, where predictive processing might enable the comprehension of rapidly unfolding input by anticipating upcoming words or their semantic features. To make these predictions, the brain needs to form a representation of the predictive patterns in the environment. Predictive processing theories suggest a continuous learning process that is driven by prediction errors, but much is still to be learned about this mechanism in language comprehension. This thesis therefore combined three electroencephalography (EEG) experiments to explore the relationship between prediction and implicit learning at the level of meaning. Results from Study 1 support the assumption that the brain constantly infers und updates probabilistic representations of the semantic context, potentially across multiple levels of complexity. N400 and P600 brain potentials could be predicted by semantic surprise based on a probabilistic estimate of previous exposure and a more complex probability representation, respectively. Subsequent work investigated the influence of prediction errors on the update of semantic predictions during sentence comprehension. In line with error-based learning, unexpected sentence continuations in Study 2 ¬– characterized by large N400 amplitudes ¬– were associated with increased implicit memory compared to expected continuations. Further, Study 3 indicates that prediction errors not only strengthen the representation of the unexpected word, but also update specific predictions made from the respective sentence context. The study additionally provides initial evidence that the amount of unpredicted information as reflected in N400 amplitudes drives this update of predictions, irrespective of the strength of the original incorrect prediction. Together, these results support a central assumption of predictive processing theories: A probabilistic predictive representation at the level of meaning that is updated by prediction errors. They further propose the N400 ERP component as a possible learning signal. The results also emphasize the need for further research regarding the role of the late positive ERP components in error-based learning. The continuous error-based adaptation described in this thesis allows the brain to improve its predictive representation with the aim to make better predictions in the future. N2 - Prädiktive Verarbeitung wird häufig als zentraler und domänenübergreifender Aspekt der Kognition betrachtet. Diese Idee bezieht sich auch auf Sprachverarbeitung, wo die Antizipation kommender Wörter oder ihrer semantischen Merkmale die Verarbeitung von sich schnell entfaltendem Sprachinput ermöglichen könnte. Um solche Vorhersagen treffen zu können, muss das Gehirn eine Repräsentation der prädiktiven Muster in der Umgebung aufbauen. Theorien zur prädiktiven Verarbeitung gehen von einem kontinuierlichen Lernprozess aus, welcher durch Vorhersagefehler angetrieben wird. Dennoch bleiben noch viele Fragen über diesen Mechanismus der Sprachverarbeitung offen. In dieser Arbeit wurden daher drei Elektroenzephalographie (EEG) Experimente kombiniert, um die Beziehung zwischen Vorhersage und implizitem Lernen auf semantischer Ebene zu untersuchen. Die Ergebnisse aus Studie 1 unterstützen die Annahme, dass das Gehirn kontinuierlich probabilistische Repräsentationen des semantischen Kontexts ableitet und aktualisiert, möglicherweise über mehrere Komplexitätsebenen hinweg. N400- und P600-Gehirnpotenziale konnten durch überraschende Information in Bezug auf eine probabilistische Schätzung vorhergesagt werden, welche entweder auf bisheriger Exposition oder einer komplexeren Wahrscheinlichkeitsrepräsentation basierte. In einer weiteren Arbeit wurde der Einfluss von Vorhersagefehlern auf die Aktualisierung semantischer Vorhersagen während der Satzverarbeitung untersucht. In Übereinstimmung mit der Idee des fehlerbasierten Lernens waren unerwartete Satzfortsetzungen in Studie 2 - gekennzeichnet durch große N400-Amplituden - durch erhöhtes impliziten Gedächtnis im Vergleich zu erwarteten Fortsetzungen gekennzeichnet. Darüber hinaus zeigte Studie 3, dass Vorhersagefehler nicht nur die Repräsentation des unerwarteten Wortes stärken, sondern auch zukünftige Vorhersagen aus dem jeweiligen Satzkontext aktualisieren. Die Studie liefert zudem erste Belege dafür, dass die Menge an nicht vorhergesagter Information, die sich auch in den N400-Amplituden widerspiegelt, die beschriebene Aktualisierung der Vorhersagen vorantreibt, unabhängig von der Stärke der ursprünglichen (widerlegten) Vorhersage. Zusammengenommen unterstützen diese Ergebnisse eine zentrale Annahme der Theorien zur prädiktiven Verarbeitung: Eine probabilistische prädiktive Repräsentation auf semantischer Ebene, die durch Vorhersagefehler aktualisiert wird. Außerdem stützen sie die Theorie der N400-ERP-Komponente als ein mögliches Lernsignal. Die Ergebnisse unterstreichen auch die Notwendigkeit weiterer Forschung hinsichtlich der Rolle der späten positiven ERP-Komponenten beim fehlerbasierten Lernen. Das in dieser Arbeit beschriebene kontinuierliche fehlerbasierte Lernen ermöglicht dem Gehirn, seine prädiktive Repräsentation zu verbessern, mit dem Ziel in Zukunft bessere Vorhersagen zu treffen. KW - electroencephalography KW - N400 KW - P600 KW - implicit memory KW - learning KW - language processing KW - prediction KW - Elektroenzephalographie KW - N400 KW - P600 KW - implizites Gedächtnis KW - Lernen KW - Sprachverarbeitung KW - Vorhersage Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-657179 ER - TY - THES A1 - Hameed, Mazhar T1 - Structural preparation of raw data files T1 - Strukturelle Aufbereitung von unverarbeiteten Dateien N2 - Data preparation stands as a cornerstone in the landscape of data science workflows, commanding a significant portion—approximately 80%—of a data scientist's time. The extensive time consumption in data preparation is primarily attributed to the intricate challenge faced by data scientists in devising tailored solutions for downstream tasks. This complexity is further magnified by the inadequate availability of metadata, the often ad-hoc nature of preparation tasks, and the necessity for data scientists to grapple with a diverse range of sophisticated tools, each presenting its unique intricacies and demands for proficiency. Previous research in data management has traditionally concentrated on preparing the content within columns and rows of a relational table, addressing tasks, such as string disambiguation, date standardization, or numeric value normalization, commonly referred to as data cleaning. This focus assumes a perfectly structured input table. Consequently, the mentioned data cleaning tasks can be effectively applied only after the table has been successfully loaded into the respective data cleaning environment, typically in the later stages of the data processing pipeline. While current data cleaning tools are well-suited for relational tables, extensive data repositories frequently contain data stored in plain text files, such as CSV files, due to their adaptable standard. Consequently, these files often exhibit tables with a flexible layout of rows and columns, lacking a relational structure. This flexibility often results in data being distributed across cells in arbitrary positions, typically guided by user-specified formatting guidelines. Effectively extracting and leveraging these tables in subsequent processing stages necessitates accurate parsing. This thesis emphasizes what we define as the “structure” of a data file—the fundamental characters within a file essential for parsing and comprehending its content. Concentrating on the initial stages of the data preprocessing pipeline, this thesis addresses two crucial aspects: comprehending the structural layout of a table within a raw data file and automatically identifying and rectifying any structural issues that might hinder its parsing. Although these issues may not directly impact the table's content, they pose significant challenges in parsing the table within the file. Our initial contribution comprises an extensive survey of commercially available data preparation tools. This survey thoroughly examines their distinct features, the lacking features, and the necessity for preliminary data processing despite these tools. The primary goal is to elucidate the current state-of-the-art in data preparation systems while identifying areas for enhancement. Furthermore, the survey explores the encountered challenges in data preprocessing, emphasizing opportunities for future research and improvement. Next, we propose a novel data preparation pipeline designed for detecting and correcting structural errors. The aim of this pipeline is to assist users at the initial preprocessing stage by ensuring the correct loading of their data into their preferred systems. Our approach begins by introducing SURAGH, an unsupervised system that utilizes a pattern-based method to identify dominant patterns within a file, independent of external information, such as data types, row structures, or schemata. By identifying deviations from the dominant pattern, it detects ill-formed rows. Subsequently, our structure correction system, TASHEEH, gathers the identified ill-formed rows along with dominant patterns and employs a novel pattern transformation algebra to automatically rectify errors. Our pipeline serves as an end-to-end solution, transforming a structurally broken CSV file into a well-formatted one, usually suitable for seamless loading. Finally, we introduce MORPHER, a user-friendly GUI integrating the functionalities of both SURAGH and TASHEEH. This interface empowers users to access the pipeline's features through visual elements. Our extensive experiments demonstrate the effectiveness of our data preparation systems, requiring no user involvement. Both SURAGH and TASHEEH outperform existing state-of-the-art methods significantly in both precision and recall. N2 - Die Datenaufbereitung ist ein wesentlicher Bestandteil von Data-Science-Workflows und nimmt einen beträchtlichen Teil - etwa 80% - der Zeit eines Datenwissenschaftlers in Anspruch. Der hohe Zeitaufwand für die Datenaufbereitung ist in erster Linie auf die komplizierte Herausforderung zurückzuführen, der sich Datenwissenschaftler bei der Entwicklung maßgeschneiderter Lösungen für nachgelagerte Aufgaben gegenübersehen. Diese Komplexität wird noch verstärkt durch die unzureichende Verfügbarkeit von Metadaten, den oft ad-hoc-Charakter der Aufbereitungsaufgaben und die Notwendigkeit für Datenwissenschaftler, sich mit einer Vielzahl von hochentwickelten Tools auseinanderzusetzen, von denen jedes seine eigenen Schwierigkeiten und Anforderungen an dessen Beherrschung aufweist. Bisherige Forschung im Bereich der Datenverwaltung konzentriert sich traditionell auf die Aufbereitung der Inhalte innerhalb der Spalten und Zeilen einer relationalen Tabelle und befasst sich mit Aufgaben wie der Disambiguierung von Zeichenketten, der Standardisierung von Datumsangaben oder der Normalisierung numerischer Werte, die gemeinhin unter dem Begriff der Datenbereinigung zusammengefasst werden. Dieser Forschungsschwerpunkt geht von einer perfekt strukturierten Eingabetabelle aus. Folglich können die genannten Datenbereinigungsaufgaben erst dann effektiv durchgeführt werden, wenn die Tabelle erfolgreich in die entsprechende Datenbereinigungsumgebung geladen wurde, was in der Regel in den späteren Phasen der Datenverarbeitungspipeline geschieht. Während aktuelle Datenbereinigungstools gut für relationale Tabellen geeignet sind, enthalten große Datenrrepositories aufgrund ihres flexiblen Standards häufig Daten, die in reinen Textdateien, wie z. B. CSV-Dateien, gespeichert sind. Folglich weisen diese Dateien oft Tabellen mit einem flexiblen Layout von Zeilen und Spalten auf, denen eine relationale Struktur fehlt. Diese Flexibilität führt häufig dazu, dass die Daten beliebig über die einzelnen Zellen der Tabelle verteilt sind, was in der Regel durch benutzerdefinierte Formatierungsrichtlinien gesteuert wird. Um diese Tabellen effektiv zu extrahieren und in den nachgelagerten Verarbeitungsschritten nutzen zu können, ist ein präzises Parsen erforderlich. In dieser Arbeit wird der Schwerpunkt auf das gelegt, was wir als “Struktur” einer Datendatei definieren - die grundlegenden Zeichen innerhalb einer Datei, die für das Parsen und Verstehen ihres Inhalts wesentlich sind. Die vorliegende Arbeit konzentriert sich auf die ersten Stufen der Datenvorverarbeitung und behandelt zwei entscheidende Aspekte: Das Verstehen des strukturellen Layouts einer Tabelle in einer Rohdatendatei und das automatische Erkennen und Korrigieren von strukturellen Problemen, die das Parsen der Datei erschweren könnten. Auch wenn sich diese Probleme nicht direkt auf den Inhalt der Tabelle auswirken, stellen sie eine große Herausforderung beim Parsen der Tabelle in der Datei dar. Unser erster Beitrag besteht aus einem umfassenden Überblick über kommerziell verfügbare Datenaufbereitungstools. In dieser Übersicht werden ihre besonderen Merkmale, die fehlenden Merkmale und die Notwendigkeit einer vorläufigen Datenverarbeitung trotz dieser Werkzeuge eingehend untersucht. Das primäre Ziel ist es, den aktuellen Stand der Technik bei den Datenaufbereitungssystemen zu ermitteln und gleichzeitig Bereiche zu identifizieren, die verbessert werden können. Darüber hinaus werden die bei der Datenvorverarbeitung aufgetretenen Herausforderungen untersucht und Möglichkeiten für künftige Forschung und Weiterentwicklungen aufgezeigt. Als Nächstes schlagen wir eine neuartige Datenaufbereitungspipeline zur Erkennung und Korrektur von strukturellen Fehlern vor. Ziel dieser Pipeline ist es, die Nutzer in der anfänglichen Vorverarbeitungsphase zu unterstützen, indem das korrekte Laden ihrer Daten in ihre bevorzugten Systeme sichergestellt wird. Unser Ansatz beginnt mit der Einführung von SURAGH, einem unüberwachten System, das eine musterbasierte Methode verwendet, um dominante Muster innerhalb einer Datei zu identifizieren, unabhängig von externen Informationen wie Datentypen, Zeilenstrukturen oder Schemata. Durch die Identifizierung von Abweichungen vom vorherrschenden Muster werden fehlerhafte Zeilen erkannt. Anschließend sammelt unser Strukturkorrektursystem, TASHEEH, die identifizierten fehlerhaften Zeilen zusammen mit den dominanten Mustern und verwendet eine neuartige Mustertransformationsalgebra, um Fehler automatisch zu korrigieren. Unsere Pipeline dient als End-to-End-Lösung, die eine strukturell fehlerhafte CSV-Datei in eine gut formatierte Datei umwandelt, die in der Regel für ein nahtloses Laden geeignet ist. Schließlich stellen wir MORPHER vor, eine benutzerfreundliche GUI, die die Funktionen von SURAGH und TASHEEH integriert. Mit Hilfe von visuellen Elementen ermöglicht diese Schnittstelle den Benutzern den Zugriff auf die Funktionen der Pipeline. Unsere umfangreichen Experimente zeigen die Effektivität unserer Datenaufbereitungssysteme, die kein Eingreifen des Benutzers erfordern. Sowohl SURAGH als auch TASHEEH übertreffen bestehende State-of-the-Art-Methoden in den beiden Metriken Precision und Recall deutlich. KW - Datenaufbereitung KW - Datenintegration KW - Datenverwaltung KW - Datenqualität KW - data preparation KW - data integration KW - data management KW - data quality Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-655678 ER - TY - THES A1 - Wolf, Alexander Karsten T1 - Pfadbrechende und pfadbestätigende Dienstleistungspotenziale in der deutschen Gesundheitswirtschaft durch Quantified-Self-Applikationen BT - Eine Delphi-Studie BT - A Delphi study N2 - Quantified Self, die pro-aktive Selbstvermessung von Menschen, hat sich in den letzten Jahren von einer Nischenanwendung zu einem Massenphänomen entwickelt. Dabei stehen den Nutzern heute vielfältige technische Unterstützungsmöglichkeiten, beispielsweise in Form von Smartphones, Fitness-Trackern oder Gesundheitsapps zur Verfügung, welche eine annähernd lückenlose Überwachung unterschiedlicher Kontextfaktoren einer individuellen Lebenswirklichkeit erlauben. In der Folge widmet sich diese Arbeit unter anderem der Fragestellung, inwieweit diese intensive und eigen-initiierte Beschäftigung, insbesondere mit gesundheitsbezogenen Daten, die weitgehend als objektiviert und damit belastbar gelten, die Gesundheitskompetenz derart aktiver Menschen erhöhen kann. Darüber hinaus werden Aspekte untersucht, inwieweit die neuen Technologien in der Lage sind, spezifische medizinische Erkenntnisse zu vertiefen und in der Konsequenz die daraus resultierenden Behandlungsprozesse zu verändern. Während der Ursprung des Quantified Self im 2. Gesundheitsmarkt liegt, geht die vorliegende Arbeit der Frage nach, welche strukturellen, personellen und prozessualen Anknüpfungspunkte perspektivisch im 1. Gesundheitsmarkt existieren werden, wenn ein potentieller Patient in einer stärker emanzipierten Weise den Wunsch verspürt, oder eine entsprechende Forderung stellt, seine gesammelten Gesundheitsdaten in möglichst umfassender Form in eine medizinische Behandlung zu integrieren. Dabei werden auf der einen Seite aktuelle Entwicklungen im 2. Gesundheitsmarkt untersucht, die gekennzeichnet sind von einer hohen Dynamik und einer großen Intransparenz. Auf der anderen Seite steht der als stark reguliert und wenig digitalisiert geltende 1. Gesundheitsmarkt mit seinen langen Entwicklungszyklen und ausgeprägten Partikularinteressen der verschiedenen Stakeholder. In diesem Zuge werden aktuelle Entwicklungen des zugrunde liegenden Rechtsrahmens, speziell im Hinblick auf stärker patientenzentrierte und digitalisierte Normen untersucht, wobei insbesondere das Digitale Versorgung Gesetz eine wichtige Rolle einnimmt. Ziel der Arbeit ist die stärkere Durchdringung von Wechselwirkungen an der Schnittstelle zwischen den beiden Gesundheitsmärkten in Bezug auf die Verwendung von Technologien der Selbstvermessung, um in der Folge zukünftige Geschäftspotentiale für existierende oder neu in den Markt drängende Dienstleister zu eruieren. Als zentrale Methodik kommt hier eine Delphi-Studie zum Einsatz, die in einem interprofessionellen Ansatz versucht, ein Zukunftsbild dieser derzeit noch sehr jungen Entwicklungen für das Jahr 2030 aufzuzeigen. Eingebettet werden die Ergebnisse in die Untersuchung einer allgemeinen gesellschaftlichen Akzeptanz der skizzierten Veränderungen. N2 - Quantified Self, the proactive self-measurement of people, has developed from a niche application to a mass phenomenon in recent years. A wide range of technical support options are available to users today, for example in the form of smartphones, fitness trackers or health apps, which allow almost complete monitoring of different contextual factors of an individual's everyday reality. As a result, this work is devoted, among other things, to the question of the extent to which this intensive and self-initiated occupation, in particular with health-related data, which are largely considered objectified and therefore reliable, can increase the health competence of such active people. In addition, aspects are examined to determine to what extent the new technologies are able to deepen specific medical knowledge and consequently to change the resulting treatment processes. While the origin of the Quantified Self lies in the 2nd healthcare market (“2. Gesundheitsmarkt”), this work investigates which structural, personal and procedural points of contact will exist in the 1st first healthcare market (“1. Gesundheitsmarkt”) if a potential patient feels the desire in a more emancipated way, or a corresponding demand, to integrate the collected health data in the most comprehensive form possible into a medical treatment. On the one hand, current developments in the 2nd second healthcare market are being examined, which are characterized by high dynamics and a great lack of transparency. On the other hand, there is the 1st healthcare market, which is considered to be heavily regulated but not very digitalized, with its long development cycles and distinct particular interests of the various stakeholders. In this context, current developments in the underlying legal framework, especially with regard to more patient-centric and digitized norms, are examined, with the Digital Healthcare Act (“Digitale Versorgung Gesetz”) playing an important role. The aim of the work is the stronger penetration of interactions at the interface between the two healthcare markets in relation to the use of self-monitoring technologies in order to subsequently determine future business potential for existing or new service providers entering the market. A Delphi study is used as the central methodology here, which uses an interprofessional approach to try to show a future picture of these currently very young developments for the year 2030. The results are embedded in the investigation of general social acceptance of the changes outlined. T2 - Path-breaking and path-confirming service potentials in the German healthcare industry through Quantified-Self applications KW - Delphi KW - Quantified Self KW - Gesundheitswirtschaft KW - Dienstleistungspotenziale KW - Zukunftsforschung KW - Delphi KW - service potentials KW - healthcare industry KW - quantified self KW - future studies Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651384 ER - TY - THES A1 - Brinkmann, Charlotte T1 - Molecular characterisation of the Xanthomonas type III effector XopM T1 - Funktionelle Charakterisierung des Typ-III-Effektors XopM aus Xanthomonas N2 - Due to their sessile lifestyle, plants are constantly exposed to pathogens and possess a multi-layered immune system that prevents infection. The first layer of immunity called pattern-triggered immunity (PTI), enables plants to recognise highly conserved molecules that are present in pathogens, resulting in immunity from non-adaptive pathogens. Adapted pathogens interfere with PTI, however the second layer of plant immunity can recognise these virulence factors resulting in a constant evolutionary battle between plant and pathogen. Xanthomonas campestris pv. vesicatoria (Xcv) is the causal agent of bacterial leaf spot disease in tomato and pepper plants. Like many Gram-negative bacteria, Xcv possesses a type-III secretion system, which it uses to translocate type-III effectors (T3E) into plant cells. Xcv has over 30 T3Es that interfere with the immune response of the host and are important for successful infection. One such effector is the Xanthomonas outer protein M (XopM) that shows no similarity to any other known protein. Characterisation of XopM and its role in virulence was the focus of this work. While screening a tobacco cDNA library for potential host target proteins, the vesicle-associated membrane protein (VAMP)-associated protein 1-2 like (VAP12) was identified. The interaction between XopM and VAP12 was confirmed in the model species Nicotiana benthamiana and Arabidopsis as well as in tomato, a Xcv host. As plants possess multiple VAP proteins, it was determined that the interaction of XopM and VAP is isoform specific. It could be confirmed that the major sperm protein (MSP) domain of NtVAP12 is sufficient for binding XopM and that binding can be disrupted by substituting one amino acid (T47) within this domain. Most VAP interactors have at least one FFAT (two phenylalanines [FF] in an acidic tract) related motif, screening the amino acid sequence of XopM showed that XopM has two FFAT-related motifs. Substitution of the second residue of each FFAT motif (Y61/F91) disrupts NtVAP12 binding, suggesting that these motifs cooperatively mediate this interaction. Structural modelling using AlphaFold further confirmed that the unstructured N-terminus of XopM binds NtVAP12 at its MSP domain, which was further confirmed by the generation of truncated XopM variants. Infection of pepper leaves, with a XopM deficient Xcv strain did not result in a reduction of virulence in comparison to the Xcv wildtype, showing that the function of XopM during infection is redundant. Virus-induced gene silencing of NbVAP12 in N. benthamiana plants also did not affect Xcv virulence, which further indicated that interaction with VAP12 is also non-essential for Xcv virulence. Despite such findings, ectopic expression of wildtype XopM and XopMY61A/F91A in transgenic Arabidopsis seedlings enhanced the growth of a non-pathogenic Pseudomonas syringae pv. tomato (Pst) DC3000 strain. XopM was found to interfere with the PTI response allowing Pst growth independent of its binding to VAP. Furthermore, transiently expressed XopM could suppress reactive oxygen species (ROS; one of the earliest PTI responses) production in N. benthamiana leaves. The FFAT double mutant XopMY61A/F91A as well as the C-terminal truncation variant XopM106-519 could still suppress the ROS response while the N-terminal variant XopM1-105 did not. Suppression of ROS production is therefore independent of VAP binding. In addition, tagging the C-terminal variant of XopM with a nuclear localisation signal (NLS; NLS-XopM106-519) resulted in significantly higher ROS production than the membrane localising XopM106-519 variant, indicating that XopM-induced ROS suppression is localisation dependent. To further characterise XopM, mass spectrometry techniques were used to identify post-translational modifications (PTM) and potential interaction partners. PTM analysis revealed that XopM contains up to 21 phosphorylation sites, which could influence VAP binding. Furthermore, proteins of the Rab family were identified as potential plant protein interaction partners. Rab proteins serve a multitude of functions including vesicle trafficking and have been previously identified as T3E host targets. Taking this into account, a model of virulence of XopM was proposed, with XopM anchoring itself to VAP proteins to potentially access plasma membrane associated proteins. XopM possibly interferes with vesicle trafficking, which in turn suppresses ROS production through an unknown mechanism. In this work it was shown that XopM targets VAP proteins. The data collected suggests that this T3E uses VAP12 to anchor itself into the right place to carry out its function. While more work is needed to determine how XopM contributes to virulence of Xcv, this study sheds light onto how adapted pathogens overcome the immune response of their hosts. It is hoped that such knowledge will contribute to the development of crops resistant to Xcv in the future. N2 - Aufgrund ihrer sessilen Lebensweise sind Pflanzen ständig Pathogenen ausgesetzt und verfügen über ein mehrschichtiges Immunsystem, das Infektionen verhindert. Die erste Barriere dieser Abwehr, genannt PTI (von pattern-triggered immunity) erkennt hochkonservierte Moleküle von Krankheitserregern und ermöglicht somit eine Immunität gegen unspezifische nicht-angepasste Pathogene. Die zweite Barriere der Immunität erkennt Virulenzfaktoren von angepassten Krankheitserregern. Xanthomonas campestris pv. vesicatoria (Xcv) ist der Erreger der die Fleckenkrankheit bei Tomaten- und Paprikapflanzen verursacht. Xcv besitzt ein Typ-III-Sekretionssystem, mit dem es Typ-III-Effektoren (T3E) in Pflanzenzellen einschleust. Einer dieser Effektoren ist XopM, dass keine Ähnlichkeit mit anderen bekannten Proteinen aufweist. Daher war die Charakterisierung von XopM und dessen Rolle in der Virulenz das Ziel dieser Arbeit. VAP12 (von vesicle-associated membrane protein (VAMP)-associated protein 1-2) wurde als Interaktionspartner von XopM und damit als dessen potenzielles Wirtszellziel in Tabak identifiziert. Die Interaktion zwischen XopM und VAP12 wurde mit den homologen Proteinen der Modellpflanzen Nicotiana benthamiana und Arabidopsis sowie in Tomaten, einem Xcv-Wirt, bestätigt. Da Pflanzen mehrere VAP-Proteine besitzen, wurde festgestellt, dass die Interaktion mit XopM spezifisch für eine bestimmte Gruppe von VAPs ist. Es konnte zudem bestätigt werden, dass die MSP-Domäne von NtVAP12 ausreicht, um XopM zu binden, und dass die Bindung durch den Austausch einer Aminosäure (T47) in dieser Domäne gestört werden kann. Die meisten VAP-Interaktoren weisen mindestens ein FFAT (von two phenylalanines [FF] in an acidic tract) -ähnliches Motiv auf. Die Sequenzanalyse von XopM zeigte, dass XopM zwei FFAT-ähnliche Motive aufweist. Der Austausch der zweiten Aminosäure jedes FFAT-Motivs (Y61/F91) führt zum Verlust der Bindung an NtVAP12 und legt nahe, dass diese Motive kooperativ die Interaktion mit NtVAP12 vermitteln. Eine Strukturmodellierung mittels AlphaFold bestätigte darüber hinaus, dass der unstrukturierte N-Terminus von XopM an der MSP-Domäne von NtVAP12 bindet. Verkürzte XopM Varianten, bspw. der Verlust des N- oder C-Terminus, bestätigten diese Beobachtung. Die Infektion von Paprikablättern mit einem XopM-defizienten Xcv-Stamm führte im Vergleich zum Xcv-Wildtyp nicht zu einer Verringerung der Virulenz, was darauf hindeutet, dass die Funktion von XopM während der Infektion redundant ist. Die Virus-induzierte Genstilllegung von NbVAP12 in N. benthamiana Pflanzen beeinflusste ebenfalls nicht die Virulenz von Xcv, was darauf hinweist, dass die Wechselwirkung mit VAP12 für die Virulenz von Xcv ebenfalls nicht essentiell ist. Im Gegensatz dazu verbesserte die induzierte Expression von Wildtyp-XopM und XopMY61A/F91A in transgenen Arabidopsis Sämlingen das Wachstum eines nicht-pathogenen Pseudomonas syringae pv. tomato (Pst) DC3000 Stammes. Somit beeinträchtigt XopM die PTI-Reaktion und stärkt das Pst Wachstum, unabhängig von der Bindung an VAP. Darüber hinaus konnte XopM die Produktion von reaktiven Sauerstoffspezies (ROS; eine der frühesten PTI-Reaktionen) in N. benthamiana-Blättern unterdrücken. Dieselbe Beobachtung konnte für die FFAT-Doppelmutante XopMY61A/F91A sowie die C-terminale verkürzte XopM106-519 Variante gemacht werden, während die N-terminale Variante XopM1-105 dies nicht vermochte. Die Unterdrückung der ROS-Produktion ist daher unabhängig von der VAP-Bindung. Zusätzlich führte das Anbringen eines Kernlokalisationssignals (NLS; NLS- XopM106-519) an die C-terminale Variante von XopM zu einer signifikant höheren ROS-Produktion als bei der membranlokalisierenden XopM106-519-Variante, was darauf hinweist, dass die XopM-induzierte ROS-Unterdrückung lokalisationsabhängig ist. Um XopM weiter zu charakterisieren, wurden massenspektrometrische Techniken zur Identifizierung posttranslationaler Modifikationen (PTM) und potenzieller Interaktionspartner verwendet. Die PTM-Analyse ergab, dass XopM bis zu 21 Phosphorylierungsstellen enthält, die die VAP-Bindung potenziell beeinflussen könnten. Darüber hinaus wurden Proteine der Rab-Familie als potenzielle Interaktionspartner von Pflanzenproteinen identifiziert. Rab-Proteine erfüllen vielfältige Funktionen, einschließlich des Vesikeltransports, und wurden bereits zuvor als T3E-Wirtsziele identifiziert. Unter Berücksichtigung dieser Erkenntnisse wurde ein Modell der Virulenz von XopM vorgeschlagen, bei dem die Bindung mit VAP plasmamembran-assoziierte Proteinen für XopM leichter zugänglich macht. XopM beeinträchtigt womöglich den Vesikeltransport, was wiederum die ROS-Produktion durch einen unbekannten Mechanismus unterdrückt. In dieser Arbeit wurde gezeigt, dass der Xcv T3E XopM die sogenannten VAP-Proteine als Ziel hat. Die gesammelten Daten legen nahe, dass XopM für die Vermittlung seiner Virulenz VAP12 nutzt, um sich in der Wirtszelle ortsspezifisch zu verankern. Dies erlaubt XopM seine Virulenz Funktion auszuführen. Obwohl weitere Untersuchungen erforderlich sind, um festzustellen, wie XopM mechanistisch zur Virulenz von Xcv beiträgt, beleuchtet diese Studie, wie angepasste Pathogene die Immunantwort ihrer Wirte überwinden können. Dieses Wissen könnte dazu beitragen, dass in der Zukunft krankheitsresistente Pflanzen gegen Xcv entwickelt werden. KW - Xanthomonas KW - type-III effector KW - VAP protein KW - VAP Protein KW - Xanthomonas KW - Typ-III-Effektor Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648985 ER - TY - THES A1 - Wilke, Heinrich T1 - The order of destruction BT - monoculture in colonial Caribbean literature, c. 1640-1800 T2 - Transdisciplinary souths N2 - This book studies sugarcane monoculture, the dominant form of cultivation in the colonial Caribbean, in the later 1600s and 1700s up to the Haitian Revolution. Researching travel literature, plantation manuals, Georgic poetry, letters, and political proclamations, this book interprets texts by Richard Ligon, Henry Drax, James Grainger, Janet Schaw, and Toussaint Louverture. As the first extended investigation into its topic, this book reads colonial Caribbean monoculture as the conjunction of racial capitalism and agrarian capitalism in the tropics. Its eco-Marxist perspective highlights the dual exploitation of the soil and of enslaved agricultural producers under the plantation regime, thereby extending Marxist analysis to the early colonial Caribbean. By focusing on textual form (in literary and non-literary texts alike), this study discloses the bearing of monoculture on contemporary writers' thoughts. In the process, it emphasizes the significance of a literary tradition that, despite its ideological importance, is frequently neglected in (postcolonial) literary studies and the environmental humanities. Located at a crossroads of disciplines and perspectives, this study will be of interest to literary critics and historians working in the early Americas, to students and scholars of agriculture, colonialism, and (racial) capitalism, to those working in the environmental humanities, and to Marxist academics. It will be of great interest to scholars and researchers of language and literature, post-colonial studies, cultural studies, diaspora studies, and the Global South studies Y1 - 2024 SN - 978-1-032-51416-1 SN - 978-1-003-46593-5 SN - 978-1-003-78128-0 U6 - https://doi.org/10.4324/9781003465935 PB - Routledge CY - London ER - TY - THES A1 - Bauer, Stephan T1 - Efraim Frisch und Albrecht Mendelssohn Bartholdy BT - Stationen und Kontexte einer intellektuellen Doppelbiografie (1900–1939) N2 - Efraim Frisch (1873–1942) und Albrecht Mendelssohn Bartholdy (1874–1936) waren im klassischen Zeitalter der Intellektuellen (neben anderem) Zeitschriftenentrepeneure und Gründer der kleinen Zeitschriften Der Neue Merkur (1914–1916/1919–1925) und Europäische Gespräche (1923–1933). Sie stehen (nicht nur mit ihren Zeitschriften) für einen der wiederholt in der Moderne unternommenen Versuche, die in der Aufklärung erschlossenen Ressourcen – demokratischer Republikanismus und universelle und gleiche Rechte für alle Menschen – im Vertrauen auf ihre globale Umsetzbarkeit zu aktivieren. In der Zeit der Weimarer Republik gehörten sie zu den Republikanern, „die Weimar als Symbol ernst nahmen und zäh und mutig bemüht waren, dem Ideal konkreten Inhalt zu verleihen“ (Peter Gay). Ihr bislang unüberliefert gebliebenes Beispiel fügt sich ein in die Demokratiegeschichte der europäischen Moderne, in die Geschichte internationaler Gesellschaftsbeziehungen und die Geschichte der Selbstbehauptung intellektueller Autonomie. Die zäsurenübergreifend den Zeitraum von 1900 bis ca. 1940 untersuchende Studie ermöglicht wesentliche Einblicke in die Biografien Frischs und Mendelssohn Bartholdys, in die deutsch-französische/europäisch-transatlantische Welt der kleinen (literarisch-politischen) Zeitschriften des frühen 20. Jahrhunderts sowie in das medien-intellektuelle Feld des späten Kaiserreiches und der Weimarer Republik in seiner humanistisch-demokratisch-republikanischen Tendenz. Darüber hinaus beinhaltet sie neue Erkenntnisse zur Geschichte der ‚Heidelberger Vereinigung‘ – der Arbeitsgemeinschaft für eine Politik des Rechts – um Prinz Max von Baden, zur deutschen Friedensdelegation in Versailles 1919 und ihrem Hamburger Nachleben, zum Handbuch der Politik sowie zur ersten amtlichen Aktenpublikation des Auswärtigen Amtes – der Großen Politik der Europäischen Kabinette 1871–1914. Schließlich zu den Bemühungen der ‚Internationalists‘ der 1920er Jahre, eine effektive Ächtung des Angriffskrieges herbeizuführen. N2 - Based on their estates this work examines the life stories of Efraim Frisch (1873, Stryj, Galicia/1942, Ascona) and Albrecht Mendelssohn Bartholdy (1874, Karlsruhe/1936, Oxford). The focus of the study is on their intellectual careers, which are examined across periods from 1900 to around 1939. Of central importance is the literary-political journal Der Neue Merkur (1914–1916/1919–1925), which was published by Frisch, the Hamburg Institute for Foreign Policy directed by Mendelssohn Bartholdy and its organ, the Europäische Gespräche (1923–1933), as well the bilingual magazine for intellectual understanding (Hamburg-) Amerika-Post (1929–1933). This work provides new insights, for example, on the intellectual assertion of autonomy in the 1920s, on the history of democracy in Germany in the early 20th century and on the history of liberal internationalism as a political project, furthermore on the history of the 'Heidelberger Vereinigung' around Prince Max von Baden, on the publication of the Große Politik der Europäischen Kabinette 1871–1914 (the first official file edition of the Foreign Office), on the civil society efforts to reach understanding after the First World War and on the global networking of political science research institutes in the 1920s and early 1930s. The relevance of the example of Efraim Frisch and Albrecht Mendelssohn Bartholdy lays in their hopeful advocacy for the Weimar Republic and their involvement in European/transatlantic intellectual relations after the First World War. KW - Weimarer Republik KW - Intellektuelle KW - Intellectual History KW - Biografie KW - Demokratiegeschichte KW - Geschichte der internationalen Gesellschaftsbeziehungen KW - Geschichte des 20. Jahrhunderts Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-629846 SN - 978-3-86956-577-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wamwanduka, Leo T1 - Examining the translation of gender norms in Southern Africa BT - the case of convention on the Elimination of Discrimination Against Women (CEDAW) translation by Zimbabwe's Public Sector to Address Violence Against Women (VAW) Y1 - 2024 ER - TY - THES A1 - Gladkaya, Margarita T1 - Essays on the digitization of the individual BT - affordances, use patterns, outcomes Y1 - 2024 ER - TY - THES A1 - Liu, Qingting T1 - Regulation of Starch Granule Morphogenesis in Arabidopsis thaliana N2 - Carbohydrates play a vital role in all living organisms; serving as a cornerstone in primary metabolism through the release of energy from their hydrolysis and subsequent re-utilization (Apriyanto et al., 2022). Starch is the principal carbohydrate reserve in plants, providing essential energy for plant growth. Furthermore, starch serves as a significant carbohydrate source in the human diet. Beyond its nutritional value, starch has extensive industrial application associated with many aspects of human society, such as feed, pharmacy, textiles, and the production of biodegradable plastics. Understanding the mechanisms underlying starch metabolism in plants carries multifaceted benefits. Not only does it contribute to increasing crop yield and refining grain quality, but also can improve the efficiency of industrial applications. Starch in plants is categorized into two classes based on their location and function: transitory starch and storage starch. Transitory starch is produced in chloroplasts of autotrophic tissues/organs, such as leaves. It is synthesized during the day and degraded during the night. Storage starch is synthesized in heterotrophic tissues/organs, such as endosperm, roots and tubers, which is utilized for plant reproduction and industrial application in human life. Most studies aiming to comprehend starch metabolism of Arabidopsis thaliana primarily focus on transitory starch. Starch is stored as granular form in chloroplast and amyloplast. The parameters of starch granules, including size, morphology, and quantity per chloroplast serve as indicators of starch metabolism status. However, the understanding of their regulatory mechanism is still incomplete. In this research, I initially employed a simple and adapted method based on laser confocal scanning microscopy (LCSM) to observe size, morphology and quantity of starch granules within chloroplasts in Arabidopsis thaliana in vivo. This method facilitated a rapid and versatile analysis of starch granule parameters across numerous samples. Utilizing this approach, I compared starch granule number per chloroplast between mesophyll cells and guard cells in both wild type plants (Col-0) and several starch related mutants. The results revealed that the granule number is distinct between mesophyll cells and guard cells, even within the same genetic background, suggesting that guard cells operate a unique regulatory mechanism of starch granule number. Subsequently, I redirected my attention toward examining starch morphology. Through microscopy analyses, I observed a gradual alteration in starch granule morphology in certain mutants during leaf aging. Specifically, in mutants such as sex1-8 and dpe2phs1ss4, there was a progressive alteration in starch granule morphology over time. Conversely, in Col-0 and ss4 mutant, these morphological alterations were not evident. This discovery suggests a new perspective to understand the development of starch morphology. Further investigation revealed that mutants lacking either Disproportionating enzyme 2 (DPE2) or MALTOSE-EXCESS 1 (MEX1) exhibited gradual alterations in starch morphology with leaf aging. Notably, the most severe effects on starch morphology occurred in double mutants lacking either DPE2 or MEX1 in conjunction with a lack of starch synthase 4 (SS4). In these mutations, a transformation of the starch granule morphology from the typical discoid morphology to oval and eventually to a spherical shape. To investigate the changes in the internal structure of starch during this alteration, I analyzed the chain length distribution (CLD) of the amylopectin of young, intermediate and old leaves of the mutants. Throughout starch granule development, I found an increased presence of short glucan chains within the granules, particularly evident in dpe2ss4 and mex1ss4 mutants, as well as their parental single mutants. Notably, the single mutant ss4 also showed an affected granule morphology, albeit not influenced by leaf aging.. The CLD pattern of the amylopectin reflects an integrative regulation involving several participants in starch synthesis, including starch synthases (SSs), starch branching/debranching enzymes (SBEs/DBEs). Therefore, I further detected the expression of related genes on transcription level and the enzymatic activity of their respective proteins. Results indicated altered gene expression of several regulators in these mutants, particularly demonstrating dramatic alterations in dpe2 and dpe2ss4 with leaf aging. These changes corresponded with the observed alterations in starch granule morphology. Taken together, I have identified and characterized a progressive alteration in starch granule morphology primarily resulting from the deficiencies in DPE2 and MEX1. Furthermore, I have associated the CLD pattern with the granule morphogenesis, as well as the gene expression and enzymatic activity of proteins involved in starch synthesis. Unlike SS4, which is implicated in starch initiation, MEX1 and DPE2 are involved into starch degradation. MEX1 is located in chloroplast envelope and DPE2 is situated in the cytosol. Considering the locations and known functions of DPE2/MEX1 and SS4, I infer that there might be two pathways influencing starch morphology: an initiation-affected pathway via SS4 and a degradation-affected pathway via DPE2/MEX1. N2 - Kohlenhydrate spielen eine wichtige Rolle in allen lebenden Organismen, als Grundpfeiler im primären Stoffwechsel, indem sie Energie durch ihre Hydrolyse freisetzen und anschließend wiederverwendet werden können (Apriyanto et al., 2022). Stärke ist die Hauptreserve an Kohlenhydraten in Pflanzen und liefert die essentielle Energie für das Pflanzenwachstum. Darüber hinaus dient Stärke als bedeutende Kohlenhydratquelle in der menschlichen Ernährung. Abgesehen von ihrem Nährwert hat Stärke umfangreiche industrielle Anwendungen in Bereichen wie Futtermittel, Pharmazie, Textilien und der Herstellung biologisch abbaubarer Kunststoffe. Das Verständnis der Mechanismen, die dem Stoffwechsel von Stärke in Pflanzen zugrunde liegen, birgt vielfältige Vorteile. Es trägt nicht nur zur Steigerung des Ernteertrags und zur Verbesserung der Kornqualität bei, sondern kann auch die Effizienz industrieller Anwendungen verbessern. Stärke in Pflanzen wird je nach ihrem Ort und ihrer Funktion in zwei Klassen eingeteilt: transitorische Stärke und Speicherstärke. Transitorische Stärke wird in Chloroplasten autotropher Gewebe/Organe wie Blätter produziert. Sie wird tagsüber synthetisiert und nachts abgebaut. Speicherstärke wird in heterotrophen Geweben/Organen wie Endosperm, Wurzeln und Knollen synthetisiert und für die Pflanzenreproduktion sowie industrielle Anwendungen im menschlichen Leben genutzt. Die meisten Studien zur Aufklärung des Stärkestoffwechsels von Arabidopsis thaliana konzentrieren sich hauptsächlich auf transitorische Stärke. Stärke wird in granularer Form in Chloroplasten und Amyloplasten gespeichert. Die Parameter der Stärkegranula, einschließlich Größe, Morphologie und Anzahl pro Chloroplast, dienen als Indikatoren für den Status des Stärkestoffwechsels. Das Verständnis ihrer regulatorischen Mechanismen ist jedoch noch unvollständig. In meiner Forschung habe ich zunächst eine Methode auf Basis der laser-konfokalen Rastermikroskopie (LCSM) etabliert, um Größe, Morphologie und Anzahl der Stärkegranula innerhalb der Chloroplaste von Arabidopsis thaliana in vivo zu beobachten. Diese Methode ermöglicht eine schnelle und vielseitige Analyse der Parameter der Stärkegranula in zahlreichen Proben. Unter Verwendung dieses Ansatzes verglich ich die Anzahl der Stärkegranula pro Chloroplast zwischen Mesophyllzellen und Schließzellen sowohl bei Wildtyp-Pflanzen (Col-0) als auch bei verschiedenen stärkebezogenen Mutanten. Die Ergebnisse zeigten, dass die Granulanzahl zwischen Mesophyllzellen und Schließzellen, selbst im identischen genetischen Hintergrund, unterschiedlich ist, was darauf hindeutet, dass Schließzellen einen einzigartigen regulatorischen Mechanismus der Stärkegranulanzahl aufweisen. Anschließend richtete ich meine Aufmerksamkeit darauf, die Stärkemorphologie zu untersuchen. Durch mikroskopische Analysen beobachtete ich eine allmähliche Veränderung der Stärkegranulamorphologie bei bestimmten Mutanten während des Blattalters. Insbesondere bei Mutanten wie sex1-8 und dpe2phs1ss4 gab es im Laufe der Zeit eine fortschreitende Veränderung der Stärkegranulamorphologie. Im Gegensatz dazu waren bei Col-0 und den ss4-Mutanten diese morphologischen Veränderungen nicht erkennbar. Diese Entdeckung ermöglicht eine neue Perspektive, um die Entwicklung der Stärkemorphologie zu verstehen. Weitere Untersuchungen zeigten, dass Mutanten, denen entweder das Disproportionierende Enzym 2 (DPE2) oder MALTOSE-EXCESS 1 (MEX1) fehlen, im Laufe des Blattalters allmähliche Veränderungen in der Stärkemorphologie aufwiesen. Bemerkenswerterweise traten die schwerwiegendsten Auswirkungen auf die Stärkemorphologie bei Doppelmutanten auf, die entweder DPE2 oder MEX1 in Verbindung mit einem Mangel an Stärkesynthase 4 (SS4) aufwiesen. Bei diesen Mutationen wurde eine Transformation der Stärkegranulamorphologie von der typischen scheibenförmigen Morphologie zu ovalen und schließlich zu einer kugelförmigen Form festgestellt. Um die Veränderungen in der inneren Struktur der Stärke während dieser Veränderung zu untersuchen, analysierte ich die Kettenlängenverteilung (KLV) des Amylopektins von jungen, mittleren und alten Blättern der Mutanten. Während der Entwicklung der Stärkegranula fand ich eine vermehrte Anwesenheit kurzer Glukanketten innerhalb der Granula, insbesondere bei den Mutanten dpe2ss4 und mex1ss4 sowie der zugrundeliegenden Einzelmutanten. Bemerkenswerterweise zeigte auch die Einzelmutant ss4 eine beeinträchtigte Granulamorphologie, die jedoch nicht durch das Blattalter beeinflusst wurde. Das KLV-Muster des Amylopektins spiegelt eine integrierte Regulation mehrerer an der Stärkesynthese Beteiligter Enzyme wider, einschließlich Stärkesynthasen (SSs) und Stärkeverzweigungs-/entzweigungs-Enzymen (SBEs/DBEs). Daher habe ich die Expression der beteiligten Gene auf Transkriptionsebene und die enzymatische Aktivität ihrer entsprechenden Proteine weiter untersucht. Die Ergebnisse deuten auf veränderte Genexpression mehrerer Regulatoren in diesen Mutanten hin, insbesondere auf dramatische Veränderungen bei dpe2 und dpe2ss4 mit zunehmendem Blattalter. Diese Veränderungen korrelieren mit den beobachteten Veränderungen in der Stärkegranulamorphologie. Zusammenfassend habe ich eine fortschreitende Veränderung der Stärkegranulat-Morphologie identifiziert und charakterisiert, die hauptsächlich auf Defizite in DPE2 und MEX1 zurückzuführen ist. Des Weiteren habe ich das KLV-Muster mit der Granulatmorphogenese sowie der Genexpression und enzymatischen Aktivität von Proteinen, die an der Stärkesynthese beteiligt sind, in Verbindung gebracht. Im Gegensatz zu SS4, dass in die Stärkeinitiierung involviert ist, spielen MEX1 und DPE2 eine Rolle bei Stärkeabbauprozessen. MEX1 befindet sich in der Chloroplastenhülle und DPE2 im Zytoplasma. Unter Berücksichtigung der Lokalisationen und bekannten Funktionen von DPE2, MEX1 und SS4 schließe ich darauf, dass es möglicherweise zwei Wege gibt, die die Stärkemorphologie beeinflussen: einen unter Beeinflussung von SS4 der mit dem Initiierungsprozess verknüpft ist und einen durch den Stärkeabbauprozess beeinflussten verbunden mit DPE2 bzw. MEX1. T2 - Regulation der Stärkegranulat-Morphogenese in Arabidopsis thaliana KW - Arabidopsis thaliana KW - transitory starch KW - starch granule morphology KW - starch metabolism KW - maltose KW - SS4 KW - DPE2 KW - MEX1 Y1 - 2024 ER - TY - THES A1 - Pauli, Daniel T1 - Unraveling massive star and binary physics in the nearby low-metallicity galaxy, the Small Magellanic Cloud, as a proxy for high-redshift galaxies N2 - Massive stars (Mini > 8 Msol) are the key feedback agents within galaxies, as they shape their surroundings via their powerful winds, ionizing radiation, and explosive supernovae. Most massive stars are born in binary systems, where interactions with their companions significantly alter their evolution and the feedback they deposit in their host galaxy. Understanding binary evolution, particularly in the low-metallicity environments as proxies for the Early Universe, is crucial for interpreting the rest-frame ultraviolet spectra observed in high-redshift galaxies by telescopes like Hubble and James Webb. This thesis aims to tackle this challenge by investigating in detail massive binaries within the low-metallicity environment of the Small Magellanic Cloud galaxy. From ultraviolet and multi-epoch optical spectroscopic data, we uncovered post-interaction binaries. To comprehensively characterize these binary systems, their stellar winds, and orbital parameters, we use a multifaceted approach. The Potsdam Wolf-Rayet stellar atmosphere code is employed to obtain the stellar and wind parameters of the stars. Additionally, we perform consistent light and radial velocity fitting with the Physics of Eclipsing Binaries software, allowing for the independent determination of orbital parameters and component masses. Finally, we utilize these results to challenge the standard picture of stellar evolution and improve our understanding of low-metallicity stellar populations by calculating our binary evolution models with the Modules for Experiments in Stellar Astrophysics code. We discovered the first four O-type post-interaction binaries in the SMC (Chapters 2, 5, and 6). Their primary stars have temperatures similar to other OB stars and reside far from the helium zero-age main sequence, challenging the traditional view of binary evolution. Our stellar evolution models suggest this may be due to enhanced mixing after core-hydrogen burning. Furthermore, we discovered the so-far most massive binary system undergoing mass transfer (Chapter 3), offering a unique opportunity to test mass-transfer efficiency in extreme conditions. Our binary evolution calculations revealed unexpected evolutionary pathways for accreting stars in binaries, potentially providing the missing link to understanding the observed Wolf-Rayet population within the SMC (Chapter 4). The results presented in this thesis unveiled the properties of massive binaries at low-metallicity which challenge the way the spectra of high-redshift galaxies are currently being analyzed as well as our understanding of massive-star feedback within galaxies. N2 - Massereiche Sterne (Mini > 8 Msonne ) beeinflussen ihre Umgebung durch ihre starke Winde, ionisierende Strahlung und wenn sie als Supernova explodieren. Sie sind daher die Schlüsselfaktoren für die Rückkopplungsprozesse innerhalb von Galaxien. Die meisten massereichen Sterne entstehen in Doppelsternsystemen, in welchen sie mit ihren Begleitern interagieren können, was weitreichende Konsequenzen für ihre weitere Entwicklung und die Rückkopplung auf ihre Galaxie beeinflusst. Ein tiefgreifendes Verständnis der Entwicklung von Doppelsternen, insbesondere in metallarmen Umgebungen als Näherung für Sterne im frühe Universum, ist entscheidend für die richtige Interpretation der Spektren von Galaxies bei hohen Rotverschiebungen die von Weltraumteleskopen wie Hubble und James Webb beobachtet werden. Diese Dissertation widmet sich der Herausforderung für ein besseres Verständnis von Doppelsternsystemen, indem sie massereiche Doppelsterne in der metallarmen Umgebung der Galaxie „Kleinen Magellanischen Wolke“ detailliert untersucht. Anhand von zahlreichen ultravioletten und optischen Spektroskopiedaten konnten Doppelsterne, die schon miteinander interagiert haben, entdeckt werden. Um diese Doppelsternsysteme, die Parameter der einzelnen Sterne und ihrer Sternwinde sowie die Bahnparameter zu erhalten und zu charakterisieren, verwenden wir einen mehrteiligen Ansatz. Als erstes, um die Parameter der Sterne und ihrer Winde zu gewinnen, wird der Potsdamer Wolf-Rayet-Sternatmosphärencode eingesetzt. Darüber hinaus führen wir mit der Software „Physics of Eclipsing Binaries“ eine konsistente Licht- und Radialgeschwindigkeitsanpassung durch, die eine unabhängige Bestimmung der Bahnparameter und Komponentenmassen ermöglicht. Abschließend werden diese Ergebnisse verwendet, um die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage zu stellen und unser Verständnis von Sternpopulationen mit geringer Metallizität zu verbessern, indem wir Evolutionsmodelle von Doppelsternen mithilfe des Codes „Modules for Experiments in Stellar Astrophysics“ berechnen. In dieser Arbeit konnten erstmalig vier massereiche O-Typ-Doppelsterne nach einer Wechselwirkung innerhalb der Kleinen Magellanischen Wolke entdeckt werden (Kapitel 2, 5 und 6). Überraschenderweise sind die Temperaturen der Massegeber vergleichbar mit denen anderer OB-Sterne und daher kühler als zuvor erwartet. Dies stellt die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage. Unsere Sternenentwicklungsmodelle deuten darauf hin, dass die beobachtete Diskrepanz gelöst werden kann wenn man eine stärkere Durchmischung nach dem Wasserstoffbrennen im Kern annimmt. Darüber hinaus haben wir das bisher massereichste Doppelsternsystem entdeckt, welches sich gerade in einem Massenaustausch befindet (Kapitel 3). Dieses System bietet eine einzigartige Gelegenheit, die Effizienz des Massentransfers unter extremen Bedingungen zu testen. Des Weiteren haben unsere Berechnungen zur Doppelsternentwicklung unerwartete Entwicklungspfade für akkretierende Sterne in Doppelsternsystemen enthüllten, die möglicherweise das fehlende Bindeglied zum Verständnis der beobachteten Wolf-Rayet-Population in der Kleinen Magellanschen Wolke darstellen (Kapitel 4). Die in dieser Dissertation präsentierten Ergebnisse enthüllen die einzigartigen Eigenschaften von massereichen Doppelsternen in metallarmen Umgebungen, die sowohl die aktuelle Analyse der Spektren von Galaxien mit hoher Rotverschiebung als auch unser Verständnis der Rückkopplungsprozesse von massereichen Sternen in Galaxien in Frage stellen. T2 - Entschlüsselung der Physik massereicher Sterne und Doppelsternsysteme in der nahegelegenen, metallarmen Galaxie, der Kleinen Magellanschen Wolke, als Vertreter für Galaxien mit hoher Rotverschiebung KW - Massereiche Sterne KW - massive stars KW - Sternwind KW - stellar winds KW - Doppelstern KW - binary stars KW - Spektralanalyse KW - spectral analysis KW - Orbitalanalyse KW - orbital analysis KW - Sternenentwicklung KW - stellar evolution KW - OB-Sterne KW - OB-type stars KW - Wolf-Rayet Sterne KW - Wolf-Rayet stars KW - Kleine Magellansche Wolke KW - Small Magellanic Cloud Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-653184 ER - TY - THES A1 - Fułat, Karol T1 - Electron acceleration at quasi-perpendicular shocks in supernova remnants N2 - Astrophysical shocks, driven by explosive events such as supernovae, efficiently accelerate charged particles to relativistic energies. The majority of these shocks occur in collisionless plasmas where the energy transfer is dominated by particle-wave interactions.Strong nonrelativistic shocks found in supernova remnants are plausible sites of galactic cosmic ray production, and the observed emission indicates the presence of nonthermal electrons. To participate in the primary mechanism of energy gain - Diffusive Shock Acceleration - electrons must have a highly suprathermal energy, implying a need for very efficient pre-acceleration. This poorly understood aspect of the shock acceleration theory is known as the electron injection problem. Studying electron-scale phenomena requires the use of fully kinetic particle-in-cell (PIC) simulations, which describe collisionless plasma from first principles. Most published studies consider a homogenous upstream medium, but turbulence is ubiquitous in astrophysical environments and is typically driven at magnetohydrodynamic scales, cascading down to kinetic scales. For the first time, I investigate how preexisting turbulence affects electron acceleration at nonrelativistic shocks using the fully kinetic approach. To accomplish this, I developed a novel simulation framework that allows the study of shocks propagating in turbulent media. It involves simulating slabs of turbulent plasma separately, which are further continuously inserted into a shock simulation. This demands matching of the plasma slabs at the interface. A new procedure of matching electromagnetic fields and currents prevents numerical transients, and the plasma evolves self-consistently. The versatility of this framework has the potential to render simulations more consistent with turbulent systems in various astrophysical environments. In this Thesis, I present the results of 2D3V PIC simulations of high-Mach-number nonrelativistic shocks with preexisting compressive turbulence in an electron-ion plasma. The chosen amplitudes of the density fluctuations ($\lesssim15\%$) concord with \textit{in situ} measurements in the heliosphere and the local interstellar medium. I explored how these fluctuations impact the dynamics of upstream electrons, the driving of the plasma instabilities, electron heating and acceleration. My results indicate that while the presence of the turbulence enhances variations in the upstream magnetic field, their levels remain too low to influence the behavior of electrons at perpendicular shocks significantly. However, the situation is different at oblique shocks. The external magnetic field inclined at an angle between $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relative to the shock normal allows the escape of fast electrons toward the upstream region. An extended electron foreshock region is formed, where these particles drive various instabilities. Results of an oblique shock with $\theta_\text{Bn}=60^\circ$ propagating in preexisting compressive turbulence show that the foreshock becomes significantly shorter, and the shock-reflected electrons have higher temperatures. Furthermore, the energy spectrum of downstream electrons shows a well-pronounced nonthermal tail that follows a power law with an index up to -2.3. The methods and results presented in this Thesis could serve as a starting point for more realistic modeling of interactions between shocks and turbulence in plasmas from first principles. N2 - Astrophysikalische Schocks, die durch explosive Ereignisse wie Supernovae ausgelöst werden, beschleunigen geladene Teilchen effizient auf relativistische Energien. Die meisten dieser Schocks treten in kollisionsfreien Plasmen auf, in denen die Energieübertragung durch Teilchen-Wellen-Wechselwirkungen dominiert wird. Starke nichtrelativistische Schocks, die in Supernovaüberresten gefunden werden, sind plausible Orte der galaktischen kosmischen Strahlungsproduktion, und die beobachtete Emission deutet auf das Vorhandensein von nichtthermischen Elektronen hin. Um am primären Mechanismus der Energiegewinnung - der diffusiven Schockbeschleunigung - teilzunehmen, müssen die Elektronen eine hochgradig suprathermische Energie haben, was eine sehr effiziente Vorbeschleunigung voraussetzt. Dieser schlecht verstandene Aspekt der Stoßbeschleunigungstheorie ist als Elektroneninjektionsproblem bekannt. Die Untersuchung von Phänomenen auf der Elektronenskala erfordert den Einsatz von vollständig kinetischen Partikel-in-Zellen-Simulationen (PIC), die ein kollisionsfreies Plasma nach ersten Prinzipien beschreiben. Die meisten veröffentlichten Studien gehen von einem homogenen stromaufwärts gelegenen Medium aus, aber Turbulenzen sind in astrophysikalischen Umgebungen allgegenwärtig und werden typischerweise auf magnetohydrodynamischen Skalen angetrieben und kaskadieren hinunter zu kinetischen Skalen. Zum ersten Mal untersuche ich, wie sich eine bereits vorhandene Turbulenz auf die Elektronenbeschleunigung an nichtrelativistischen Schocks auswirkt, indem ich einen vollständig kinetischen Ansatz verwende. Zu diesem Zweck habe ich einen neuartigen Simulationsrahmen entwickelt, der die Untersuchung von Schocks ermöglicht, die sich in turbulenten Medien ausbreiten. Dabei werden die Platten des turbulenten Plasmas separat simuliert, die dann kontinuierlich in eine Schocksimulation eingefügt werden. Dies erfordert eine Anpassung der Plasmaplatten an der Grenzfläche. Ein neues Verfahren zur Anpassung elektromagnetischer Felder und Ströme verhindert numerische Transienten, und das Plasma entwickelt sich selbstkonsistent. Die Vielseitigkeit dieses Rahmens hat das Potenzial, Simulationen mit turbulenten Systemen in verschiedenen astrophysikalischen Umgebungen konsistenter zu machen. In dieser Arbeit präsentiere ich die Ergebnisse von 2D3V PIC-Simulationen von nichtrelativistischen Schocks mit hoher Mach-Zahl und bereits vorhandener kompressiver Turbulenz in einem Elektron-Ionen-Plasma. Die gewählten Amplituden der Dichtefluktuationen ($\lesssim15\%$) stimmen mit \textit{in situ} Messungen in der Heliosphäre und dem lokalen interstellaren Medium überein. Ich habe untersucht, wie sich diese Fluktuationen auf die Dynamik der stromaufwärts befindlichen Elektronen, den Antrieb der Plasmainstabilitäten, die Elektronenheizung und -beschleunigung auswirken. Meine Ergebnisse deuten darauf hin, dass das Vorhandensein von Turbulenzen zwar die Schwankungen des stromaufwärts gelegenen Magnetfelds verstärkt, dass aber die Schwankungen zu gering sind, um das Verhalten der Elektronen an senkrechten Schocks wesentlich zu beeinflussen. Bei schrägen Stößen ist die Situation jedoch anders. Das äußere Magnetfeld, das in einem Winkel zwischen $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relativ zur Schocknormalen ermöglicht das Entweichen schneller Elektronen in Richtung der stromaufwärts gelegenen Region. Es bildet sich eine ausgedehnte Elektronenvorstoßregion, in der diese Teilchen verschiedene Instabilitäten auslösen. Die Ergebnisse eines schrägen Schocks mit $\theta_\text{Bn}=60^\circ$, der sich in einer vorher existierenden kompressiven Turbulenz ausbreitet, zeigen, dass der Vorschock deutlich kürzer wird und die vom Schock reflektierten Elektronen höhere Temperaturen aufweisen. Darüber hinaus zeigt das Energiespektrum der stromabwärts gerichteten Elektronen einen ausgeprägten nichtthermischen Schweif, der einem Potenzgesetz mit einem Index von bis zu -2,3 folgt. Die in dieser Arbeit vorgestellten Methoden und Ergebnisse könnten als Ausgangspunkt für eine realistischere Modellierung der Wechselwirkungen zwischen Schocks und Turbulenz in Plasmen nach ersten Prinzipien dienen. T2 - Elektronenbeschleunigung bei quasi senkrechten Schocks in Supernovaüberresten KW - astrophysical shocks KW - plasma physics KW - particle acceleration KW - astrophysikalische Schocks KW - Plasmaphysik KW - Teilchenbeschleunigung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651365 ER - TY - THES A1 - Valencia Sanmiguel, Antonio T1 - Condensation and crystallization on patterned surfaces N2 - Condensation and crystallization are omnipresent phenomena in nature. The formation of droplets or crystals on a solid surface are familiar processes which, beyond their scientific interest, are required in many technological applications. In recent years, experimental techniques have been developed which allow patterning a substrate with surface domains of molecular thickness, surface area in the mesoscopic scale, and different wettabilities (i.e., different degrees of preference for a substance that is in contact with the substrate). The existence of new patterned surfaces has led to increased theoretical efforts to understand wetting phenomena in such systems. In this thesis, we deal with some problems related to the equilibrium of phases (e.g., liquid-vapor coexistence) and the kinetics of phase separation in the presence of chemically patterned surfaces. Two different cases are considered: (i) patterned surfaces in contact with liquid and vapor, and (ii) patterned surfaces in contact with a crystalline phase. One of the problems that we have studied is the following: It is widely believed that if air containing water vapor is cooled to its dew point, droplets of water are immediately formed. Although common experience seems to support this view, it is not correct. It is only when air is cooled well below its dew point that the phase transition occurs immediately. A vapor cooled slightly below its dew point is in a metastable state, meaning that the liquid phase is more stable than the vapor, but the formation of droplets requires some time to occur, which can be very long. It was first pointed out by J. W. Gibbs that the metastability of a vapor depends on the energy necessary to form a nucleus (a droplet of a critical size). Droplets smaller than the critical size will tend to disappear, while droplets larger than the critical size will tend to grow. This is consistent with an energy barrier that has its maximum at the critical size, as is the case for droplets formed directly in the vapor or in contact with a chemically uniform planar wall. Classical nucleation theory describes the time evolution of the condensation in terms of the random process of droplet growth through this energy barrier. This process is activated by thermal fluctuations, which eventually will form a droplet of the critical size. We consider nucleation of droplets from a vapor on a substrate patterned with easily wettable (lyophilic) circular domains. Under certain conditions of pressure and temperature, the condensation of a droplet on a lyophilic circular domain proceeds through a barrier with two maxima (a double barrier). We have extended classical nucleation theory to account for the kinetics of nucleation through a double barrier, and applied this extension to nucleation on lyophilic circular domains. N2 - Kondensation und Kristallisation sind allgegenwärtige Phänomene in der Natur. Die Bildung von Tröpfchen oder Kristallen auf einer festen Oberfläche sind vertraute Prozesse, die über ihr wissenschaftliches Interesse hinaus in vielen technologischen Anwendungen erforderlich sind. In den letzten Jahren wurden experimentelle Techniken entwickelt, die es ermöglichen, ein Substrat mit Oberflächendomänen von molekularer Dicke, mesoskopischer Oberflächengröße und unterschiedlichen Benetzbarkeiten (d.h. unterschiedlichen Graden der Präferenz für eine Substanz, die mit dem Substrat in Kontakt steht) zu strukturieren. Die Existenz neuer strukturierter Oberflächen hat zu verstärkten theoretischen Bemühungen geführt, Benetzungsphänomene in solchen Systemen zu verstehen. In dieser Arbeit befassen wir uns mit einigen Problemen im Zusammenhang mit dem Gleichgewicht von Phasen (z.B. Flüssig-Dampf-Koexistenz) und der Kinetik der Phasentrennung in Gegenwart von chemisch strukturierten Oberflächen. Zwei verschiedene Fälle werden betrachtet: (i) strukturierte Oberflächen in Kontakt mit Flüssigkeit und Dampf und (ii) strukturierte Oberflächen in Kontakt mit einer kristallinen Phase. Eines der Probleme, die wir untersucht haben, ist das folgende: Es wird allgemein angenommen, dass sich bei Abkühlung von wasserdampfhaltiger Luft auf ihren Taupunkt sofort Wassertröpfchen bilden. Obwohl die allgemeine Erfahrung diese Ansicht zu unterstützen scheint, ist sie nicht korrekt. Erst wenn die Luft deutlich unter ihren Taupunkt gekühlt wird, tritt der Phasenübergang sofort ein. Ein leicht unter seinen Taupunkt gekühlter Dampf befindet sich in einem metastabilen Zustand, was bedeutet, dass die flüssige Phase stabiler als der Dampf ist, aber die Bildung von Tröpfchen einige Zeit benötigt, die sehr lang sein kann. J. W. Gibbs wies erstmals darauf hin, dass die Metastabilität eines Dampfes von der Energie abhängt, die zur Bildung eines Keims (eines Tröpfchens kritischer Größe) notwendig ist. Tröpfchen, die kleiner als die kritische Größe sind, neigen dazu zu verschwinden, während Tröpfchen, die größer als die kritische Größe sind, dazu neigen zu wachsen. Dies stimmt mit einer Energiebarriere überein, die ihr Maximum bei der kritischen Größe hat, wie es bei Tröpfchen der Fall ist, die sich direkt im Dampf oder in Kontakt mit einer chemisch einheitlichen ebenen Wand bilden. Die klassische Nukleationstheorie beschreibt die zeitliche Entwicklung der Kondensation als zufälligen Prozess des Tröpfchenwachstums durch diese Energiebarriere. Dieser Prozess wird durch thermische Fluktuationen aktiviert, die schließlich ein Tröpfchen kritischer Größe bilden. Wir betrachten die Nukleation von Tröpfchen aus einem Dampf auf einem Substrat, das mit leicht benetzbaren (lyophilen) kreisförmigen Domänen strukturiert ist. Unter bestimmten Druck- und Temperaturbedingungen verläuft die Kondensation eines Tröpfchens auf einer lyophilen kreisförmigen Domäne durch eine Barriere mit zwei Maxima (eine Doppelbarriere). Wir haben die klassische Nukleationstheorie erweitert, um die Kinetik der Nukleation durch eine Doppelbarriere zu berücksichtigen, und haben diese Erweiterung auf die Nukleation auf lyophilen kreisförmigen Domänen angewendet. KW - Chemical physics KW - Condensation KW - Nucleation KW - Crystallization KW - Computer simulation KW - Soft condensed matter KW - Phase transitions KW - Chemically patterned surfaces KW - Monte Carlo simulation KW - Kondensation KW - Kristallisation KW - Oberfläche KW - Keimbildung KW - Mathematisches Modell Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651950 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Schauer, Lina Marie T1 - Reputation auf Online-Plattformen T2 - Datenrecht und neue Technologien N2 - Wie ist der „gute Ruf“ von Unternehmen und Einzelpersonen im Umfeld von Online-Bewertungsplattformen geschützt? Das Werk erforscht, ob und inwieweit das geltende Recht einen adäquaten und lückenlosen Schutz für die unternehmerische und personelle Reputation gewährleitstet. Die Systematisierung und Untersuchung des bestehenden Regelungsgefüges konzentriert sich auf das Lauterkeitsrecht und das allgemeine Deliktsrecht unter besonderer Berücksichtigung der rechtlichen Innovationen auf nationaler (UWG-Reform 2022) und europäischer (New Deal for Consumers, Digital Services Act) Ebene. Die Dissertation wurde für den ›Justizpreis Berlin-Brandenburg – Carl Gottlieb Svarez 2024‹ vorgeschlagen. KW - Social Media KW - Soziale Netzwerke KW - Wettbewerbsrecht KW - Deliktsrecht KW - Competition Law KW - Lauterkeitsrecht KW - tort law KW - Reputation KW - Bewertungsplattformen KW - Plattformbetreiber KW - Online-Plattformen KW - Rezension KW - Like KW - Digital Services Act KW - Fake KW - DSA KW - New Deal for Consumers KW - Digitalrecht KW - Corporate Reputation KW - online platforms KW - Bewertungen KW - unfair competition law KW - Onlineplattformen KW - good reputation KW - guter Ruf KW - personal reputation KW - reputation protection KW - review platforms KW - personelle Reputation KW - UWG reform 2022 KW - Reputationsschutz KW - unternehmerische Reputation KW - UWG-Reform 2022 Y1 - 2024 SN - 978-3-7560-1720-1 SN - 978-3-7489-4449-2 U6 - https://doi.org/10.5771/9783748944492 SN - 2749-7534 VL - 10 PB - Nomos CY - Baden-Baden ET - 1 ER - TY - THES A1 - Mayer, Selina T1 - Understanding the impact of design thinking on organizations and individuals N2 - Organizations are investing billions on innovation and agility initiatives to stay competitive in their increasingly uncertain business environments. Design Thinking, an innovation approach based on human-centered exploration, ideation and experimentation, has gained increasing popularity. The market for Design Thinking, including software products and general services, is projected to reach 2.500 million $ (US-Dollar) by 2028. A dispersed set of positive outcomes have been attributed to Design Thinking. However, there is no clear understanding of what exactly comprises the impact of Design Thinking and how it is created. To support a billion-dollar market, it is essential to understand the value Design Thinking is bringing to organizations not only to justify large investments, but to continuously improve the approach and its application. Following a qualitative research approach combined with results from a systematic literature review, the results presented in this dissertation offer a structured understanding of Design Thinking impact. The results are structured along two main perspectives of impact: the individual and the organizational perspective. First, insights from qualitative data analysis demonstrate that measuring and assessing the impact of Design Thinking is currently one central challenge for Design Thinking practitioners in organizations. Second, the interview data revealed several effects Design Thinking has on individuals, demonstrating how Design Thinking can impact boundary management behaviors and enable employees to craft their jobs more actively. Contributing to innovation management research, the work presented in this dissertation systematically explains the Design Thinking impact, allowing other researchers to both locate and integrate their work better. The results of this research advance the theoretical rigor of Design Thinking impact research, offering multiple theoretical underpinnings explaining the variety of Design Thinking impact. Furthermore, this dissertation contains three specific propositions on how Design Thinking creates an impact: Design Thinking creates an impact through integration, enablement, and engagement. Integration refers to how Design Thinking enables organizations through effectively combining things, such as for example fostering balance between exploitation and exploration activities. Through Engagement, Design Thinking impacts organizations involving users and other relevant stakeholders in their work. Moreover, Design Thinking creates impact through Enablement, making it possible for individuals to enact a specific behavior or experience certain states. By synthesizing multiple theoretical streams into these three overarching themes, the results of this research can help bridge disciplinary boundaries, for example between business, psychology and design, and enhance future collaborative research. Practitioners benefit from the results as multiple desirable outcomes are detailed in this thesis, such as successful individual job crafting behaviors, which can be expected from practicing Design Thinking. This allows practitioners to enact more evidence-based decision-making concerning Design Thinking implementation. Overall, considering multiple levels of impact as well as a broad range of theoretical underpinnings are paramount to understanding and fostering Design Thinking impact. N2 - Unternehmen geben Milliarden für Innovations- und Agilitätsinitiativen aus. Sie wenden zunehmend agile und innovative Ansätze an, um komplexe Probleme zu erkunden und zu lösen. So stellen sie ihre Wettbewerbsfähigkeit sicher, da das heutige Geschäftsumfeld immer unsicherer und mehrdeutiger wird. Design Thinking ist ein immer beliebter werdender Innovationsansatz, der auf menschenzentrierter Erkundung, Ideenfindung und Experimenten basiert. Marktforschungen schätzen, dass der Design Thinking-Markt, einschließlich Softwareprodukten und allgemeinen Dienstleistungen, bis 2028 ein Volumen von 2,5 Milliarden US-Dollar erreichen wird. Zwar wurden Design Thinking vereinzelt positive Ergebnisse zugeschrieben (z. B. bessere Identifizierung von Kundenbedürfnissen, höhere Innovationsfähigkeiten, bessere Innovationsergebnisse), doch gibt es kein klares Verständnis darüber, was genau die Wirkung und den Mehrwert von Design Thinking ausmacht und wie diese Wirkung entsteht. Um einen Milliardenmarkt zu erhalten und zu rechtfertigen, ist es wichtig zu verstehen, welchen Wert Design Thinking für Unternehmen bringt. Dabei kommt es nicht nur darauf an, hohe Investitionen zu rechtfertigen, sondern auch darauf, den Ansatz und seine Einsatzgebiete kontinuierlich zu verbessern. Basierend auf qualitativen Interviewdaten und einer systematischen Literaturrecherche bietet diese Dissertation ein strukturiertes Verständnis der Wirkung von Design Thinking an. Die Ergebnisse sind entlang zweier Hauptwirkungsperspektiven gegliedert, der individuellen und der organisationalen Perspektive. Erstens zeigen Erkenntnisse aus der qualitativen Datenanalyse, dass die Messung und Bewertung der Auswirkungen von Design Thinking derzeit eine zentrale Herausforderung für Design Thinking-Praktiker in Organisationen darstellt. Zweitens zeigten die Interviewdaten mehrere Auswirkungen, die Design Thinking auf Einzelpersonen hat. Im Detail zeig die Arbeit, wie Design Thinking es MitarbeiterInnen ermöglich, ihre Grenzen zu managenen (= „Boundary Management“ zu betreiben), oder, auch, wie sie durch sogennantes „Job Crafting“ ihre Arbeit aktiv gestalten können. Als Beitrag zur Innovationsmanagementforschung erläutert diese Dissertation systematisch die Auswirkungen von Design Thinking und ermöglicht es anderen Forschern, ihre Arbeit besser zu lokalisieren und zu integrieren. Die Ergebnisse dieser Forschung erweitern die theoretische Integration der Design Thinking-Forschung und bieten mehrere theoretische Grundlagen, die die Vielfalt der Design Thinking-Wirkung erklären. Darüber hinaus schlägt diese Dissertation drei konkrete Thesen vor, wie Design Thinking Wirkung erzeugt: Design Thinking erzeugt Wirkung durch Integration, Enablement und Engagement. Integration bezieht sich darauf, wie Design Thinking Organisationen durch die effektive Kombination von Dingen unterstützt, beispielsweise durch die Förderung eines Gleichgewichts zwischen Exploration und Exploitation im Sinne der Ambidextrie. Durch Engagement wirkt sich Design Thinking auf Organisationen aus, die Benutzer und andere relevante Stakeholder in ihre Arbeit einbeziehen. Und Design Thinking erzeugt durch Enablement Wirkung und ermöglicht es Einzelpersonen, ein bestimmtes Verhalten auszuführen oder bestimmte Zustände zu erleben. Durch die Zusammenfassung mehrerer theoretischer Strömungen zu diesen drei übergreifenden Themen können die Ergebnisse dieser Forschung dazu beitragen, disziplinäre Grenzen, beispielsweise zwischen Wirtschaft, Psychologie und Design, zu überbrücken und zukünftige gemeinsame Forschung zu verbessern. Praktiker profitieren von den Ergebnissen, da diese Arbeit Ergebnisse detailliert beschreibt, die von zukünftigen Design Thinking-Aktivitäten erwartet werden können, sodass Praktiker eine evidenzbasiertere Entscheidung hinsichtlich der Design Thinking-Implementierung treffen können. Insgesamt ist die Berücksichtigung mehrerer Wirkungsebenen sowie einer breiten Palette theoretischer Grundlagen von größter Bedeutung, um die Wirkung von Design Thinking zu verstehen und zu fördern. T2 - Die Auswirkungen von Design Thinking auf Organisationen und Individuen KW - Design Thinking KW - Impact KW - Grounded Theory KW - Theoretical Foundations KW - Design Thinking KW - Grounded Theory KW - Auswirkungen KW - theoretische Grundlagen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651541 ER - TY - THES A1 - Heckenbach, Esther Lina T1 - Geodynamic modeling of process interactions at continental plate boundaries N2 - Plate tectonic boundaries constitute the suture zones between tectonic plates. They are shaped by a variety of distinct and interrelated processes and play a key role in geohazards and georesource formation. Many of these processes have been previously studied, while many others remain unaddressed or undiscovered. In this work, the geodynamic numerical modeling software ASPECT is applied to shed light on further process interactions at continental plate boundaries. In contrast to natural data, geodynamic modeling has the advantage that processes can be directly quantified and that all parameters can be analyzed over the entire evolution of a structure. Furthermore, processes and interactions can be singled out from complex settings because the modeler has full control over all of the parameters involved. To account for the simplifying character of models in general, I have chosen to study generic geological settings with a focus on the processes and interactions rather than precisely reconstructing a specific region of the Earth. In Chapter 2, 2D models of continental rifts with different crustal thicknesses between 20 and 50 km and extension velocities in the range of 0.5-10 mm/yr are used to obtain a speed limit for the thermal steady-state assumption, commonly employed to address the temperature fields of continental rifts worldwide. Because the tectonic deformation from ongoing rifting outpaces heat conduction, the temperature field is not in equilibrium, but is characterized by a transient, tectonically-induced heat flow signal. As a result, I find that isotherm depths of the geodynamic evolution models are shallower than a temperature distribution in equilibrium would suggest. This is particularly important for deep isotherms and narrow rifts. In narrow rifts, the magnitude of the transient temperature signal limits a well-founded applicability of the thermal steady-state assumption to extension velocities of 0.5-2 mm/yr. Estimation of the crustal temperature field affects conclusions on all temperature-dependent processes ranging from mineral assemblages to the feasible exploitation of a geothermal reservoir. In Chapter 3, I model the interactions of different rheologies with the kinematics of folding and faulting using the example of fault-propagation folds in the Andean fold-and-thrust belt. The evolution of the velocity fields from geodynamic models are compared with those from trishear models of the same structure. While the latter use only geometric and kinematic constraints of the main fault, the geodynamic models capture viscous, plastic, and elastic deformation in the entire model domain. I find that both models work equally well for early, and thus relatively simple stages of folding and faulting, while results differ for more complex situations where off-fault deformation and secondary faulting are present. As fault-propagation folds can play an important role in the formation of reservoirs, knowledge of fluid pathways, for example via fractures and faults, is crucial for their characterization. Chapter 4 deals with a bending transform fault and the interconnections between tectonics and surface processes. In particular, the tectonic evolution of the Dead Sea Fault is addressed where a releasing bend forms the Dead Sea pull-apart basin, while a restraining bend further to the North resulted in the formation of the Lebanese mountains. I ran 3D coupled geodynamic and surface evolution models that included both types of bends in a single setup. I tested various randomized initial strain distributions, showing that basin asymmetry is a consequence of strain localization. Furthermore, by varying the surface process efficiency, I find that the deposition of sediment in the pull-apart basin not only controls basin depth, but also results in a crustal flow component that increases uplift at the restraining bend. Finally, in Chapter 5, I present the computational basis for adding further complexity to plate boundary models in ASPECT with the implementation of earthquake-like behavior using the rate-and-state friction framework. Despite earthquakes happening on a relatively small time scale, there are many interactions between the seismic cycle and the long time spans of other geodynamic processes. Amongst others, the crustal state of stress as well as the presence of fluids or changes in temperature may alter the frictional behavior of a fault segment. My work provides the basis for a realistic setup of involved structures and processes, which is therefore important to obtain a meaningful estimate for earthquake hazards. While these findings improve our understanding of continental plate boundaries, further development of geodynamic software may help to reveal even more processes and interactions in the future. N2 - Plattentektonische Grenzen bilden die Nahtstellen zwischen tektonischen Platten. Sie werden durch eine Vielzahl von unterschiedlichen und miteinander verknüpften Prozessen geformt und spielen eine Schlüsselrolle im Bereich der Georisiken und der Entstehung von Georessourcen. Viele dieser Prozesse sind bereits erforscht, während viele andere noch unbearbeitet oder unentdeckt sind. In dieser Arbeit wird die geodynamische numerische Modellierungssoftware ASPECT verwendet, um weitere Prozessinteraktionen an kontinentalen Plattengrenzen zu untersuchen. Im Gegensatz zu natürlichen Daten hat die geodynamische Modellierung den Vorteil, dass Prozesse direkt quantifiziert und alle Parameter über die gesamte Entwicklung einer Struktur analysiert werden können. Außerdem können Prozesse und Wechselwirkungen aus komplexen Zusammenhängen herausgefiltert werden, da der Modellierer volle Kontrolle über alle beteiligten Parameter hat. Um dem vereinfachenden Charakter von Modellen im Allgemeinen Rechnung zu tragen, habe ich mich für die Untersuchung allgemeiner geologischer Gegeben-heiten entschieden, wobei der Schwerpunkt auf den Prozessen und Wechselwirkungen liegt, anstatt eine bestimmte Region der Erde genau zu rekonstruieren. In Kapitel 2 werden 2D-Modelle von kontinentalen Rifts mit unterschiedlichen Krustendicken zwischen 20 und 50 km, sowie Extensionsgeschwindigkeiten im Bereich von 0,5-10 mm/Jahr verwendet, um eine Geschwindigkeitsgrenze für die Annahme eines thermischen Gleichgewichtszustandes zu erhalten, welcher üblicherweise verwendet wird, um die Temperaturfelder kontinentaler Rifts weltweit zu beschreiben. Da die Geschwindigkeit der tektonischen Deformation die der Wärmeleitung übersteigt, befindet sich das Temperaturfeld nicht im Gleichgewicht, sondern ist durch ein transientes, tektonisch induziertes Wärmestromsignal gekennzeichnet. Daraus ergibt sich, dass die Tiefen der Isothermen in den geodynamischen Entwicklungsmodellen flacher liegen, als es eine Temperaturverteilung im Gleichgewichtszustand vermuten ließe. Dies macht sich besondersbei tiefen Isothermen und narrow Rifts bemerkbar. In narrow Rifts begrenzt die Magnitude des transienten Temperatursignals eine fundierte Anwendbarkeit der thermischen Gleichgewichtsannahme auf Extensionsgeschwindigkeiten im Bereich von 0,5-2 mm/Jahr. Die Abschätzung des Temperaturfeldes der Erdkruste wirkt sich auf alle temperaturabhängigen Prozesse aus, von der Mineralzusammensetzung bis hin zur möglichen Nutzung eines geothermischen Reservoirs. In Kapitel 3 modelliere ich die Wechselwirkungen verschiedener Rheologien mit der Kinematik von Auffaltungen und Verwerfungen am Beispiel von fault-propagation folds im andinen Falten- und Überschiebungsgürtel. Die Entwicklung der Geschwindigkeitsfelder aus geodynamischen Modellen wird mit denen aus Trishear-Modellen für dieselbe Struktur verglichen. Während letztere nur geometrische und kinematische Charakteristika der Hauptverwerfung verwenden, erfassen die geodynamischen Modelle sowohl viskose, wie auch plastische und elastische Verformung im gesamten Modellbereich. Meine Forschung zeigt, dass beide Modelle für frühe und damit vergleichbar einfache Phasen der Auffaltung und Verwerfung gleichermaßen gut anwendbar sind, während die Ergebnisse für komplexere Situationen, in denen Verfor-mungen außerhalb der Hauptstörung sowie sekundäre Verwerfungen auftreten, auseinander gehen. Da fault-propagation folds eine wichtige Rolle bei der Bildung von Lagerstätten spielen können, ist Kenntnis zu Migrationswegen von Fluiden, zum Beispiel über Klüfte und Verwerfungen, für ihre Charakterisierung von entscheidender Bedeutung. Kapitel 4 befasst sich mit Biegungen von Transformstörungen sowie den Zusammenhängen zwischen Tektonik und Oberflächenprozessen. Insbesondere wird die tektonische Entwicklung der Verwerfung am Toten Meer behandelt, wo eine von Extension geprägte Biegung der Verwerfung das Pull-Apart-Becken des Toten Meeres bildet, während eine weiter nördlich gelegene von Kompression geprägte Biegung zur Bildung eines Gebirgszuges im Libanon führte. Für dieses Kapitel habe ich gekoppelte 3D Modelle der Geodynamik und Oberflächenentwicklung genutzt sowie beide Arten von Biegungen in einem Modell erforscht. Das Testen von verschiedenen, zufälligen Initialspannungsverteilungen zeigte, dass die Asymmetrie des Beckens eine Folge der Spannungslokalisierung ist. Außerdem habe ich durch Variation der Oberflächenprozesseffizienz herausgearbeitet, dass die Sedimentierung im Pull-Apart-Becken nicht nur die Beckentiefe steuert, sondern auch zu einer Strömungskomponente von Erdkrustenmaterial führt, die die Ablift an der von Kompression geprägten Biegung der Transformstörung erhöht. Anschließend stelle ich in Kapitel 5 die Implementierung von erdbebenähnlichem Verhalten unter Verwendung der Rate-and-State Gleichungen vor, welche die Grundlage für die Erweiterung der Komplexität von Plattengrenzenmodellen in ASPECT bildet. Obwohl Erdbeben auf einer relativ kurzen Zeitskala stattfinden, gibt es viele Wechselwirkungen zwischen dem seismischen Zyklus und den langen Zeitspannen anderer geodynamischer Prozesse. Unter anderem können der Spannungszustand der Kruste sowie das Vorhandensein von Fluiden oder Änderungen der Temperatur das Reibungsverhalten eines Störungssegmentes verändern. Meine Arbeit liefert die Grundlage für einen realistischen Aufbau der beteiligten Strukturen und Prozesse, der wichtig ist, um eine aussagekräftige Abschätzung der Erdbebengefährdung zu erhalten. Während diese Ergebnisse unser Verständnis der kontinentalen Plattengrenzen verbessern, kann die Weiterentwicklung geodynamischer Software dazu beitragen, in Zukunft weitere Prozesse und Wechselwirkungen aufzudecken. T2 - Geodynamische Modellierung von Prozessinteraktionen an kontinentalen Plattengrenzen KW - geodynamic modeling KW - plate boundaries KW - continental crust KW - heat flow KW - landscape evolution KW - geodynamische Modellierung KW - Plattengrenzen KW - kontinentale Kruste KW - Wärmediffusion KW - Oberflächenmodellierung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647500 ER - TY - THES A1 - Mirzaee, Zohreh T1 - Ecology and phylogeny of Mantodea of Iran and adjacent areas N2 - Mantodea, commonly known as mantids, have captivated researchers owing to their enigmatic behavior and ecological significance. This order comprises a diverse array of predatory insects, boasting over 2,400 species globally and inhabiting a wide spectrum of ecosystems. In Iran, the mantid fauna displays remarkable diversity, yet numerous facets of this fauna remain poorly understood, with a significant dearth of systematic and ecological research. This substantial knowledge gap underscores the pressing need for a comprehensive study to advance our understanding of Mantodea in Iran and its neighboring regions. The principal objective of this investigation was to delve into the ecology and phylogeny of Mantodea within these areas. To accomplish this, our research efforts concentrated on three distinct genera within Iranian Mantodea. These genera were selected due to their limited existing knowledge base and feasibility for in-depth study. Our comprehensive methodology encompassed a multifaceted approach, integrating morphological analysis, molecular techniques, and ecological observations. Our research encompassed a comprehensive revision of the genus Holaptilon, resulting in the description of four previously unknown species. This extensive effort substantially advanced our understanding of the ecological roles played by Holaptilon and refined its systematic classification. Furthermore, our investigation into Nilomantis floweri expanded its known distribution range to include Iran. By conducting thorough biological assessments, genetic analyses, and ecological niche modeling, we obtained invaluable insights into distribution patterns and genetic diversity within this species. Additionally, our research provided a thorough comprehension of the life cycle, behaviors, and ecological niche modeling of Blepharopsis mendica, shedding new light on the distinctive characteristics of this mantid species. Moreover, we contributed essential knowledge about parasitoids that infect mantid ootheca, laying the foundation for future studies aimed at uncovering the intricate mechanisms governing ecological and evolutionary interactions between parasitoids and Mantodea. N2 - Mantodea, gemeinhin als Gottesanbeterinnen bekannt, haben Forscher aufgrund ihres rätselhaften Verhaltens und ihrer ökologischen Bedeutung in ihren Bann gezogen. Diese Ordnung umfasst eine Vielzahl räuberischer Insekten, von denen es weltweit über 2 400 Arten gibt und die ein breites Spektrum von Ökosystemen bewohnen. Im Iran weist die Gottesanbeterinnen-Fauna eine bemerkenswerte Vielfalt auf, doch zahlreiche Aspekte dieser Fauna sind nach wie vor nur unzureichend erforscht, und es besteht ein erheblicher Mangel an systematischen und ökologischen Untersuchungen. Diese beträchtliche Wissenslücke unterstreicht den dringenden Bedarf an einer umfassenden Studie, um unser Verständnis der Mantodea im Iran und den angrenzenden Regionen zu verbessern. Das Hauptziel dieser Untersuchung bestand darin, die Ökologie und Phylogenie der Mantodea in diesen Gebieten zu erforschen. Um dies zu erreichen, konzentrierten sich unsere Forschungsarbeiten auf drei verschiedene Gattungen innerhalb der iranischen Mantodea. Diese Gattungen wurden aufgrund ihrer begrenzten Wissensbasis und ihrer Eignung für eingehende Untersuchungen ausgewählt. Unsere umfassende Methodik umfasste einen vielschichtigen Ansatz, der morphologische Analysen, molekulare Techniken und ökologische Beobachtungen einbezog. Unsere Forschung umfasste eine umfassende Revision der Gattung Holaptilon, die zur Beschreibung von vier bisher unbekannten Arten führte. Diese umfangreichen Arbeiten haben unser Verständnis der ökologischen Rolle von Holaptilon wesentlich verbessert und die systematische Einordnung der Gattung verfeinert. Darüber hinaus konnten wir durch die Untersuchung von Nilomantis floweri ihr bekanntes Verbreitungsgebiet auf den Iran ausweiten. Durch gründliche biologische Untersuchungen, genetische Analysen und ökologische Nischenmodellierung erhielten wir unschätzbare Einblicke in die Verbreitungsmuster und die genetische Vielfalt dieser Art. Darüber hinaus lieferten unsere Forschungsarbeiten ein umfassendes Verständnis des Lebenszyklus, der Verhaltensweisen und der ökologischen Nischenmodellierung von Blepharopsis mendica und warfen ein neues Licht auf die besonderen Merkmale dieser Mantidenart. Darüber hinaus lieferten wir wichtige Erkenntnisse über Parasitoide, die Ootheken von Gottesanbeterinnen befallen, und legten damit den Grundstein für künftige Studien, die darauf abzielen, die komplizierten Mechanismen aufzudecken, die die ökologischen und evolutionären Wechselwirkungen zwischen Parasitoiden und Mantodea steuern. T2 - Ökologie und Phylogenie der Mantodea des Iran und angrenzender Gebiete KW - Mantodea KW - Ecology KW - Phylogeny KW - Mantodea KW - Ökologie KW - Phylogeni Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-652739 ER - TY - THES A1 - Mielke, Lucas T1 - Schernikau und die Poetik der Affirmation T2 - Deutsche Literatur : Studien und Quellen N2 - Die Arbeit ist der Versuch einer zusammenhängenden historisierenden Lektüre der wichtigsten Essays und fiktionalen Prosatexte des Schriftstellers Ronald M. Schernikau (1960-1991). Der schwule Kommunist erklärte das Lob zur künstlerischen Strategie, formulierte gleichzeitig eine avancierte Gesellschaftskritik und verteidigte den realen Sozialismus auch gegen die Realität. Im Verlauf mehrerer Einzelstudien werden Themen, Schreibweisen und schließlich auch die Widersprüche, in die sich ein solches Projekt verstricken muss, analysiert. Vor dem Hintergrund zentraler politischer und ästhetischer Debatten der 1970er und -80er Jahre werden so die Umrisse einer politischen Poetik nachgezeichnet, die der Schönheit verpflichtet ist. Ein weiteres Augenmerk liegt dabei auf theorie- und bewegungsgeschichtlichen Aspekten. Gibt es ein schwules Schreiben jenseits einer auktorialen Selbstpositionierung? Was würde eine kommunistische Literatur auszeichnen? Schernikau verhandelt poetologische Fragen um die Konzepte Autorschaft, Realismus und Werk, die nicht nur an gegenwärtige Diskurse anschlussfähig sind, sondern auf die Kernprobleme der politischen Literatur des Zwanzigsten Jahrhunderts verweisen. KW - Schernikau KW - Poetologie KW - Erzählforschung KW - Queer-Theory Y1 - 2024 SN - 9783111441221 SN - 9783111436906 U6 - https://doi.org/10.1515/9783111441221 SN - 2198-932X VL - 48 PB - De Gruyter CY - Berlin ; Boston, Mass ER - TY - THES A1 - Shigeyama, Jotaro T1 - Virtual reality at 1:1 scale in small physical spaces N2 - Virtual Reality (VR) leads to the highest level of immersion if presented using a 1:1 mapping of virtual space to physical space—also known as real walking. The advent of inexpensive consumer virtual reality (VR) headsets, all capable of running inside-out position tracking, has brought VR to the home. However, many VR applications do not feature full real walking, but instead, feature a less immersive space-saving technique known as instant teleportation. Given that only 0.3% of home users run their VR experiences in spaces more than 4m2, the most likely explanation is the lack of the physical space required for meaningful use of real walking. In this thesis, we investigate how to overcome this hurdle. We demonstrate how to run 1:1-mapped VR experiences in small physical spaces and we explore the trade-off between space and immersion. (1) We start with a space limit of 15cm. We present DualPanto, a device that allows (blind) VR users to experience the virtual world from a 1:1 mapped bird’s eye perspective—by leveraging haptics. (2) We then relax our space constraints to 50cm, which is what seated users (e.g., on an airplane or train ride) have at their disposal. We leverage the space to represent a standing user in 1:1 mapping, while only compressing the user’s arm movement. We demonstrate our 4 prototype VirtualArms at the example of VR experiences limited to arm movement, such as boxing. (3) Finally, we relax our space constraints further to 3m2 of walkable space, which is what 75% of home users have access to. As well- established in the literature, we implement real walking with the help of portals, also known as “impossible spaces”. While impossible spaces on such dramatic space constraints tend to degenerate into incomprehensible mazes (as demonstrated, for example, by “TraVRsal”), we propose plausibleSpaces: presenting meaningful virtual worlds by adapting various visual elements to impossible spaces. Our techniques push the boundary of spatially meaningful VR interaction in various small spaces. We see further future challenges for new design approaches to immersive VR experiences for the smallest physical spaces in our daily life. N2 - Virtuelle Realität (VR) erzeugt die größte Immersion, wenn sie mit einer 1:1-Abbildung des virtuellen Raums auf den physischen Raum verwendet wird – dem sogenannten Real Walking. Das Aufkommen preiswerter VR-Headsets, die alle zu Inside-Out Positionstracking fähig sind, hat VR in die Haushalte von Heimanwendern gebracht. Viele VR-Anwendungen ermöglichen jedoch kein Real Walking, sondern bieten stattdessen eine weniger immersive, raumsparende Technik an, die als Instant Teleportation bekannt ist. In Anbetracht der Tatsache, dass nur 0,3% der Nutzer ihre VR-Anwendungen in Räumen von mehr als 4m² verwenden, ist die wahrscheinlichste Erklärung dafür der Mangel an physischem Raum, der für eine sinnvolle Nutzung des Real Walking erforderlich wäre. In dieser Arbeit untersuchen wir, wie diese Hürde überwunden werden kann. Wir zeigen, wie man 1:1 skalierte VR-Interaktionen in kleinen Räumen durchführen kann, und wir erforschen den Kompromiss zwischen der verfügbaren Menge an Raum und der Immersion. (1) Wir beginnen mit einer Raumbegrenzung von 15cm. Wir stellen DualPanto vor, ein Gerät, welches (blinden) VR-Benutzern ermöglicht, die virtuelle Welt aus einer 1:1 skalierten Vogelperspektive zu erleben indem es Haptik verwendet. (2) Dann lockern wir unsere räumliche Beschränkung auf 50 cm, ein Raum der sitzenden Benutzern (z.B. in einem Flugzeug oder Zug) zur Verfügung steht. Wir nutzen diesen Raum, um einen stehenden Benutzer in einer 1:1-Abbildung darzustellen, während wir nur die Armbewegung des Benutzers erfassen. Wir demonstrieren unseren Prototyp VirtualArms am Beispiel von VR-Erfahrungen, die auf Armbewegungen beschränkt sind, wie z.B. einem Boxkampf. (3) Schließlich lockern wir unsere räumlichen Beschränkungen weiter auf 3m² begehbare Fläche, welche 75% der Heimanwender zur Verfügung steht. Wie bereits in der Literatur etabliert, implementieren wir Real Walking mit Hilfe von Portalen, auch bekannt als Impossible Spaces. Während Impossible Spaces bei solch dramatisch begrenzten Platzverhältnissen dazu neigen, zu unverständlichen Labyrinthen zu werden (wie z.B. bei TraVRsal), schlagen wir plausibleSpaces vor: die Präsentation räumlich bedeutsamer virtueller Welten durch die Anpassung verschiedener visueller Elemente an Impossible Spaces. Unsere Techniken verschieben die Grenzen der räumlich bedeutsamen VR-Interaktion in verschiedenen kleinen Räumen. Als zukünftige Herausforderung sehen wir die Entwicklung neuer Designansätze für immersive VR-Erfahrungen für die kleinsten physischen Räume in unserem Alltag. T2 - Virtuelle Realität im Maßstab 1:1 in kleinem physischen Raum KW - virtual reality KW - haptics KW - human-computer interaction KW - Haptik KW - Mensch-Computer-Interaktion KW - Virtuelle Realität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649000 ER - TY - THES A1 - Odanga, Denish Otieno T1 - Phobic cosmopolitanism BT - navigating ambivalent belonging in contemporary Somali diasporic literature KW - phobia cosmopolitanism KW - Somali KW - eurocentrism Y1 - 2024 ER - TY - THES A1 - Kaun, Mario T1 - Begrenztes Cottbus? BT - Perspektiven auf die Lebenswelt der Cottbuser Exklavengesellschaft 1740–1806 T2 - Schriften des Frühneuzeitzentrums Potsdam N2 - In diesem Band ermöglicht Mario Kaun ausgewählte Einblicke in die Lebenswelt der Cottbuser Exklavengesellschaft des 18. Jahrhunderts. Erstmalig erscheint hiermit für diesen Untersuchungsraum eine grundlegende Studie, die in umfassender Weise die Exklave und das Verhältnis von Militär und Gesellschaft näher erforscht sowie die wirtschaftliche Funktion der Garnison in einer aufstrebenden Stadt kritisch hinterfragt. Der Autor lenkt hierbei das Augenmerk auf etliche, bisher völlig unbekannte Perspektiven, die darüber hinaus einen wichtigen Beitrag zur Stadt- und Regionalgeschichtsforschung von Cottbus und der Niederlausitz leisten. Insbesondere die Befassung mit der brandenburgisch-preußischen Exklave stellt eine wertvolle Ergänzung zur bislang rudimentären Forschungslage dar. N2 - In this volume, Mario Kaun provides selected perspectives into the lifeworld of the Cottbus exclave society of the 18th century. This is the first time that a fundamental study has been published for this research area, which comprehensively explores the exclave and the relationship between the military and society in more detail and critically scrutinizes the economic function of the garrison in an up-and-coming town. The author draws attention to a great deal of previously unknown information, which also makes an important contribution to urban and regional history research on Cottbus and Lower Lusatia. In particular, the treatment of the Brandenburg-Prussian exclave represents a valuable addition to the hitherto rudimentary research situation. Y1 - 2024 SN - 978-3-8471-1726-1 SN - 2198-5251 VL - 13 PB - V & R Unipress CY - Göttingen ER - TY - THES A1 - Karakas, Esra T1 - High-resolution studies of epistasis in tomato metabolism T1 - Hochauflösende Studien zur Epistasierung des Tomatenstoffwechsels N2 - The inclusion of exotic germplasm serves as a crucial means to enhance allelic and consequently phenotypic diversity in inbred crop species. Such species have experienced a reduction in diversity due to artificial selection focused on a limited set of traits. The natural biodiversity within ecosystems presents an opportunity to explore various traits influencing plant survival, reproductive fitness and yield potential. In agricultural research, the study of wild species closely related to cultivated plants serves as a means to comprehend the genetic foundations of past domestication events and the polymorphisms essential for future breeding efforts to develop superior varieties. In order to examine the metabolic composition, pinpoint quantitative trait loci (QTL) and facilitate their resolution an extensive large-scale analysis of metabolic QTL (mQTL) was conducted on tomato backcross inbred lines (BILs) derived from a cross between the wild species S. pennellii (5240) incorporated into the background of S. lycopersicum cv. LEA determinate inbred which can be grown in open fields and cv. TOP indeterminate which can be grown in greenhouse conditions. A large number of mQTL associated with primary secondary and lipid metabolism in fruit were identified across the two BIL populations. Epistasis, the interactions between genes at different loci, has been an interest in molecular and quantitative genetics for many decades. The study of epistasis requires the analysis of very large populations with multiple independent genotypes that carry specific genomic regions. In order to understand the genetic basis of tomato fruit metabolism, I extended the work to investigate epistatic interactions of the genomic regions. In addition, two candidate genes were identified through quantitative trait loci underlying fruit-specific sucrose and jasmonic acid derivatives. Finally, in this study, I assessed the genetic framework of fruit metabolic traits with a high level of detail, utilizing the newly created Solanum pennellii (5240) backcrossed introgression lines (n=3000). This investigation resulted in the discovery of promising candidate loci associated with significant fruit quality traits, including those to the abundance of glutamic acid and aspartic acid crucial elements contributing to the development of acidity and flavors. N2 - Die Einbeziehung von exotischem Keimplasma ist ein wichtiges Mittel zur Verbesserung der allelischen und folglich auch der phänotypischen Vielfalt bei Inzuchtpflanzenarten. Bei diesen Arten hat die künstliche Selektion, die sich auf eine begrenzte Anzahl von Merkmalen konzentriert, zu einem Rückgang der Vielfalt geführt. Die natürliche Artenvielfalt in Ökosystemen bietet die Möglichkeit, verschiedene Merkmale zu erforschen, die das Überleben, die Reproduktionsfähigkeit und das Ertragspotenzial von Pflanzen beeinflussen. In der Agrarforschung dient die Untersuchung von Wildarten, die eng mit Kulturpflanzen verwandt sind, als Mittel zum Verständnis der genetischen Grundlagen vergangener Domestizierungsereignisse und der Polymorphismen, die für künftige Züchtungsbemühungen zur Entwicklung besserer Sorten wichtig sind. Um die metabolische Zusammensetzung zu untersuchen, quantitative Merkmalsloci (QTL) zu identifizieren und ihre Auflösung zu erleichtern, wurde eine umfangreiche Analyse metabolischer QTL (mQTL) an Tomaten-Rückkreuzungs-Inzuchtlinien (BILs) durchgeführt, die aus einer Kreuzung zwischen der Wildart S. pennellii (5240), die in den Hintergrund von S. lycopersicum cv. LEA determinate inbred, die im Freiland angebaut werden kann, und cv. TOP indeterminate, die unter Gewächshausbedingungen angebaut werden kann. In den beiden BIL-Populationen wurde eine große Anzahl von mQTL identifiziert, die mit dem primären Sekundär- und Lipidstoffwechsel in der Frucht in Verbindung stehen. Epistase, die Wechselwirkungen zwischen Genen an verschiedenen Loci, ist seit vielen Jahrzehnten ein Thema in der molekularen und quantitativen Genetik. Die Untersuchung der Epistase erfordert die Analyse sehr großer Populationen mit mehreren unabhängigen Genotypen, die bestimmte genomische Regionen tragen. Um die genetischen Grundlagen des Tomatenfruchtstoffwechsels zu verstehen, habe ich die Arbeit erweitert, um epistatische Interaktionen der genomischen Regionen zu untersuchen. Darüber hinaus wurden zwei Kandidatengene identifiziert, die über quantitative Merkmalsloci den fruchttypischen Saccharose- und Jasmonsäurederivaten zugrunde liegen. Schließlich habe ich in dieser Studie das genetische Gerüst der Fruchtstoffwechselmerkmale mit einem hohen Detaillierungsgrad bewertet, wobei ich die neu geschaffenen Solanum pennellii (5240) Rückkreuzungslinien (n=3000) verwendet habe. Diese Untersuchung führte zur Entdeckung vielversprechender Kandidatenloci, die mit bedeutenden Fruchtqualitätsmerkmalen assoziiert sind, einschließlich derjenigen, die mit der Fülle von Glutaminsäure und Asparaginsäure in Verbindung stehen - entscheidende Elemente, die zur Entwicklung von Säure und Aromen beitragen. KW - Epistasis KW - QTL mapping KW - metabolomics KW - backcross inbred line (BIL) KW - Epistase KW - QTL KW - Metabolomik KW - Rückkreuzungsinzuchtlinie (BIL) Y1 - 2024 ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Reuß, Maximilian T1 - Laborexperimente, Überwachung und Simulation einer reaktiven Wand zur Abreinigung von eisen- und sulfathaltigen Bergbauwässern bei sauren und neutralen pH-Bedingungen T1 - Optical in-situ monitoring of acid and neutral mine drainage remediation: Laboratory and model investigation N2 - In dieser Arbeit wurde eine reaktive Wand in einem kleinskaligen Laborma\ss stab (Länge~=~40\,cm) entwickelt, die Eisen- und Sulfatbelastungen aus sauren Minenabwässern (engl. \textit{acid mine drainage} (AMD)) mit einer Effizienz von bis zu 30.2 bzw. 24.2\,\% über einen Zeitraum von 146~Tagen (50\,pv) abreinigen können sollte. Als reaktives Material wurde eine Mischung aus Gartenkompost, Buchenholz, Kokosnussschale und Calciumcarbonat verwendet. Die Zugabebedingungen waren eine Eisenkonzentration von 1000\,mg/L, eine Sulfatkonzentration von 3000\,mg/L und ein pH-Wert von 6.2. Unterschiede in der Materialzusammensetzung ergaben keine grö\ss eren Änderungen in der Sanierungseffizienz von Eisen- und Sulfatbelastungen (12.0 -- 15.4\,\% bzw. 7.0 -- 10.1\,\%) über einen Untersuchungszeitraum von 108~Tagen (41 -- 57\,pv). Der wichtigste Einflussfaktor auf die Abreinigungsleistung von Sulfat- und Eisenbelastungen war die Verweilzeit der AMD-Lösung im reaktiven Material. Diese kann durch eine Verringerung des Durchflusses oder eine Erhöhung der Länge der reaktiven Wand (engl. \textit{Permeable Reactive Barrier} (PRB)) erhöht werden. Ein halbierter Durchfluss erhöhte die Sanierungseffizienzen von Eisen und Sulfat auf 23.4 bzw. 32.7\,\%. Weiterhin stieg die Sanierungseffizienz der Eisenbelastungen auf 24.2\,\% bei einer Erhöhung der Sulfatzugabekonzentration auf 6000\,mg/L. Saure Startbedingungen (pH~=~2.2) konnten, durch das Calciumcarbonat im reaktiven Material, über einen Zeitraum von 47~Tagen (24\,pv) neutralisiert werden. Durch die Neutralisierung der sauren Startbedingungen wurde Calciumcarbonat in der \gls{prb} verbraucht und Calcium-Ionen freigesetzt, die die Sulfatsanierungseffizienz erhöht haben (24.9\,\%). Aufgrund einer Vergrö\ss erung der \gls{prb} in Breite und Tiefe und einer 2D-Parameterbestimmung konnten Randläufigkeiten beobachtet werden, ohne deren Einfluss sich die Sanierungseffizienz für Eisen- und Sulfatbelastungen erhöht (30.2 bzw. 24.2\,\%). \par Zur \textit{in-situ} Überwachung der \gls{prb} wurden optische Sensoren verwendet, um den pH-Wert, die Sauerstoffkonzentration und die Temperatur zu ermitteln. Es wurden, nach dem Ort und der Zeit aufgelöst, stabile Sauerstoffkonzentrationen und pH-Verläufe detektiert. Auch die Temperatur konnte nach dem Ort aufgelöst ermittelt werden. Damit zeigte diese Arbeit, dass optische Sensoren zur Überwachung der Stabilität einer \gls{prb} für die Reinigung von \gls{amd} verwendet werden können. \par Mit dem Simulationsprogramm MIN3P wurde eine Simulation erstellt, die die entwickelte PRB darstellt. Die Simulation kann die erhaltenen Laborergebnisse gut wiedergeben. Anschlie\ss end wurde eine simulierte \gls{prb} bei unterschiedlichen Filtergeschwindigkeiten ((4.0 -- 23.5)~$\cdot~\mathrm{10^{-7}}$\,m/s) und Längen der PRB (25 -- 400\,cm) untersucht. Es wurden Zusammenhänge der untersuchten Parameter mit der Sanierungseffizienz von Eisen- und Sulfatbelastungen ermittelt. Diese Zusammenhänge können verwendet werden, um die benötigte Verweilzeit der AMD-Lösung in einem zukünftigen PRB-System, die für die maximal mögliche Sanierungsleistung notwendig ist, zu berechnen. N2 - A subsurface permeable reactive barrier (\gls{prb}) can be deployed to remediate acid mine drainage (AMD). The performance of a \gls{prb} material under different boundary conditions (pH, flow velocity, sulfate concentration, dimension) was investigated in a series of column experiments applying in situ optical sensing methods for pH and oxygen detection. The reactive material consisted of organic components (compost, wood and coconut shell) mixed with calcium carbonate and fine gravel. The input concentrations were around 1000\,mg/L for iron and 3000\,mg/L for sulfate and the pH value was 6.2. The remediation efficiency could reach was 30.2\,\% in case of iron and for sulfate 24.2\,\% for a 40\,cm \gls{prb} for a duration time of 146~days (50\,pv). It can be expected to scale up when moving to a field-site \gls{prb} with greater thickness. The differences in organic material composition as chosen appeared minor (12.0 -- 15.4\,\% for iron and 7.0 -- 10.1\,\% for sulfate). Decreasing the flow velocity and increasing the sulfate input concentration and the pH value influenced the iron and sulfate removal. Low pH boundary conditions (pH = 2.2) were neutralized in the \gls{prb} by calcium carbonate during an experiment duration of 47~days (24\,pv). When enlarging the set-up to have a 2D dimension and expanding the parameter detection accordingly, boundary effects were seen, which decrease the remediation efficiency. Without these boundary effects the remediation efficiency of iron and sulfate increase to 30.0 and 24.2\,\%, respectively. \par This study also demonstrated the application of optical oxygen, pH and temperature monitoring in PRBs. Stable oxygen concentration and pH cources could be monitored time- and location-dependent. Also location-dependent temperature monitoring could be shown in this study. In this context, they can be used to monitor the stability of a \gls{prb} for the remediation of \gls{amd}. \par The modelling program MIN3P was used to create a simulation of the laboratory experiments. Additionally, different flow velocities and length of PRB were investigated with the simulation. This helps to design parameters, e.g. the residence time in the \gls{prb}, which is necessary for close to 100\,\% remediation efficiency. KW - Reaktive Wand KW - Saures Mienenwasser KW - faseroptische chemische Sensoren KW - permeable reactive barrier KW - acid mine drainage KW - fiber optical chemical sensors Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648564 ER - TY - THES A1 - Kindermann, Liana T1 - Trees, shrubs, and land-use change T1 - Bäume, Büsche und Landnutzungswandel BT - The future of carbon storage in an African Savanna BT - Die Zukunft der Kohlenstoffspeicherung in einer Afrikanischen Savanne N2 - The global drylands cover nearly half of the terrestrial surface and are home to more than two billion people. In many drylands, ongoing land-use change transforms near-natural savanna vegetation to agricultural land to increase food production. In Southern Africa, these heterogenous savanna ecosystems are also recognized as habitats of many protected animal species, such as elephant, lion and large herds of diverse herbivores, which are of great value for the tourism industry. Here, subsistence farmers and livestock herder communities often live in close proximity to nature conservation areas. Although these land-use transformations are different regarding the future they aspire to, both processes, nature conservation with large herbivores and agricultural intensification, have in common, that they change the vegetation structure of savanna ecosystems, usually leading to destruction of trees, shrubs and the woody biomass they consist of. Such changes in woody vegetation cover and biomass are often regarded as forms of land degradation and forest loss. Global forest conservation approaches and international programs aim to stop degradation processes, also to conserve the carbon bound within wood from volatilization into earth’s atmosphere. In search for mitigation options against global climate change savannas are increasingly discussed as potential carbon sinks. Savannas, however, are not forests, in that they are naturally shaped by and adapted to disturbances, such as wildfires and herbivory. Unlike in forests, disturbances are necessary for stable, functioning savanna ecosystems and prevent these ecosystems from forming closed forest stands. Their consequently lower levels of carbon storage in woody vegetation have long been the reason for savannas to be overlooked as a potential carbon sink but recently the question was raised if carbon sequestration programs (such as REDD+) could also be applied to savanna ecosystems. However, heterogenous vegetation structure and chronic disturbances hamper the quantification of carbon stocks in savannas, and current procedures of carbon storage estimation entail high uncertainties due to methodological obstacles. It is therefore challenging to assess how future land-use changes such as agricultural intensification or increasing wildlife densities will impact the carbon storage balance of African drylands. In this thesis, I address the research gap of accurately quantifying carbon storage in vegetation and soils of disturbance-prone savanna ecosystems. I further analyse relevant drivers for both ecosystem compartments and their implications for future carbon storage under land-use change. Moreover, I show that in savannas different carbon storage pools vary in their persistence to disturbance, causing carbon bound in shrub vegetation to be most likely to experience severe losses under land-use change while soil organic carbon stored in subsoils is least likely to be impacted by land-use change in the future. I start with summarizing conventional approaches to carbon storage assessment and where and for which reasons they fail to accurately estimated savanna ecosystem carbon storage. Furthermore, I outline which future-making processes drive land-use change in Southern Africa along two pathways of land-use transformation and how these are likely to influence carbon storage. In the following chapters, I propose a new method of carbon storage estimation which is adapted to the specific conditions of disturbance-prone ecosystems and demonstrate the advantages of this approach in relation to existing forestry methods. Specifically, I highlight sources for previous over- and underestimation of savanna carbon stocks which the proposed methodology resolves. In the following chapters, I apply the new method to analyse impacts of land-use change on carbon storage in woody vegetation in conjunction with the soil compartment. With this interdisciplinary approach, I can demonstrate that indeed both, agricultural intensification and nature conservation with large herbivores, reduce woody carbon storage above- and belowground, but partly sequesters this carbon into the soil organic carbon stock. I then quantify whole-ecosystem carbon storage in different ecosystem compartments (above- and belowground woody carbon in shrubs and trees, respectively, as well as topsoil and subsoil organic carbon) of two savanna vegetation types (scrub savanna and savanna woodland). Moreover, in a space-for-time substitution I analyse how land-use changes impact carbon storage in each compartment and in the whole ecosystem. Carbon storage compartments are found to differ in their persistence to land-use change with carbon bound in shrub biomass being least persistent to future changes and subsoil organic carbon being most stable under changing land-use. I then explore which individual land-use change effects act as drivers of carbon storage through Generalized Additive Models (GAMs) and uncover non-linear effects, especially of elephant browsing, with implications for future carbon storage. In the last chapter, I discuss my findings in the larger context of this thesis and discuss relevant implications for land-use change and future-making decisions in rural Africa. N2 - Weltweit bedecken Trockengebiete fast die Hälfte der Erdoberfläche und sind die Heimat von mehr als zwei Milliarden Menschen. In vielen Regionen wird durch den fortschreitenden Landnutzungswandel die naturnahe Savannenvegetation in landwirtschaftliche Flächen umgewandelt, um die Nahrungsmittelproduktion zu steigern. Im südlichen Afrika sind diese diversen Savannenökosysteme auch als Lebensraum für viele geschützte Tierarten wie Elefanten, Löwen und große Herden vielfältiger Pflanzenfresser bekannt, die großen Wert für die Tourismusbranche haben. Im Umfeld vieler großer Schutzgebiete leben Kleinbauern und Viehhirten oft in unmittelbarer Nachbarschaft zu diesen – oft gefährlichen – Tieren. Obwohl sich beide Landnutzungen im Hinblick darauf unterscheiden welche Zukunftsvision verfolgt wird, haben sie doch beide gemeinsam, dass sowohl Schutzgebiete mit großen Pflanzenfressern wie Elefanten als auch die Landwirtschaft, die Vegetationsstruktur von Savannenökosystemen verändern. In der Regel reduzieren beide Prozesse die holzige Biomasse im Ökosystem, indem Bäume und Sträucher entfernt, zerstört oder durch Fraßverhalten und Holzeinschlag geschädigt werden. Solche Veränderungen der holzigen Vegetationsschicht samt Einflüssen auf die Biomasse werden oft als Formen von Umweltzerstörung oder Waldverlust betrachtet. Globale Waldschutzkonzepte und internationale Programme zielen darauf ab, solche Degradationsprozesse zu stoppen und den im Holz gebundenen Kohlenstoff vor der Verflüchtigung in die Erdatmosphäre zu bewahren. Auf der Suche nach Möglichkeiten zur Eindämmung des globalen Klimawandels werden Savannen zunehmend als potenzielle Kohlenstoffsenken diskutiert. Savannen sind von Wäldern jedoch fundamental verschieden, da sie von Natur aus durch starke Störungen, wie z. B. Elefantenfraß und Buschfeuer, geprägt und an diese evolutionär angepasst sind. Anders als in Wäldern sind hier Störungen für Funktion und Stabilität von offenen Savannenökosysteme notwendig und verhindern, dass sie sich zu geschlossenen Waldbeständen oder undurchdringlichen Gestrüppen entwickeln. Folglich ist die Kohlenstoffspeicherung in der holzigen Vegetation in Savannen geringer als in Wäldern und dies war lange Zeit der Grund dafür, dass Savannen keine Beachtung als potenzielle Kohlenstoffsenke fanden. In letzter Zeit wurde jedoch zunehmend die Frage aufgeworfen, ob Programme zur Kohlenstoffbindung (wie REDD+) auch auf Savannenökosysteme angewendet werden könnten. Die heterogene Vegetationsstruktur und chronischen Störungen erschweren jedoch erheblich die Quantifizierung der Kohlenstoffvorräte in Savannen, so dass die derzeitigen Verfahren zur Schätzung der Kohlenstoffspeicherung aufgrund methodischer Hindernisse mit großen Unsicherheiten verbunden sind. Daher ist es auch schwierig abzuschätzen, wie sich künftige Landnutzungsänderungen wie die Intensivierung der Landwirtschaft oder die Erhöhung von Wildtierdichten auf die Kohlenstoffspeicher der afrikanischen Trockengebiete auswirken werden. In dieser Arbeit fasse ich zunächst die konventionellen Ansätze zur Quantifizierung von Kohlenstoffspeichern zusammen und zeige auf, wo und aus welchen Gründen sie in Savannenökosystemen versagen. Darüber hinaus skizziere ich entlang zweier Pfade der Landnutzungsänderung, welche Zukunftsvorstellungen den Landnutzungswandel im südlichen Afrika vorantreiben und wie diese voraussichtlich die Kohlenstoffspeicherung beeinflussen werden. In den folgenden Kapiteln entwickele ich eine neue Methode zur Schätzung der Kohlenstoffspeicherung, die an die spezifischen Bedingungen störungsanfälliger Ökosysteme angepasst ist, und zeige die Vorteile dieses Ansatzes gegenüber den bisherigen forstwirtschaftlichen Methoden auf. In den beiden daran anschließenden Kapiteln wende ich die neue Methode an, um die Auswirkungen von Landnutzungsänderungen auf die Kohlenstoffspeicherung zu analysieren und berücksichtige dabei auch das Verhältnis von holziger Biomasse zu im Boden gespeichertem Kohlenstoff. Mit diesem interdisziplinären Ansatz kann ich zeigen, dass sowohl die Intensivierung der Landwirtschaft als auch der Naturschutz mit großen Pflanzenfressern die ober- und unterirdische Kohlenstoffspeicherung in Büschen und Bäumen verringern, dieser Kohlenstoff jedoch nicht verloren geht, sondern teilweise in den organischen Kohlenstoffbestand des Bodens eingelagert wird. Anschließend quantifiziere ich die Kohlenstoffspeicherung im gesamten Ökosystem sowie in verschiedenen Ökosystemkompartimenten (ober- und unterirdischer Holzkohlenstoff in Sträuchern bzw. Bäumen sowie organischer Kohlenstoff im Ober- und Unterboden) von zwei verschiedenen Vegetationstypen der Studienregion. Darüber hinaus analysiere ich in einer Raum-Zeit-Substitution, wie sich zukünftige Landnutzungsänderungen auf die Kohlenstoffspeicherung in jedem Kompartiment und im gesamten Ökosystem auswirken. Die hier untersuchten Kohlenstoffspeicher unterscheiden sich in ihrer Beständigkeit gegenüber Landnutzungsänderungen, wobei jener Kohlenstoff, der in der Strauchbiomasse gebunden ist sich als am wenigsten beständig gegenüber künftigen Änderungen herausgestellt hat; demgegenüber ist der organische Kohlenstoff im Unterboden bei veränderter Landnutzung am stabilsten. Anschließend untersuche ich mit Hilfe von statistischen Modellen (Generalized Additive Models, GAMs), welche individuellen Landnutzungsfaktoren die Kohlenstoffspeicherung beeinflussen, und decke nichtlineare Effekte auf. Insbesondere Elefantenfraß kann zunächst positive Auswirkungen auf die Kohlenstoffspeicherung haben, die sich bei weiterer Intensivierung jedoch ins Gegenteil verkehrt. Dies muss bei zukünftigen Planungen berücksichtigt werden. Im letzten Kapitel diskutiere ich meine Ergebnisse im größeren Kontext dieser Arbeit und erörtere relevante Implikationen für Landnutzungsänderungen und zukünftige Entscheidungen. KW - biology KW - plant ecology KW - carbon storage KW - savanna KW - woodland KW - vegetation ecology KW - disturbance ecology KW - soil organic carbon KW - Biologie KW - Kohlenstoffspeicherung KW - Störungsökologie KW - Pflanzenökologie KW - Savanne KW - Organischer Bodenkohlenstoff KW - Vegetationsökologie KW - Baumsavanne Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648943 ER - TY - THES A1 - Novaković-Marinković, Nina T1 - Optical control of bubble domains and skyrmions in thin films T1 - Optische Kontrolle von Blasendomänen und Skyrmionen in dünnen Schichten N2 - Laser induced switching offers an attractive possibility to manipulate small magnetic domains for prospective memory and logic devices on ultrashort time scales. Moreover, optical control of magnetization without high applied magnetic fields allows manipulation of magnetic domains individually and locally, without expensive heat dissipation. One of the major challenges for developing novel optically controlled magnetic memory and logic devices is reliable formation and annihilation of non-volatile magnetic domains that can serve as memory bits in ambient conditions. Magnetic skyrmions, topologically nontrivial spin textures, have been studied intensively since their discovery due to their stability and scalability in potential spintronic devices. However, skyrmion formation and, especially, annihilation processes are still not completely understood and further investigation on such mechanisms are needed. The aim of this thesis is to contribute to better understanding of the physical processes behind the optical control of magnetism in thin films, with the goal of optimizing material parameters and methods for their potential use in next generation memory and logic devices. First part of the thesis is dedicated to investigation of all-optical helicity-dependent switching (AO-HDS) as a method for magnetization manipulation. AO-HDS in Co/Pt multilayer and CoFeB alloys with and without the presence of Dzyaloshinskii-Moriya interaction (DMI), which is a type of exchange interaction, have been investigated by magnetic imaging using photo-emission electron microscopy (PEEM) in combination with X-ray magnetic circular dichroism (XMCD). The results show that in a narrow range of the laser fluence, circularly polarized laser light induces a drag on domain walls. This enables a local deterministic transformation of the magnetic domain pattern from stripes to bubbles in out-of-plane magnetized Co/Pt multilayers, only controlled by the helicity of ultrashort laser pulses. The temperature and characteristic fields at which the stripe-bubble transformation occurs has been calculated using theory for isolated magnetic bubbles, using as parameters experimentally determined average size of stripe domains and the magnetic layer thickness. The second part of the work aims at purely optical formation and annihilation of magnetic skyrmions by a single laser pulse. The presence of a skyrmion phase in the investigated CoFeB alloys was first confirmed using a Kerr microscope. Then the helicity-dependent skyrmion manipulation was studied using AO-HDS at different laser fluences. It was found that formation or annihilation individual skyrmions using AO-HDS is possible, but not always reliable, as fluctuations in the laser fluence or position can easily overwrite the helicity-dependent effect of AO-HDS. However, the experimental results and magnetic simulations showed that the threshold values for the laser fluence for the formation and annihilation of skyrmions are different. A higher fluence is required for skyrmion formation, and existing skyrmions can be annihilated by pulses with a slightly lower fluence. This provides a further option for controlling formation and annihilation of skyrmions using the laser fluence. Micromagnetic simulations provide additional insights into the formation and annihilation mechanism. The ability to manipulate the magnetic state of individual skyrmions is of fundamental importance for magnetic data storage technologies. Our results show for the first time that the optical formation and annihilation of skyrmions is possible without changing the external field. These results enable further investigations to optimise the magnetic layer to maximise the energy gap between the formation and annihilation barrier. As a result, unwanted switching due to small laser fluctuations can be avoided and fully deterministic optical switching can be achieved. N2 - Laser induziertes Schalten bietet eine attraktive Möglichkeit zur Manipulation kleiner magnetischer Domänen für zukünftige Speicher- und Logikbauteile auf ultrakurzen Zeitskalen. Darüber hinaus ermöglicht die rein optische Kontrolle der Magnetisierung ohne hohe angelegte Magnetfelder eine individuelle und lokale Manipulation magnetischer Domänen ohne teure Wärmeverluste. Eine der größten Herausforderungen bei der Entwicklung neuartiger optisch kontrollierter magnetischer Speicher- und Logikbauteile ist das zuverlässige Schreiben stabiler magnetischer Domänen, die unter Umgebungsbedingungen als Speicherbits dienen können. Magnetische Skyrmionen, topologisch nichttriviale wirbelf¨ormige Spin-Texturen, wurden seit ihrer Entdeckung aufgrund ihrer Stabilität und Skalierbarkeit in potenziellen spintronischen Bauelementen intensiv untersucht. Allerdings sind die Prozesse der Skyrmionenbildung und vor allem der Skyrmionenvernichtung noch immer nicht vollständig verstanden, so dass weitere Untersuchungen zu diesen Mechanismen erforderlich sind. Ziel dieser Arbeit ist es, zu einem besseren Verständnis der physikalischen Prozesse beizutragen, die der optischen Kontrolle magnetischer Texturen in dünnen Filmen zugrunde liegen, mit dem Ziel, die Materialparameter und Methoden für ihren potenziellen Einsatz in Speicher- und Logikbauteilen der nächsten Generation zu optimieren. Der erste Teil der Arbeit widmet sich der Untersuchung des rein optischen helizitätsabhängigen Schaltens (AO-HDS) als Methode zur Manipulation der Magnetisierung. AO-HDS wurde in Co/Pt-Multilayern und CoFeB-Legierungen mit und ohne DMI (Dzyaloshinskii-Moriya-Wechselwirkung), einer Art Austauschwechselwirkung, mittels magnetischer Bildgebung durch Photoemissions-Elektronenmikroskopie (PEEM) in Kombination mit magnetischem Röntgendichroismus (XMCD) untersucht. Die Ergebnisse zeigen, dass zirkular polarisiertes Licht in einem bestimmten Bereich der Laserfluenz einen Zug auf Domänenwände ausübt. Dies ermöglicht eine lokale deterministische Umwandlung des magnetischen Domänenmusters von Streifen zu Blasen Domänen in unmagnetisierten Co/Pt- Multilagen, die ausschließlich durch die Helizität der ultrakurzen Laserpulse gesteuert wird. Die Temperatur und die charakteristischen Felder, bei denen die Umwandlung von Streifen zu Blasen Domänen stattfindet, wurden mithilfe der Theorie für isolierte magnetische Blasen berechnet, wobei die experimentell ermittelte durchschnittliche Größe der Streifendom¨anen und die Dicke der magnetischen Schicht als Parameter verwendet wurden. Der zweite Teil der Arbeit zielt darauf ab, optimale Parameter zu ermitteln, die für das rein optische Schreiben und Löschen von magnetischen Skyrmionen in einem einzigen Laser Puls erforderlich sind. Das Vorhandensein einer Skyrmion-Phase in dafür verwendeten CoFeB-Legierungen wurde zunächst mit Hilfe eines Kerr-Mikroskops bestätigt. Dann wurde die helizitätsabhängige Skyrmion-Manipulation mittels AOHDS für verschiedene Laserfluenzen untersucht. Es zeigte sich, dass eine Schreiben oder Löschen einzelner Skyrmionen mittels AO-HDS zwar möglich ist, aber nicht immer zuverlässig, da Fluktuationen in der Laserfluenz oder Position den helizitätsabhängigen Effekt von AO-HDS leicht überschreiben können. Die experimentellen Ergebnisse und magnetischen Simulationen zeigten allerdings, dass die Schwellenwerte für die Laserfluenz zur Bildung und Vernichtung von Skyrmionen unterschiedlich sind. Für die Skyrmionenbildung wird eine höhere Fluenz benötigt, und bereits existierende Skyrmionen können durch Laser Pulse mit etwas geringerer Fluenz gelöscht werden. Dadurch bietet sich eine weitere Möglichkeit das Schreiben und Löschen von Skyrmionen durch die Laserfluenz zu kontrollieren. Mikromagnetische Simulationen liefern zusätzliche Erkenntnisse über den Schreib- und Löschmechanismus. Die Möglichkeit, den magnetischen Zustand einzelner Skyrmionen zu manipulieren, ist von grundlegender Bedeutung für magnetische Datenspeichertechnologien. Unsere Ergebnisse zeigen erstmalig, dass die optische Bildung und Vernichtung von Skyrmionen ohne Änderung des externen Feldes möglich ist. Diese Ergebnisse ermöglichen weitere Untersuchungen zur Optimierung der magnetischen Schicht, um die Energielücke zwischen Bildungs- und Vernichtungsbarriere zu maximieren. Dadurch kann unerwünschtes Schalten aufgrund kleiner Laserfluktuationen vermieden und vollständig deterministisches optisches Schalten erreicht werden. KW - Skyrmions KW - bubble domains KW - magnetism KW - Skyrmionen KW - Blasendomänen KW - Magnetismus KW - dünne Schichten KW - thin films Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647069 ER - TY - THES A1 - Kucharzewski, Tim T1 - Wars and the world BT - the Russian army in Afghanistan, Chechnya, Georgia, and popular culture N2 - This book offers a descriptive analysis of the Soviet/Russian wars in Afghanistan, Chechnya, and Georgia, as well as an in-depth exploration of the ways in which these wars are framed in the collective consciousness created by global popular culture. Russian and Western modalities of remembrance have been, and remain, engaged in a world war that takes place (not exclusively, but intensively) on the level of popular culture. The action/reaction dynamic, confrontational narratives and othering between the two "camps" never ceased. The Cold War, in many ways and contrary to the views of many others who hoped for the end of history, never really ended. Y1 - 2024 SN - 978-1-0364-0374-4 PB - Cambridge Scholars Publishing CY - Newcastle upon Tyne ER - TY - THES A1 - Friese, Sharleen T1 - Trace elements and genomic instability in the murine brain N2 - The trace elements copper, iron, manganese, selenium and zinc are essential micronutrients involved in various cellular processes, all with different responsibilities. Based on that importance, their concentrations are tightly regulated in mammalian organisms. The maintenance of those levels is termed trace element homeostasis and mediated by a combination of processes regulating absorption, cellular and systemic transport mechanisms, storage and effector proteins as well as excretion. Due to their chemical properties, some functions of trace elements overlap, as seen in antioxidative defence, for example, comprising an expansive spectrum of antioxidative proteins and molecules. Simultaneously, the same is true for regulatory mechanisms, causing trace elements to influence each other’s homeostases. To mimic physiological conditions, trace elements should therefore not be evaluated separately but considered in parallel. While many of these homeostatic mechanisms are well-studied, for some elements new pathways are still discovered. Additionally, the connections between dietary trace element intake, trace element status and health are not fully unraveled, yet. With current demographic developments, also the influence of ageing as well as of certain pathological conditions is of increasing interest. Here, the TraceAge research unit was initiated, aiming to elucidate the homeostases of and interactions between essential trace elements in healthy and diseased elderly. While human cohort studies can offer insights into trace element profiles, also in vivo model organisms are used to identify underlying molecular mechanisms. This is achieved by a set of feeding studies including mice of various age groups receiving diets of reduced trace element content. To account for cognitive deterioration observed with ageing, neurodegenerative diseases, as well as genetic mutations triggering imbalances in cerebral trace element concentrations, one TraceAge work package focuses on trace elements in the murine brain, specifically the cerebellum. In that context, concentrations of the five essential trace elements of interest, copper, iron, manganese, selenium and zinc, were quantified via inductively coupled plasma-tandem mass spectrometry, revealing differences in priority of trace element homeostases between brain and liver. Upon moderate reduction of dietary trace element supply, cerebellar concentrations of copper and manganese deviated from those in adequately supplied animals. By further reduction of dietary trace element contents, also concentrations of cerebellar iron and selenium were affected, but not as strong as observed in liver tissue. In contrast, zinc concentrations remained stable. Investigation of aged mice revealed cerebellar accumulation of copper and iron, possibly contributing to oxidative stress on account of their redox properties. Oxidative stress affects a multitude of cellular components and processes, among them, next to proteins and lipids, also the DNA. Direct insults impairing its integrity are of relevance here, but also indirect effects, mediated by the machinery ensuring genomic stability and its functionality. The system includes the DNA damage response, comprising detection of endogenous and exogenous DNA lesions, decision on subsequent cell fate and enabling DNA repair, which presents another pillar of genomic stability maintenance. Also in proteins of this machinery, trace elements act as cofactors, shaping the hypothesis of impaired genomic stability maintenance under conditions of disturbed trace element homeostasis. To investigate this hypothesis, a variety of approaches was used, applying OECD guidelines Organisation for Economic Co-operation and Development, adapting existing protocols for use in cerebellum tissue and establishing new methods. In order to assess the impact of age and dietary trace element depletion on selected endpoints estimating genomic instability, DNA damage and DNA repair were investigated. DNA damage analysis, in particular of DNA strand breaks and oxidatively modified DNA bases, revealed stable physiological levels which were neither affected by age nor trace element supply. To examine whether this is a result of increased repair rates, two steps characteristic for base excision repair, namely DNA incision and ligation activity, were studied. DNA glycosylases and DNA ligases were not reduced in their activity by age or trace element depletion, either. Also on the level of gene expression, major proteins involved in genomic stability maintenance were analysed, mirroring results obtained from protein studies. To conclude, the present work describes homeostatic regulation of trace elements in the brain, which, in absence of genetic mutations, is able to retain physiological levels even under conditions of reduced trace element supply to a certain extent. This is reflected by functionality of genomic stability maintenance mechanisms, illuminating the prioritization of the brain as vital organ. N2 - Als essentielle Mikronährstoffe spielen die Spurenelemente Kupfer, Eisen, Mangan, Selen und Zink eine wichtige Rolle für eine Vielzahl zellulärer Prozesse. Aufgrund dessen unterliegen ihre Konzentrationen in der Peripherie einer strengen Regulation. Die Aufrechterhaltung dieser Konzentrationen wird als Spurenelementhomöostase bezeichnet und beruht auf der Kombination verschiedener Mechanismen hinsichtlich ihrer Absorption, des zellulären und systemischen Transports, der Regulation von Speicher- und Effektorproteinen sowie ihrer jeweiligen Exkretion. Aufgrund ihrer chemischen Eigenschaften überschneiden sich einige Funktionen der Spurenelemente. Beispielsweise ist hier die antioxidative Abwehr zu nennen, an welcher eine Vielzahl verschiedener antioxidativer Moleküle und Proteine beteiligt sind. Gleiches gilt für regulative Mechanismen, wodurch Spurenelemente unter Umständen ihre jeweiligen Homöostasen gegenseitig beeinflussen können. Um physiologische Bedingungen abzubilden, sollten Spurenelemente somit nicht isoliert betrachtet, sondern gemeinsam untersucht werden. Obwohl viele homöostatische Mechanismen bereits gut erforscht sind, werden für einige Elemente immer noch neue Stoffwechselwege identifiziert. Darüber hinaus sind auch die Zusammenhänge zwischen der Spurenelementaufnahme aus der Nahrung sowie dem Spurenelement- und Gesundheitsstatus noch nicht vollständig aufgeklärt. Im Zuge der aktuellen demografischen Entwicklung steigt zudem das Interesse daran, den Einfluss des Alterungsprozesses sowie bestimmter Erkrankungen zu untersuchen. In diesem Kontext wurde die Forschungsgruppe TraceAge gegründet, welche dazu beitragen soll, zum einen die homöostatische Regulation und zum anderen die Interaktionen essentieller Spurenelemente in gesunden und erkrankten älteren Menschen zu untersuchen. Hierbei werden einerseits humane Kohortenstudien beprobt, so dass Spurenelementprofile erstellt werden können. Darüber hinaus werden auch in vivo Modellorganismen verwendet, um zugrundeliegende molekulare Mechanismen zu erfassen. In murinen Fütterungsstudien erhielten Tiere unterschiedlicher Altersgruppen deshalb eine spurenelementreduzierte Diät. Um kognitive Beeinträchtigungen zu beachten, wie sie neben dem Altern auch bei neurodegenerativen Erkrankungen sowie bestimmten genetischen Mutationen, meist im Zusammenhang mit Spurenelementdishomöostasen, auftreten, konzentriert sich ein Projektbereich auf die Wechselwirkung von Spurenelementen im murinen Gehirn, wobei hier der Fokus auf das Cerebellum gelegt wurde. In diesem Zusammenhang wurden die Konzentrationen fünf essentieller Spurenelemente, Kupfer, Eisen, Mangan, Selen und Zink, mittels Massenspektrometrie mit induktiv gekoppeltem Plasma in den Organen der Tiere quantifiziert, wodurch sich Unterschiede in der Priorität der Aufrechterhaltung von Spurenelementhomöostasen zwischen Gehirn und Leber aufzeigten. Eine moderate Verringerung der Spurenelementgehalte in der gefütterten Diät wirkte sich dabei besonders auf die Konzentrationen von cerebellärem Kupfer und Mangan aus. Bei weiterer Spurenelementreduktion sanken auch die Konzentrationen von cerebellärem Eisen und Selen. Im Vergleich zur Leber waren diese Abnahmen jedoch weniger ausgeprägt. Im Gegensatz dazu blieben die Zinkkonzentrationen in Leber und Gehirn unverändert. Untersuchungen in älteren Mäusen zeigten eine Akkumulation von Kupfer und Eisen im Cerebellum. Möglicherweise trägt dies durch deren Redoxeigenschaften zur Entstehung von oxidativem Stress bei. Oxidativer Stress wirkt sich auf eine Vielzahl zellulärer Bestandteile, wie Proteine und Lipide, aber auch auf die DNA, sowie auf den Ablauf von Zellvorgängen aus. Dabei sind einerseits direkte Einflüsse auf die strukturelle Integrität der DNA von Relevanz, andererseits auch indirekte Effekte, welche durch Mechanismen zur Aufrechterhaltung der genomischen Stabilität vermittelt werden. Dieses System beinhaltet die DNA-Schadensantwort, welche die Identifikation von DNA-Schäden und die Entscheidung über das weitere Schicksal der Zelle beinhaltet. Darüber hinaus ist diese für die Initiation der DNA-Reparatur verantwortlich, welche einen weiteren zentralen Mechanismus zur Instandhaltung genomischer Stabilität darstellt. Auch die Proteine der DNA-Reparaturwege nutzen Spurenelemente als Kofaktoren, worin die Hypothese zur Beeinträchtigung der Aufrechterhaltung der genomischen Stabilität unter Bedingungen einer inadäquaten Spurenelementversorgung begründet wird. Um diese Hypothese zu prüfen, wurden in der vorliegenden Arbeit diverse Methoden unter Anwendung von OECD-Richtlinien, der Anpassung existierender Versuchsvorschriften an die spezifischen Anforderungen von Cerebellumgewebe, sowie die Entwicklung neuer Methoden angewandt. Zur Einschätzung des Einflusses von Alter und Spurenelementversorgung aus der Diät auf verschiedene Endpunkte der genomischen Instabilität wurden insbesondere die DNA-Schädigungen und die DNA-Reparatur als molekulare Zielstrukturen analysiert. DNA-Schäden, primär DNA-Strangbrüche und oxidativ modifizierte DNA-Basen, wiesen dabei stabile, physiologische Level auf, die nicht durch Alter oder Spurenelementzufuhr verändert wurden. Um festzustellen, ob dies ein Resultat erhöhter Reparaturvorgänge ist, wurden zwei charakteristische Schritte der Basenexzisionsreparatur, DNA-Inzision und DNA-Ligation, näher untersucht. Es zeigte sich jedoch kein Einfluss auf die DNA-Reparatur einleitenden DNA-Glykosylasen sowie auf die DNA-Reparatur abschließenden DNA-Ligasen. Auch auf Genexpressionsebene wurden wichtige Gene der Proteine der genomischen Stabilität analysiert, welche die Ergebnisse proteinbezogener Studien widerspiegelten. Abschließend lässt sich somit feststellen, dass die Spurenelementhomöostase des Gehirns, selbst unter Bedingungen der defizienten Spurenelementzufuhr, streng reguliert ist. Dadurch können physiologische Spurenelementkonzentrationen bis zu einem gewissen Grad konstant gehalten werden. Dies spiegelt sich auch in der Funktionalität von Mechanismen zur Erhaltung genomischer Stabilität wider, welche die Priorität des Gehirns im Organismus unterstreicht. KW - ageing KW - cerebellum KW - DNA repair KW - genomic instability KW - trace elements KW - Alter KW - Cerebellum KW - DNA-Reparatur KW - genomische Instabilität KW - Spurenelemente Y1 - 2024 ER - TY - THES A1 - Fischer, Florian T1 - Hardy inequalities on graphs T1 - Hardy-Ungleichungen auf Graphen N2 - Die Dissertation befasst sich mit einer zentralen Ungleichung der nicht-linearen Potentialtheorie, der Hardy-Ungleichung. Sie besagt, dass das nicht-lineare Energiefunktional von unten durch eine p-te Potenz einer gewichteten p-Norm abgeschätzt werden kann, p>1. Das Energiefunktional besteht dabei aus einem Divergenz- und einem beliebigen Potentialteil. Als zugrundeliegender Raum wurden hier lokal summierbare unendliche Graphen gewählt. Bisherige Veröffentlichungen zu Hardy-Ungleichungen auf Graphen haben vor allem den Spezialfall p=2 betrachtet, oder lokal endliche Graphen ohne Potentialteil. Zwei grundlegende Fragestellungen ergeben sich nun ganz natürlich: Für welche Graphen gibt überhaupt es eine Hardy-Ungleichung? Und, wenn es sie gibt, gibt es einen Weg um ein optimales Gewicht zu erhalten? Antworten auf diese Fragen werden in Theorem 10.1 und Theorem 12.1 gegeben. Theorem 10.1 gibt eine Reihe an Charakterisierungen an; unter anderem gibt es eine Hardy-Ungleichung auf einem Graphen genau dann, wenn es eine Greensche Funktion gibt. Theorem 12.1 gibt eine explizite Formel an, um optimale Hardy-Gewichte für lokal endliche Graphen unter einigen technischen Zusatzannahmen zu berechnen. In Beispielen wird gezeigt, dass Greensche Funktionen gute Kandidaten sind um in die Formel eingesetzt zu werden. Um diese beiden Theoreme beweisen zu können, müssen eine Vielzahl an Techniken erarbeitet werden, welche in den ersten Kapiteln behandelt werden. Dabei sind eine Verallgemeinerung der Grundzustandstransformation (Theorem 4.1), ein Agmon-Allegretto-Piepenbrink-artiges Resultat (Theorem 6.1) und das Vergleichsprinzip (Proposition 7.3) besonders hervorzuheben, da diese Resultate sehr häufig angewendet werden und somit das Fundament der Dissertation bilden. Es wird zudem darauf Wert gelegt die Theorie durch Beispiele zu veranschaulichen. Hierbei wird der Fokus auf die natürlichen Zahlen, Euklidische Gitter, Bäume und Sterne gelegt. Als Abschluss werden noch eine nicht-lineare Version der Heisenbergschen Unschärferelation und eine Rellich-Ungleichung aus der Hardy-Ungleichung geschlussfolgert. N2 - The dissertation deals with a central inequality of non-linear potential theory, the Hardy inequality. It states that the non-linear energy functional can be estimated from below by a pth power of a weighted p-norm, p>1. The energy functional consists of a divergence part and an arbitrary potential part. Locally summable infinite graphs were chosen as the underlying space. Previous publications on Hardy inequalities on graphs have mainly considered the special case p=2, or locally finite graphs without a potential part. Two fundamental questions now arise quite naturally: For which graphs is there a Hardy inequality at all? And, if it exists, is there a way to obtain an optimal weight? Answers to these questions are given in Theorem 10.1 and Theorem 12.1. Theorem 10.1 gives a number of characterizations; among others, there is a Hardy inequality on a graph if and only if there is a Green's function. Theorem 12.1 gives an explicit formula to compute optimal Hardy weights for locally finite graphs under some additional technical assumptions. Examples show that Green's functions are good candidates to be used in the formula. Emphasis is also placed on illustrating the theory with examples. The focus is on natural numbers, Euclidean lattices, trees and star graphs. Finally, a non-linear version of the Heisenberg uncertainty principle and a Rellich inequality are derived from the Hardy inequality. KW - graph theory KW - Hardy inequality KW - quasi-linear potential theory KW - p-Laplacian KW - criticality theory KW - Graphentheorie KW - Hardy-Ungleichung KW - quasilineare Potentialtheorie KW - p-Laplace-Operator KW - Kritikalitätstheorie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647730 ER - TY - THES A1 - Hempel, Elisabeth T1 - Resolving the evolutionary history of two hippotragin antelopes using archival and ancient DNA N2 - African antelopes are iconic but surprisingly understudied in terms of their genetics, especially when it comes to their evolutionary history and genetic diversity. The age of genomics provides an opportunity to investigate evolution using whole nuclear genomes. Decreasing sequencing costs enable the recovery of multiple loci per genome, giving more power to single specimen analyses and providing higher resolution insights into species and populations that can help guide conservation efforts. This age of genomics has only recently begun for African antelopes. Many African bovids have a declining population trend and hence, are often endangered. Consequently, contemporary samples from the wild are often hard to collect. In these cases, ex situ samples from contemporary captive populations or in the form of archival or ancient DNA (aDNA) from historical museum or archaeological/paleontological specimens present a great research opportunity with the latter two even offering a window to information about the past. However, the recovery of aDNA is still considered challenging from regions with prevailing climatic conditions that are deemed adverse for DNA preservation like the African continent. This raises the question if DNA recovery from fossils as old as the early Holocene from these regions is possible. This thesis focuses on investigating the evolutionary history and genetic diversity of two species: the addax (Addax nasomaculatus) and the blue antelope (Hippotragus leucophaeus). The addax is critically endangered and might even already be extinct in the wild, while the blue antelope became extinct ~1800 AD, becoming the first extinct large African mammal species in historical times. Together, the addax and the blue antelope can inform us about current and past extinction events and the knowledge gained can help guide conservation efforts of threatened species. The three studies used ex situ samples and present the first nuclear whole genome data for both species. The addax study used historical museum specimens and a contemporary sample from a captive population. The two studies on the blue antelope used mainly historical museum specimens but also fossils, and resulted in the recovery of the oldest paleogenome from Africa at that time. The aim of the first study was to assess the genetic diversity and the evolutionary history of the addax. It found that the historical wild addax population showed only limited phylogeographic structuring, indicating that the addax was a highly mobile and panmictic population and suggesting that the current European captive population might be missing the majority of the historical mitochondrial diversity. It also found the nuclear and mitochondrial diversity in the addax to be rather low compared to other wild ungulate species. Suggestions on how to best save the remaining genetic diversity are presented. The European zoo population was shown to exhibit no or only minor levels of inbreeding, indicating good prospects for the restoration of the species in the wild. The trajectory of the addax’s effective population size indicated a major bottleneck in the late Pleistocene and a low effective population size well before recent human impact led to the species being critically endangered today. The second study set out to investigate the identities of historical blue antelope specimens using aDNA techniques. Results showed that six out of ten investigated specimens were misidentified, demonstrating the blue antelope to be one of the scarcest mammal species in historical natural history collections, with almost no bone reference material. The preliminary analysis of the mitochondrial genomes suggested a low diversity and hence low population size at the time of the European colonization of southern Africa. Study three presents the results of the analyses of two blue antelope nuclear genomes, one ~200 years old and another dating to the early Holocene, 9,800–9,300 cal years BP. A fossil-calibrated phylogeny dated the divergence time of the three historically extant Hippotragus species to ~2.86 Ma and demonstrated the blue and the sable antelope (H. niger) to be sister species. In addition, ancient gene flow from the roan (H. equinus) into the blue antelope was detected. A comparison with the roan and the sable antelope indicated that the blue antelope had a much lower nuclear diversity, suggesting a low population size since at least the early Holocene. This concurs with findings from the fossil record that show a considerable decline in abundance after the Pleistocene–Holocene transition. Moreover, it suggests that the blue antelope persisted throughout the Holocene regardless of a low population size, indicating that human impact in the colonial era was a major factor in the blue antelope’s extinction. This thesis uses aDNA analyses to provide deeper insights into the evolutionary history and genetic diversity of the addax and the blue antelope. Human impact likely was the main driver of extinction in the blue antelope, and is likely the main factor threatening the addax today. This thesis demonstrates the value of ex situ samples for science and conservation, and suggests to include genetic data for conservation assessments of species. It further demonstrates the beneficial use of aDNA for the taxonomic identification of historically important specimens in natural history collections. Finally, the successful retrieval of a paleogenome from the early Holocene of Africa using shotgun sequencing shows that DNA retrieval from samples of that age is possible from regions generally deemed unfavorable for DNA preservation, opening up new research opportunities. All three studies enhance our knowledge of African antelopes, contributing to the general understanding of African large mammal evolution and to the conservation of these and similarly threatened species. N2 - Afrikanische Antilopen sind sehr bekannte Tiere. Allerdings sind sie genetisch wenig untersucht, vor allem hinsichtlich ihrer Evolutionsgeschichte und genetischen Diversität. Das Zeitalter der Genomik ermöglicht es, Evolution mit Hilfe von kompletten nukleären Genomen zu untersuchen. Durch sinkende Sequenzierkosten können zahlreiche Genloci pro Genom gewonnen werden, wodurch Analysen mit nur einem Exemplar mehr Aussagekraft zukommt und tiefere Erkenntnisse über Arten und Populationen zulassen, die Artenschutzbemühungen unterstützen können. Für afrikanische Antilopen hat dieses Zeitalter gerade erst begonnen. Viele afrikanische Boviden haben einen sinkenden Populationstrend und sind daher häufig gefährdet. Dies erschwert es oft, Proben freilebender Tiere zu bekommen. In diesen Fällen bieten ex situ Proben von in Gefangenschaft lebenden Tieren oder in Form von alter DNA (aDNA) aus naturhistorischen Sammlungen eine gute Forschungsmöglichkeit. Letztere ermöglicht zudem den Zugang zu Informationen aus der Vergangenheit. Es gilt noch immer als Herausforderung, aDNA aus Regionen zu erlangen, deren Bedingungen schlecht für den Erhalt von DNA sind. Dies wirft die Frage auf, ob es möglich ist, aDNA aus Fossilien vom Beginn des Holozäns aus Afrika zu erhalten. Das Ziel dieser Doktorarbeit war die Erforschung der Evolutionsgeschichte und der genetischen Diversität der Mendesantilope (Addax nasomaculatus) und des Blaubocks (Hippotragus leucophaeus). Die Mendesantilope ist vom Aussterben bedroht und könnte in freier Wildbahn bereits ausgestorben sein. Der Blaubock starb ca. 1800 aus und war das erste afrikanische Großsäugetier, das in historischer Zeit ausstarb. Beide Arten können unsere Kenntnisse über derzeitige und vergangene Aussterbeereignisse erweitern, um den Schutz bedrohter Arten zu unterstützen. Die drei Studien dieser Doktorarbeit nutzten ex situ Proben und präsentieren die ersten kompletten nukleären Genome dieser beiden Arten. Die Studie über die Mendesantilope nutzte historische Präparate aus naturhistorischen Sammlungen sowie eine rezente Probe eines Tieres aus Gefangenschaft. Beide Blaubock-Studien nutzten vor allem Präparate aus naturhistorischen Sammlungen, aber auch Fossilien, woraus das zu diesem Zeitpunkt älteste Paläogenom aus Afrika resultierte. Die erste Studie untersuchte die genetische Diversität und Evolutionsgeschichte der Mendesantilope. Es zeigte sich, dass ihre historische Wildpopulation nur eine geringe phylogeographische Strukturierung aufwies, was auf eine sehr mobile und panmiktische Population hindeutet. Dies legt nahe, dass die rezente europäische Zoopopulation vermutlich Großteile der historischen mitochondrialen Diversität verloren hat. Zusätzlich zeigte sich, dass die nukleäre und mitochondriale Diversität relativ gering waren im Vergleich zu anderen wilden Huftierarten. Es werden Möglichkeiten zum Erhalt der verbliebenen Diversität aufgezeigt. Die europäische Zoopopulation zeigte keine beziehungsweise nur geringe Anzeichen von Inzucht, was für gute Wiederauswilderungsaussichten spricht. Die effektive Populationsgröße der Mendesantilope weist einen starken genetischen Flaschenhals im späten Pleistozän auf. Zudem war sie bereits deutlich niedrig, bevor der derzeitige menschliche Einfluss zu ihrer heutigen Bedrohung führte. Die zweite Stude untersuchte mit Hilfe von aDNA die Identitäten historischer Blaubock-Präparate. Nur vier der zehn untersuchten Präparate stellten sich als Blauböcke heraus. Somit ist der Blaubock eine der seltensten Säugetierarten in naturhistorischen Sammlungen, für die es zudem kaum Knochenreferenzmaterial gibt. Die vorläufige Analyse des mitochondrialen Genoms deutet auf eine geringe Diversität und daher eine geringe Populationsgröße zur Zeit der europäischen Kolonialisierung Südafrikas hin. Die dritte Studie analysierte zwei nukleäre Blaubockgenome, ein ~200 Jahre altes Präparat und eines aus dem frühen Holozän, 9.800–9.300 Jahre. Ein mit Hilfe von Fossilien kalibrierter Stammbaum datiert die Aufspaltung der drei historisch rezenten Hippotragus-Arten auf ~2,86 Mio. Jahre und zeigt die Rappenantilope (H. niger) und den Blaubock als Schwesterarten. Darüber hinaus wurde früherer Genfluss der Pferdeantilope (H. equinus) zum Blaubock festgestellt. Der Vergleich der drei Hippotragus-Arten legt nahe, dass der Blaubock eine deutlich geringere nukleäre Diversität besaß und somit seit mindestens dem frühen Holozän nur über eine geringe Populationsgröße verfügte. Dies stimmt mit Ergebnissen aus dem Fossilbericht überein, die eine deutliche Häufigkeitsabnahme nach dem Übergang des Pleistozäns zum Holozän aufzeigen. Außerdem suggeriert es, dass der Blaubock unabhängig von einer geringen Populationsgröße das Holozän überdauerte und sein Aussterben stark durch den Menschen während der Kolonialzeit beeinflusst wurde. Diese Doktorarbeit bietet mit Hilfe von aDNA gewonnene Erkenntnisse über die Evolutionsgeschichte und die genetische Diversität der Mendesantilope und des Blaubocks. Der menschliche Einfluss war vermutlich der Hauptaussterbegrund des Blaubocks. Dies gilt wahrscheinlich ebenso für die heutige Bedrohung der Mendesantilope. Diese Doktorarbeit zeigt den Wert von ex situ Proben für die Wissenschaft und den Artenschutz und legt die Einbindung von genetischen Daten für die Bewertung des Gefährdungsstatus einer Art nahe. Des Weiteren demonstriert sie die Nutzung von aDNA für taxonomische Bestimmungen von historisch wichtigen Präparaten in naturhistorischen Sammlungen. Die erfolgreiche Gewinnung eines Paläogenoms aus dem frühen Holozän Afrikas mittels shotgun-Sequenzierung zeigt, dass die DNA-Gewinnung aus Proben diesen Alters aus Regionen möglich ist, deren Bedingungen allgemein als ungünstig für den Erhalt von DNA gelten. Dies eröffnet neue Forschungsmöglichkeiten. Alle drei Studien erweitern unser Wissen über afrikanische Antilopen und tragen damit zum allgemeinen Verständnis der Evolution von afrikanischen Großsäugetieren sowie zu deren Erhalt und dem ähnlich gefährdeter Arten bei. KW - Addax nasomaculatus KW - antelope KW - aDNA KW - conservation KW - museomics KW - extinction KW - South Africa KW - Blue antelope KW - Hippotragus leucophaeus KW - bluebuck KW - Addax nasomaculatus KW - Blaubock KW - Hippotragus leucophaeus KW - Südafrika KW - aDNA KW - Antilope KW - Artenschutz KW - Aussterben KW - museomics Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647718 ER - TY - THES A1 - Aral, Tuğçe T1 - Socialization and development of racial knowledge among youth in inequitable societies T1 - Sozialisierung und Entwicklung von rassifiziertem Wissen bei Jugendlichen in ungerechten Gesellschaften BT - An ecological approach BT - Ein ökologischer Ansatz N2 - Background: Societies worldwide have become more diverse yet continue to be inequitable. Understanding how youth growing up in these societies are socialized and consequently develop racial knowledge has important implications not only for their well-being but also for building more just societies. Importantly, there is a lack of research on these topics in Germany and Europe in general. Aim and Method: The overarching aim of the dissertation is to investigate 1) where and how ethnic-racial socialization (ERS) happens in inequitable societies and 2) how it relates to youth’s development of racial knowledge, which comprises racial beliefs (e.g., prejudice, attitudes), behaviors (e.g., actions preserving or disrupting inequities), and identities (e.g., inclusive, cultural). Guided by developmental, cultural, and ecological theories of socialization and development, I first explored how family, as a crucial socialization context, contributes to the preservation or disruption of racism and xenophobia in inequitable societies through its influence on children’s racial beliefs and behaviors. I conducted a literature review and developed a conceptual model bridging research on ethnic-racial socialization and intergroup relations (Study 1). After documenting the lack of research on socialization and development of racial knowledge within and beyond family contexts outside of the U.S., I conducted a qualitative study to explore ERS in Germany through the lens of racially marginalized youth (Study 2). Then, I conducted two quantitative studies to explore the separate and interacting relations of multiple (i.e., family, school) socialization contexts for the development of racial beliefs and behaviors (Study 3), and identities (Studies 3, 4) in Germany. Participants of Study 2 were 26 young adults (aged between 19 and 32) of Turkish, Kurdish, East, and Southeast Asian heritage living across different cities in Germany. Study 3 was conducted with 503 eighth graders of immigrant and non-immigrant descent (Mage = 13.67) in Berlin, Study 4 included 311 early to mid-adolescents of immigrant descent (Mage= 13.85) in North Rhine-Westphalia with diverse cultural backgrounds. Results and Conclusion: The findings revealed that privileged or marginalized positions of families in relation to their ethnic-racial and religious background in society entail differential experiences and thus are an important determining factor for the content/process of socialization and development of youth’s racial knowledge. Until recently, ERS research mostly focused on investigating how racially marginalized families have been the sources of support for their children in resisting racism and how racially privileged families contribute to transmission of information upholding racism (Study 1). ERS for racially marginalized youth in Germany centered heritage culture, discrimination, and resistance strategies to racism, yet resistance strategies transmitted to youth mostly help to survive racism (e.g., working hard) by upholding it instead of liberating themselves from racism by disrupting it (e.g., self-advocacy, Study 2). Furthermore, when families and schools foster heritage and intercultural learning, both contexts may separately promote stronger identification with heritage culture and German identities, and more prosocial intentions towards disadvantaged groups (i.e., refugees) among youth (Studies 3, 4). However, equal treatment in the school context led to mixed results: equal treatment was either unrelated to inclusive identity, or positively related to German and negatively related to heritage culture identities (Studies 3, 4). Additionally, youth receiving messages highlighting strained and preferential intergroup relations at home while attending schools promoting assimilation may develop a stronger heritage culture identity (Study 4). In conclusion, ERS happened across various social contexts (i.e., family, community centers, school, neighborhood, peer). ERS promoting heritage and intercultural learning, at least in one social context (family or school), might foster youth’s racial knowledge manifesting in stronger belonging to multiple cultures and in prosocial intentions toward disadvantaged groups. However, there is a need for ERS targeting increasing awareness of discrimination across social contexts of youth and teaching youth resistance strategies for liberation from racism. N2 - Hintergrund: Gesellschaften auf der ganzen Welt sind vielfältiger geworden, doch sie sind nach wie vor ungleich. Zu verstehen, wie Jugendliche, die in diesen Gesellschaften aufwachsen, sozialisiert werden und folglich rassifiziertes Wissen entwickeln, hat nicht nur wichtige Implikationen für ihr Wohlbefinden, sondern auch für den Aufbau gerechterer Gesellschaften. In Deutschland und in Europa im Allgemeinen besteht jedoch bislang ein Mangel an Forschung zu diesen Themen. Ziel und Methode: Das übergreifende Ziel der Dissertation ist es, 1) zu untersuchen, wo und wie ethnic-racial socialisation (ERS) in ungerechten Gesellschaften stattfindet und 2) wie ERS mit der Entwicklung von rassifiziertem Wissen bei Jugendlichen zusammenhängt. Rassifiziertes Wissen umfasst rassifizierte Überzeugungen (z.B. Vorurteile, Einstellungen), Verhaltensweisen (z.B. Handlungen, die Ungleichheiten aufrechterhalten oder bekämpfen) und Identitäten (z.B. inklusiv, kulturell). Auf der Grundlage entwicklungspsychologischer, kultureller und ökologischer Sozialisations- und Entwicklungstheorien untersuchte ich zunächst, wie die Familie als entscheidender Sozialisationskontext durch ihren Einfluss auf rassifizierte Überzeugungen und Verhaltensweisen der Kinder zur Aufrechterhaltung oder Bekämpfung von Rassismus und Fremdenfeindlichkeit in ungleichen Gesellschaften beiträgt. Ich führte eine Literaturrecherche durch und entwickelte ein konzeptuelles Modell, das Forschung zu ERS und zu Intergruppenbeziehungen verbindet (Studie 1). Nachdem ich den Mangel an Forschung zu Sozialisation und zur Entwicklung von rassistischem Wissen innerhalb und außerhalb des familiären Kontexts außerhalb der USA dokumentiert hatte, führte ich eine qualitative Studie durch, um ERS in Deutschland durch die Brille rassistisch markierter Jugendlicher zu untersuchen (Studie 2). Anschließend führte ich zwei quantitative Studien durch, um die separaten und interagierenden Zusammenhänge zwischen verschiedenen Sozialisationskontexten (z. B. Familie, Schule) und der Entwicklung rassifizierte Überzeugungen und Verhaltensweisen (Studie 3) und Identitäten (Studien 3, 4) in Deutschland zu untersuchen. Teilnehmer*innen der Studie 2 waren 26 junge Erwachsene (im Alter zwischen 19 und 32 Jahren) türkischer, kurdischer, ost- und südostasiatischer Herkunft, die in verschiedenen Städten in Deutschland leben. Studie 3 wurde mit 503 Achtklässler*innen mit und ohne Migrationshintergrund (Mage = 13,67) in Berlin durchgeführt. Studie 4 umfasste 311 Jugendliche im frühen bis mittleren Jugendalter mit Migrationshintergrund und unterschiedlichen kulturellen Hintergründen (Mage= 13,85) in Nordrhein-Westfalen. Ergebnisse und Schlussfolgerungen: Die Ergebnisse zeigen, dass privilegierte oder marginalisierte Positionen von Familien in Bezug auf ihren ethnisch, „rassistischen“ und religiösen Hintergrund in der Gesellschaft unterschiedliche Erfahrungen mit sich bringen. Somit sind sie ein wichtiger Bestimmungsfaktor für den Inhalt und Prozess der Sozialisation und die Entwicklung des rassifizierten Wissens von Jugendlichen. Bis vor kurzem konzentrierte sich die ERS-Forschung vor allem auf die Untersuchung der Frage, wie rassistisch markierte Familien ihre Kinder beim Widerstand gegen Rassismus unterstützen und wie nicht-rassistisch markierte Familien Informationen vermitteln, die Rassismus aufrechterhalten (Studie 1). ERS bei rassistisch markierten Jugendlichen in Deutschland fokussierte auf die Herkunftskultur, Diskriminierung und Widerstand gegen Rassismus. Jedoch zielten die an die Jugendlichen weitergegebenen Widerstandsstrategien meistens darauf ab, den Rassismus zu überleben (z.B. hart zu arbeiten), und sie ihn aufrechterhalten, anstatt sich vom Rassismus zu befreien, indem sie ihn bekämpfen (z. B. Selbstbehauptung, Studie 2). Wenn Familien und Schulen das herkunftskulturelle und interkulturelle Lernen fördern, können beide Kontexte getrennt voneinander eine stärkere herkunftskulturelle und deutsche Identität sowie mehr prosoziale Absichten gegenüber benachteiligten Gruppen (z. B. Geflüchtete) unter Jugendlichen fördern (Studien 3, 4). Die Gleichbehandlung im schulischen Kontext führte jedoch zu widersprüchlichen Ergebnissen: Die Gleichbehandlung stand entweder in keinem Zusammenhang mit der inklusiven Identität oder war positiv mit der deutschen und negativ mit der herkunftskulturellen Identität verbunden (Studien 3, 4). Darüber hinaus können Jugendliche, die zu Hause Botschaften erhalten, die angespannte und präferenzielle Intergruppenbeziehungen hervorheben, während sie Schulen besuchen, die Assimilation fördern, eine stärkere herkunftskulturelle Identität entwickeln (Studie 4). Zusammenfassend lässt sich sagen, dass ERS in verschiedenen sozialen Kontexten stattfand (d. h. Familie, Gemeindezentren, Schule, Nachbarschaft, Gleichaltrige). ERS, welche herkunftskulturelles und interkulturelles Lernen zumindest in einem sozialen Kontext (Familie oder Schule) unterstützt, könnte das rassifizierte Wissen der Jugendlichen fördern, das sich in prosozialen Absichten gegenüber benachteiligten Gruppen und einer stärkeren Zugehörigkeit zu mehreren Kulturen manifestiert. Es besteht jedoch ein Bedarf an ERS, die darauf abzielt, das Bewusstsein für Diskriminierung bei Jugendlichen über soziale Kontexte hinweg zu schärfen und Jugendlichen Widerstandsstrategien zur Befreiung von Rassismus zu vermitteln. KW - ethnic-racial socialization KW - racial knowledge KW - ecological approach KW - youth KW - quantitative and qualitative methods KW - rassifiziertes Wissen KW - ökologischer Ansatz KW - Jugend KW - quantitative und qualitative Methoden Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648559 ER - TY - THES A1 - Vardi, Shmuel T1 - Ada (Fishman) Maimon BT - An intellectual biography Y1 - 2023 ER - TY - THES A1 - Braun, Isabel Laura T1 - Die Medienkonzentrationskontrolle im digitalen Zeitalter T2 - Studien zum Medienrecht N2 - Dass vielfältige Inhalte und Meinungen über eine Vielzahl an Medien verbreitet werden, ist für unsere demokratische Gesellschaft heute wichtiger denn je. Gerade deshalb ist es unabdingbar, Meinungsmacht einzelner Medienunternehmen zu verhindern und dadurch zur Meinungsvielfalt beizutragen. Diese bedeutende Aufgabe kommt der Medienkonzentrationskontrolle des Medienstaatsvertrages zu. Doch haben die digitalisierungsbedingten Veränderungen in der Medienlandschaft zu einem inkonsistenten Prüfungsregime der Medienkonzentrationskontrolle geführt, da medienrechtlich aktuell nicht alle für die Meinungsbildung relevanten Medienakteure ausreichend erfasst werden. Die Arbeit untersucht die Thematik im Kontext der nationalen sowie internationalen medien- und wettbewerbsrechtlichen Rahmenbedingungen. Basierend auf den dabei gewonnenen Erkenntnissen wird ein den aktuellen Erfordernissen entsprechender normativer Vorschlag unterbreitet. N2 - In the interest of democracy, individual media companies must be prevented from gaining opinion power. To this end, media concentration is regulated in accordance with the Interstate Media Treaty. However, recent developments in the media sector have led to an inconsistent regulatory regime, which no longer adequately covers all media players relevant to the formation of public opinion. This publication analyzes the issue in the context of both a media law and competition law framework and presents a legislative proposal suitable for restoring regulatory effectiveness KW - Deutschland KW - Regulierung KW - Medienangebot KW - Meinungsbildung KW - Massenmedien KW - Medienstaatsvertrag (2020 April 14) KW - Unternehmenskonzentration KW - Fusionskontrolle Y1 - 2024 SN - 978-3-428-19073-7 SN - 978-3-428-59073-5 U6 - https://doi.org/10.3790/978-3-428-59073-5 VL - 4 PB - Duncker & Humblot CY - Berlin ER - TY - THES A1 - Martin, Johannes T1 - Synthesis of protein-polymer conjugates and block copolymers via sortase-mediated ligation N2 - In den vergangenen Jahrzehnten haben therapeutische Proteine in der pharmazeutischen Industrie mehr und mehr an Bedeutung gewonnen. Werden Proteine nichtmenschlichen Ursprungs verwendet, kann es jedoch zu einer Immunreaktion kommen, sodass das Protein sehr schnell aus dem Körper ausgeschieden oder abgebaut wird. Um die Zirkulationszeit im Blut signifikant zu verlängern, werden die Proteine mit synthetischen Polymeren modifiziert (Protein-Polymer-Konjugate). Die Proteine aller heute auf dem Markt erhältlichen Medikamente dieser Art tragen eine oder mehrere Polymerketten aus Poly(ethylenglycol) (PEG). Ein Nachteil der PEGylierung ist, dass viele Patienten bei regelmäßiger Einnahme dieser Medikamente Antikörper gegen PEG entwickeln, die den effizienzsteigernden Effekt der PEGylierung wieder aufheben. Ein weiterer Nachteil der PEGylierung ist die oftmals deutlich verringerte Aktivität der Konjugate im Vergleich zum nativen Protein. Der Grund dafür ist die Herstellungsmethode der Konjugate, bei der meist die primären Amine der Lysin-Seitenketten und der N-Terminus des Proteins genutzt werden. Da die meisten Proteine mehrere gut zugängliche Lysine aufweisen, werden oft unterschiedliche und teilweise mehrere Lysine mit PEG funktionalisiert, was zu einer Mischung an Regioisomeren führt. Je nach Position der PEG-Kette kann das aktive Zentrum abgeschirmt oder die 3D-Struktur des Proteins verändert werden, was zu einem teilweise drastischen Aktivitätsabfall führt. In dieser Arbeit wurde eine neuartige Methode zur Ligation von Makromolekülen untersucht. Die Verwendung eines Enzyms als Katalysator zur Verbindung zweier Makromoleküle ist bisher wenig untersucht und ineffizient. Als Enzym wurde Sortase A ausgewählt, eine gut untersuchte Ligase aus der Familie der Transpeptidasen, welche die Ligation zweier Peptide katalysieren kann. Ein Nachteil dieser Sortase-vermittelten Ligation ist, dass es sich um eine Gleichgewichtsreaktion handelt, wodurch hohe Ausbeuten schwierig zu erreichen sind. Im Rahmen dieser Dissertation wurden zwei zuvor entwickelte Methoden zur Verschiebung des Gleichgewichts ohne Einsatz eines großen Überschusses von einem Edukt für Makromoleküle überprüft. Zur Durchführung der Sortase-vermittelten Ligation werden zwei komplementäre Peptidsequenzen verwendet, die Erkennungssequenz und das Nukleophil. Um eine systematische Untersuchung durchführen zu können, wurden alle nötigen Bausteine (Protein-Erkennungssequenz zur Reaktion mit Nukleophil-Polymer und Polymer-Erkennungssequenz mit Nukleophil-Protein) hergestellt. Als Polymerisationstechnik wurde die radikalische Polymerisation mit reversibler Deaktivierung (im Detail, Atom Transfer Radical Polymerization, ATRP und Reversible Addition-Fragmentation Chain Transfer, RAFT polymerization) gewählt, um eine enge Molmassenverteilung zu erreichen. Die Herstellung der Bausteine begann mit der Synthese der Peptide via automatisierter Festphasen-Peptidsynthese, um eine einfache Änderung der Peptidsequenz zu gewährleisten und um eine Modifizierung der Polymerkette nach der Polymerisation zu umgehen. Um die benötigte unterschiedliche Funktionalität der zwei Peptidsequenzen (freier C-Terminus bei der Erkennungssequenz bzw. freier N-Terminus bei dem Nukleophil) zu erreichen, wurden verschiedene Linker zwischen Harz und Peptid verwendet. Danach wurde der Kettenüberträger (chain transfer agent, CTA) zur Kontrolle der Polymerisation mit dem auf dem Harz befindlichen Peptid gekoppelt. Die für die anschließende Polymerisation verwendeten Monomere basierten auf Acrylamiden und Acrylaten und wurden anhand ihrer Eignung als Alternativen zu PEG ausgewählt. Es wurde eine kürzlich entwickelte Technik basierend auf der RAFT-Polymerisation (xanthate-supported photo-iniferter RAFT, XPI-RAFT) verwendet um eine Reihe an Peptid-Polymeren mit unterschiedlichen Molekulargewichten und engen Molekulargewichtsverteilungen herzustellen. Nach Entfernung der Schutzgruppen der Peptid-Seitenketten wurden die Peptid-Polymere zunächst genutzt, um mittels Sortase-vermittelter Ligation zwei Polymerketten zu einem Blockcopolymer zu verbinden. Unter Verwendung von Ni2+-Ionen in Kombination mit einer Verlängerung der Erkennungssequenz um ein Histidin zur Unterdrückung der Rückreaktion konnte ein maximaler Umsatz von 70 % erreicht werden. Dabei zeigte sich ein oberes Limit von durchschnittlich 100 Wiederholungseinheiten; die Ligation von längeren Polymeren war nicht erfolgreich. Danach wurden ein Modellprotein und ein Nanobody mit vielversprechenden medizinischen Eigenschaften mit den für die enzymkatalysierte Ligation benötigten Peptidsequenzen für die Kopplung mit den zuvor hergestellten Peptid-Polymeren verwendet. Dabei konnte bei Verwendung des Modellproteins keine Bildung von Protein-Polymer-Konjugaten beobachtet werden. Der Nanobody konnte dagegen C-terminal mit einem Polymer funktionalisiert werden. Dabei wurde eine ähnliche Limitierung in der Polymer-Kettenlänge beobachtet wie zuvor. Die auf Ni-Ionen basierte Strategie zur Gleichgewichtsverschiebung hatte hier keinen ausschlaggebenden Effekt, während die Verwendung von einem Überschuss an Polymer zur vollständigen Umsetzung des Edukt-Nanobody führte. Die erhaltenen Daten aus diesem Projekt bilden eine gute Basis für weitere Forschung in dem vielversprechenden Feld der enzymkatalysierten Herstellung von Protein-Polymer-Konjugaten und Blockcopolymeren. Langfristig könnte diese Herangehensweise eine vielseitig einsetzbare Herstellungsmethode von ortsspezifischen therapeutischen Protein-Polymer Konjugaten darstellen, welche sowohl eine hohe Aktivität als auch eine lange Zirkulationszeit im Blut aufweisen. N2 - During the last decades, therapeutical proteins have risen to great significance in the pharmaceutical industry. As non-human proteins that are introduced into the human body cause a distinct immune system reaction that triggers their rapid clearance, most newly approved protein pharmaceuticals are shielded by modification with synthetic polymers to significantly improve their blood circulation time. All such clinically approved protein-polymer conjugates contain polyethylene glycol (PEG) and its conjugation is denoted as PEGylation. However, many patients develop anti-PEG antibodies which cause a rapid clearance of PEGylated molecules upon repeated administration. Therefore, the search for alternative polymers that can replace PEG in therapeutic applications has become important. In addition, although the blood circulation time is significantly prolonged, the therapeutic activity of some conjugates is decreased compared to the unmodified protein. The reason is that these conjugates are formed by the traditional conjugation method that addresses the protein's lysine side chains. As proteins have many solvent exposed lysines, this results in a somewhat uncontrolled attachment of polymer chains, leading to a mixture of regioisomers, with some of them eventually affecting the therapeutic performance. This thesis investigates a novel method for ligating macromolecules in a site-specific manner, using enzymatic catalysis. Sortase A is used as the enzyme: It is a well-studied transpeptidase which is able to catalyze the intermolecular ligation of two peptides. This process is commonly referred to as sortase-mediated ligation (SML). SML constitutes an equilibrium reaction, which limits product yield. Two previously reported methods to overcome this major limitation were tested with polymers without using an excessive amount of one reactant. Specific C- or N-terminal peptide sequences (recognition sequence and nucleophile) as part of the protein are required for SML. The complementary peptide was located at the polymer chain end. Grafting-to was used to avoid damaging the protein during polymerization. To be able to investigate all possible combinations (protein-recognition sequence and nucleophile-protein as well as polymer-recognition sequence and nucleophile-polymer) all necessary building blocks were synthesized. Polymerization via reversible deactivation radical polymerization (RDRP) was used to achieve a narrow molecular weight distribution of the polymers, which is required for therapeutic use. The synthesis of the polymeric building blocks was started by synthesizing the peptide via automated solid-phase peptide synthesis (SPPS) to avoid post-polymerization attachment and to enable easy adaptation of changes in the peptide sequence. To account for the different functionalities (free N- or C-terminus) required for SML, different linker molecules between resin and peptide were used. To facilitate purification, the chain transfer agent (CTA) for reversible addition-fragmentation chain-transfer (RAFT) polymerization was coupled to the resin-immobilized recognition sequence peptide. The acrylamide and acrylate-based monomers used in this thesis were chosen for their potential to replace PEG. Following that, surface-initiated (SI) ATRP and RAFT polymerization were attempted, but failed. As a result, the newly developed method of xanthate-supported photo-iniferter (XPI) RAFT polymerization in solution was used successfully to obtain a library of various peptide-polymer conjugates with different chain lengths and narrow molar mass distributions. After peptide side chain deprotection, these constructs were used first to ligate two polymers via SML, which was successful but revealed a limit in polymer chain length (max. 100 repeat units). When utilizing equimolar amounts of reactants, the use of Ni2+ ions in combination with a histidine after the recognition sequence to remove the cleaved peptide from the equilibrium maximized product formation with conversions of up to 70 %. Finally, a model protein and a nanobody with promising properties for therapeutical use were biotechnologically modified to contain the peptide sequences required for SML. Using the model protein for C- or N-terminal SML with various polymers did not result in protein-polymer conjugates. The reason is most likely the lack of accessibility of the protein termini to the enzyme. Using the nanobody for C-terminal SML, on the other hand, was successful. However, a similar polymer chain length limit was observed as in polymer-polymer SML. Furthermore, in case of the synthesis of protein-polymer conjugates, it was more effective to shift the SML equilibrium by using an excess of polymer than by employing the Ni2+ ion strategy. Overall, the experimental data from this work provides a good foundation for future research in this promising field; however, more research is required to fully understand the potential and limitations of using SML for protein-polymer synthesis. In future, the method explored in this dissertation could prove to be a very versatile pathway to obtain therapeutic protein-polymer conjugates that exhibit high activities and long blood circulation times. KW - biohybrid molecules KW - sortaseA KW - polymerization KW - RAFT KW - ATRP KW - peptide synthesis KW - enzymatic conjugation KW - sortagging Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645669 ER - TY - THES A1 - Adam, Jan P. T1 - Top-Management-Support und die Digitalisierung von Verwaltungsleistungen T1 - Top management support and the digitalization of administrative services BT - Analyse zu den Effekten begrenzter Rationalität auf die Umsetzung von OZG-Leistungen und die Rolle des Verwaltungsmanagements BT - an analysis of the effects of bounded rationality on the implementation of OZG services and the role of administrative management N2 - Digitalization is a key component of current administrative reforms. Despite its high importance and long-standing efforts, the balance of administrative digitalization in Germany remains ambivalent. This study investigates the influencing factors on the implementation of digitalization projects in public administration, with a special focus on the role of top management support. This study focuses on three successful digitalization projects from the German Online Access Act (OZG) and analyzes, using problem-centered expert interviews, the influencing factors on the implementation of OZG projects and the role of management in this process. The analysis is theoretically grounded and based on the approach of bounded rationality and the economic theory of bureaucracy. The results suggest that the identified influencing factors affect the reusability and maturity level of administrative services differently and can be interpreted as consequences of bounded rationality in the human problem-solving process. Managers influence the bounded rationality of operational actors by implementing appropriate strategies in the support of their implementation tasks. This includes providing resources, contributing their expertise, making information accessible, changing decision-making pathways, and contributing to conflict resolution. The study provides valuable insights into actual management practices and derives recommendations for the implementation of public digitalization projects and the management of public administrations. This study makes an important contribution to understanding the influence of management in digitalization. It also underscores the need for further research in this area to better understand the practices and challenges of administrative digitalization and to effectively address them. N2 - Die Digitalisierung ist ein wesentlicher Bestandteil aktueller Verwaltungsreformen. Trotz der hohen Bedeutung und langjähriger Bemühungen bleibt die Bilanz der Verwaltungsdigitalisierung in Deutschland ambivalent. Diese Studie konzentriert sich auf drei erfolgreiche Digitalisierungsvorhaben aus dem Onlinezugangsgesetz (OZG) und analysiert mittels problemzentrierter Expertenbefragung Einflussfaktoren auf die Umsetzung von OZG-Vorhaben und den Einfluss des Managements in diesem Prozess. Die Analyse erfolgt theoriegeleitet basierend auf dem Ansatz der begrenzten Rationalität und der ökonomischen Theorie der Bürokratie. Die Ergebnisse zeigen, dass anzunehmen ist, dass die identifizierten Einflussfaktoren unterschiedlich auf Nachnutzbarkeit und Reifegrad von Verwaltungsleistungen wirken und als Folgen begrenzter Rationalität im menschlichen Problemlösungsprozess interpretiert werden können. Managerinnen unterstützen die operativen Akteure bei der Umsetzung, indem sie deren begrenzte Rationalität mit geeigneten Strategien adressieren. Dazu können sie Ressourcen bereitstellen, mit ihrer Expertise unterstützen, Informationen zugänglich machen, Entscheidungswege verändern sowie zur Konfliktlösung beitragen. Die Studie bietet wertvolle Einblicke in die tatsächliche Managementpraxis und leitet daraus Empfehlungen für die Umsetzung öffentlicher Digitalisierungsvorhaben sowie für die Steuerung öffentlicher Verwaltungen ab. Diese Studie liefert einen wichtigen Beitrag zum Verständnis des Einflusses des Managements in der Verwaltungsdigitalisierung. Die Studie unterstreicht außerdem die Notwendigkeit weiterer Forschung in diesem Bereich, um die Praktiken und Herausforderungen der Verwaltungsdigitalisierung besser zu verstehen und effektiv zu adressieren. KW - Verwaltungsdigitalisierung KW - Top-Management-Support KW - öffentliche Verwaltung KW - E-Government KW - begrenzte Rationalität KW - Digitalisierung KW - OZG-Umsetzung KW - Verwaltungsreformen KW - administrative digitalization KW - top management support KW - public administration KW - eGovernment KW - digitalization projects KW - bounded rationality KW - OZG implementation KW - management practices Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647132 ER - TY - THES A1 - Franke, Vanessa T1 - Die Entwicklung des Verantwortungseigentums anhand der Carl-Zeiss-Stiftung unter Ernst Abbe T2 - Europäische Hochschulschriften Recht N2 - Die Dissertation untersucht die Entwicklung des Verantwortungseigentums insbesondere anhand der Carl-Zeiss-Stiftung unter Ernst Abbe. Der Begriff des Verantwortungseigentums wird seit einigen Jahren in der rechtspolitischen Debatte zu alternativen Unternehmens- und Eigentumsformen diskutiert. Dabei wird die Einführung einer eigenen Gesellschaftsform gefordert. Die Dissertation widmet sich diesen Forderungen und den Entwicklungen des Verantwortungseigentums anhand der Carl-Zeiss-Stiftung und ihrer Stiftungsbetriebe Zeiss und Schott. Dort wurde bereits Ende des 19. Jahrhunderts eine Form dessen, was Jurist:innen heute unter Verantwortungseigentum verstehen, kautelar-juristisch eingeführt und geprägt. Ziel und Zweck der Arbeit war es, die Überschneidungen, Parallelen und Unterschiede der Rechtssubjekte zu untersuchen und der Frage auf den Grund zu gehen, ob das Verantwortungseigentum einer längeren Rechtstradition folgt oder eine rein zeitgenössische Idee ist. Y1 - 2024 SN - 978-3-631-92255-2 SN - 978-3-631-92268-2 SN - 978-3-631-92269-9 U6 - https://doi.org/10.3726/b22044 SN - 0531-7312 VL - 6798 PB - Peter Lang CY - Berlin ER - TY - THES A1 - Pregla, Andreas T1 - Word order variability in OV languages T1 - Wortstellungsvariabilität in verbfinalen Sprachen BT - a study on scrambling, verb movement, and postverbal elements with a focus on Uralic languages BT - eine Untersuchung von Scrambling, Verbbewegung und postverbalen Elementen mit besonderem Augenmerk auf die uralischen Sprachen N2 - This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects. The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP. Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation. Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future. N2 - Diese Dissertation behandelt die Wortstellungsvariabilität verbfinaler Sprachen. Verbfinale Sprachen haben den Ruf, ein hohes Maß an Wortstellungsvariabilität aufzuweisen. Dieser Ruf beruht jedoch lediglich auf anekdotischen Befunden, da es einer systematischen Untersuchung eines solchen Zusammenhangs ermangelt. Die vorliegende Dissertation stellt eine solche systematische Untersuchung dar. Dafür werden neu erhobene Daten zu mehreren verbfinalen Sprachen präsentiert. Der Schwerpunkt liegt dabei auf vier uralischen Sprachen: Estnisch, Udmurtisch, Wiesenmari und Südsamisch. Der Ruf der Wortstellungsvariabilität erweist sich teils als wahr, da viele nicht miteinander verwandte, verbfinale Sprachen dieselbe Art Wortstellungsvariabilität teilen, das sogenannte A-Scrambling. A-Scrambling zeichnet sich gegenüber anderen Arten der Wortstellungsvariabilität dadurch aus, dass vorangestellten Elementen keine spezielle informationsstrukturelle Rolle wie Topic oder kontrastiver Fokus zukommt. A-Scrambling geht mit einem rechtsbefindlichen, unmittelbar präverbalen Fokus einher. Variationen des Musters aus A-Scrambling und präverbalem Fokus finden sich im Uigurischen, Standard-Dargwa, Ostarmenischen und in drei der uralischen Sprachen, nämlich Estnisch, Udmurtisch und Wiesenmari. Insofern bestätigt sich der Eindruck einer homogenen Wortstellungsvariabilität in verbfinalen Sprachen. Die vierte untersuchte uralische Sprache, Südsamisch, widerspricht diesem Eindruck jedoch. Südsamisch weist eine vergleichsweise feste Wortstellung auf trägt nicht die Kennzeichen von A-Scrambling. Darüberhinaus gibt es noch weitere, vergleichsweise starre, scramblinglose verbfinale Sprachen: Niederländisch, Afrikaans, Amharisch und Koreanisch. Im Gegensatz zu Sprachen mit A-Scrambling weisen scramblinglose Sprachen obligatorische Subjektbewegung (EPP) auf. Das EPP führt neben anderen typischen EPP-Effekten zu einer starren Wortstellung. Das EPP ist ein zentrales Merkmal der Satzstruktur im Südsamischen. Das Südsamische weist eine bislang nicht attestierte Alternation zwischen SOV- und SAuxOV-Stellung auf. Diese Alternation kann durch das Zusammenspiel von EPP und der obligatorischen Bewegung von Hilfsverben, nicht jedoch von lexikalischen Verben, erfasst werden. Andere Sprachen mit SAuxOV-Stellung weisen entweder keine systematische Alternation auf, weil das Hilfsverb obligatorisch vorhanden ist (Makro-Sudanische SAuxOVX-Sprachen), oder sie weisen eine Alternation zwischen SVO und SAuxOV auf (Kru-Sprachen; V2 mit zugrundeliegender Verbfinalität als Zweifelsfall). In den SVO–SAuxOV-Sprachen bewegen sich sowohl Hilfsverben als auch lexikalische Verben. Somit zeigt das Südsamische, dass eine sonst nur für VO-Sprachen bekannte parametrische Unterscheidung auch für OV-Sprachen gilt: der weithin bekannte Unterschied zwischen VO-Sprachen wie Englisch und Französisch, ob Verbbewegung auf Hilfsverben beschränkt ist. SAuxOV-Sprachen bilden insgesamt eine Ausnahme unter den OV-Sprachen, aber sie sind durch das Vorhandensein des EPP vereint. Wortstellungsvariabilität beschränkt sich in verbfinalen Sprachen nicht auf die präverbale Domäne. Die meisten verbfinalen Sprachen weisen postverbale Elemente (PVE) auf. PVE stellen den Status der Verbfinalität infrage. Strikt verbfinale Sprachen ohne jegliche satzinterne PVE sind jedoch selten. Diese Dissertation stellt zum ersten Mal eine strukturelle und deskriptive PVE-Typologie vor. Verbfinale Sprachen variieren in den Kategorien, die sie als PVE zulassen. Das Zulassen von nicht-oblike PVE ist eine entscheidende Schwelle: Wenn nicht-oblike PVE erlaubt sind, können PVE für informationsstrukturelle Effekte verwendet werden. Viele areal und genetisch nicht verwandte Sprachen erlauben nur gegebene PVE, unterscheiden sich jedoch darin, ob die PVE kontrastiv kontrastiv sein können. In diesen Sprachen steht die Verbfinalität nicht zur Debatte, da verbmediale Ordnungen nicht neutral sind. Im Gegensatz dazu erlauben die uralischen Sprachen Estnisch und Udmurtisch jede Art von PVE, einschließlich Informationsfoki. Verbmediale Stellungen können dort also in denselben Kontexten wie verbfinale Stellungen verwendet werden, ohne dass es zu semantischen und pragmatischen Unterschieden kommt. Hier kann also die Rede von tatsächlicher freier Variation in der Verbstellung sein. Die zugrunde liegende Verbfinalität des Estnischen und Udmurtischen kann nur mithilfe einer Reihe syntaktischer Tests abgeleitet werden, die auf optionale Verbbewegung in beiden Sprachen hinweisen. Insgesamt ist es nicht möglich, PVE mit einer einheitlichen Analyse zu erfassen: Merger nach rechts, linksgerichtete Verbbewegung und rechtsgerichtete Phrasenbewegung sind erforderlich, um die inter- und intralinguistische Variation zu erfassen. Zu wissen, dass eine Sprache verbfinal ist, erlaubt keine unfehlbaren Schlüsse über die Wortstellungsvariabilität in dieser Sprache. Es gibt Muster der Homogenität, wie die durch unmittelbar präverbalen Fokus und die Gegebenheit postverbaler Elemente getriebene Wortstellungsvariabilität. Diese Muster ergeben sich aber nicht allein aus der Verbfinalität. Die präverbale Wortstellungsvariabilität wird durch die abstraktere Eigenschaft der obligatorischen Subjektbewegung (EPP) bestimmt. Was die Möglichkeiten postverbaler Wortstellungsvariabilität bestimmt muss künftig ermittelt werden. KW - Uralic languages KW - syntax KW - word order KW - information structure KW - verb-final languages KW - uralische Sprachen KW - Syntax KW - Informationsstruktur KW - Wortstellung KW - verbfinale Sprachen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643636 ER - TY - THES A1 - Haskamp, Thomas T1 - Products design organizations T1 - Produkte designen Organisationen BT - how industrial-aged companies accomplish digital product innovation BT - wie etablierte Industrieunternehmen digitale Produktinnovationen erreichen N2 - The automotive industry is a prime example of digital technologies reshaping mobility. Connected, autonomous, shared, and electric (CASE) trends lead to new emerging players that threaten existing industrial-aged companies. To respond, incumbents need to bridge the gap between contrasting product architecture and organizational principles in the physical and digital realms. Over-the-air (OTA) technology, that enables seamless software updates and on-demand feature additions for customers, is an example of CASE-driven digital product innovation. Through an extensive longitudinal case study of an OTA initiative by an industrial- aged automaker, this dissertation explores how incumbents accomplish digital product innovation. Building on modularity, liminality, and the mirroring hypothesis, it presents a process model that explains the triggers, mechanisms, and outcomes of this process. In contrast to the literature, the findings emphasize the primacy of addressing product architecture challenges over organizational ones and highlight the managerial implications for success. N2 - Die Entwicklung neuer digitaler Produktinnovation erfordert in etablierten Industrieunternehmen die Integration von digitalen und physischen Elementen. Dies ist besonders in der Automobilindustrie sichtbar, wo der Trend zu vernetzter, autonomer, gemeinsam genutzter und elektrischer Mobilität zu einem neuen Wettbewerb führt, welcher etablierte Marktteilnehmer bedroht. Diese müssen lernen wie die Integration von gegensätzlichen Produktarchitekturen und Organisationsprinzipien aus der digitalen und physischen Produktentwicklung funktioniert. Die vorliegende Dissertation widmet sich diesem Problem. Basierend auf einer Fallstudie einer digitalen Produktinnovationsinitiative eines Premiummobilitätsanbieters rund um die Integration von Over-the-Air-Technologie für Software-Updates liefert sie wichtige Erkenntnisse. Erstens, etablierte Organisationen müssen Ihre Produktarchitektur befähigen, um verschiedene Produktarchitekturprinzipien in Einklang zu bringen. Zweitens, verschiedene Produktentwicklungsprozesse pro Produktebene müssen aufeinander abgestimmt werden. Drittens, die Organisationsstruktur muss erweitert werden, um die verschiedenen Produktebenen abzubilden. Darüber hinaus müssen auch Ressourcenallokationsprozesse auf die Entwicklungsprozesse abgestimmt werden. Basierend auf diesen Erkenntnissen und mit der bestehenden Fachliteratur wird in der Dissertation ein Prozessmodell entwickelt, welches erklären soll, wie etablierte Industrieunternehmen digitale Produktinnovation erreichen. Kernauslöser sind externer Marktdruck sowie existierende Architekturprinzipien. Wechselseitige Mechanismen wie die Befähigung der Produktarchitektur, die Erweiterung der Organisationstruktur, die Anpassung der Produktentwicklungsprozesse und die Anpassung der Ressourcenallokationsprozesse erklären den Prozess welcher in einer neuen Produktarchitektur sowie einer erweiterten Organisationsstruktur mündet. Der Forschungsbeitrag der Arbeit liegt im Bereich der digitalen Produktinnovation. Sie verlagert den Forschungsfokus auf Fragen der Produktarchitektur und verbindet diese durch Konzepte der Modularität mit organisatorischen Fragestellungen. Für die Praxis ergeben sich vier Hebel die Entscheidungsträger/innen nutzen können, um die Fähigkeiten zur digitalen Produktinnovation zu stärken. KW - digital product innovation KW - digital transformation KW - digital innovation KW - digitale Produktinnovation KW - digitale Transformation KW - digitale Innovation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646954 ER - TY - THES A1 - Fritz, Sylvia T1 - Sozialisierung im Gewährleistungsstaat BT - ein Beitrag zu Auslegung und Anwendung von Artikel 15 des Grundgesetzes T2 - Studien zum öffentlichen Recht N2 - Artikel 15 Grundgesetz als sozialistische Utopie? Keineswegs. Die Sozialisierungsnorm gibt dem Gesetzgeber ein Instrument an die Hand, um staatliche Gewährleistungsverantwortung mithilfe gemeinwirtschaftlicher Organisationsformen wahrzunehmen. Sozialisierungsmaßnahmen greifen in das Eigentumsgrundrecht ein. Sie treffen zudem auf grundrechtliche Funktionsgarantien einer marktwirtschaftlichen Ordnung und die unionsrechtliche Systemgarantie zugunsten des freien Wettbewerbs. Die Arbeit untersucht daher die verfassungsrechtlichen Anforderungen an die Sozialisierungsgesetzgebung auf Bundes- und Landesebene einschließlich der gerichtlichen Kontrolle. Ferner zeigt die Arbeit auf, wie sich Sozialisierungsgesetze unionsrechtskonform verhalten können. Y1 - 2024 VL - 35 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Wojcik, Laurie Anne Myriam T1 - Beyond a single diversity facet: implications for the links between biodiversity, environmental changes and ecosystem functioning T1 - Mehr als eine einzelne Facette der Biodiversität: Auswirkungen auf die Verbindungen zwischen Biodiversität, Umweltveränderungen und der Funktionalität von Ökosystemen N2 - Human activities modify nature worldwide via changes in the environment, biodiversity and the functioning of ecosystems, which in turn disrupt ecosystem services and feed back negatively on humans. A pressing challenge is thus to limit our impact on nature, and this requires detailed understanding of the interconnections between the environment, biodiversity and ecosystem functioning. These three components of ecosystems each include multiple dimensions, which interact with each other in different ways, but we lack a comprehensive picture of their interconnections and underlying mechanisms. Notably, diversity is often viewed as a single facet, namely species diversity, while many more facets exist at different levels of biological organisation (e.g. genetic, phenotypic, functional, multitrophic diversity), and multiple diversity facets together constitute the raw material for adaptation to environmental changes and shape ecosystem functioning. Consequently, investigating the multidimensionality of ecosystems, and in particular the links between multifaceted diversity, environmental changes and ecosystem functions, is crucial for ecological research, management and conservation. This thesis aims to explore several aspects of this question theoretically. I investigate three broad topics in this thesis. First, I focus on how food webs with varying levels of functional diversity across three trophic levels buffer environmental changes, such as a sudden addition of nutrients or long-term changes (e.g. warming or eutrophication). I observed that functional diversity generally enhanced ecological stability (i.e. the buffering capacity of the food web) by increasing trophic coupling. More precisely, two aspects of ecological stability (resistance and resilience) increased even though a third aspect (the inverse of the time required for the system to reach its post-perturbation state) decreased with increasing functional diversity. Second, I explore how several diversity facets served as a raw material for different sources of adaptation and how these sources affected multiple ecosystem functions across two trophic levels. Considering several sources of adaptation enabled the interplay between ecological and evolutionary processes, which affected trophic coupling and thereby ecosystem functioning. Third, I reflect further on the multifaceted nature of diversity by developing an index K able to quantify the facet of functional diversity, which is itself multifaceted. K can provide a comprehensive picture of functional diversity and is a rather good predictor of ecosystem functioning. Finally I synthesise the interdependent mechanisms (complementarity and selection effects, trophic coupling and adaptation) underlying the relationships between multifaceted diversity, ecosystem functioning and the environment, and discuss the generalisation of my findings across ecosystems and further perspectives towards elaborating an operational biodiversity-ecosystem functioning framework for research and conservation. N2 - Menschliche Aktivität verändert die Natur weltweit durch Einflussnahme auf die Umwelt, Biodiversität und Funktionsweise von Ökosystemen, die wiederum Ökosystemdienstleistungen stören und sich negativ auf den Menschen auswirken. Eine dringende Herausforderung besteht daher darin, unsere Wirkung auf die Natur zu begrenzen, was ein tiefgreifendes Verständnis der Zusammenhänge zwischen Umwelt, Biodiversität und dem Funktionalität von Ökosystemen voraussetzt. Diese drei Komponenten von Ökosystemen umfassen jedoch jeweils mehrere Dimensionen, die auf unterschiedliche Weise interagieren, und bisher haben wir kein umfassendes Bild von ihren Zusammenhängen und den zugrundeliegenden Mechanismen. Vor allem Diversität wird oft als eine einzige Facette betrachtet, nämlich als Artendiversität, während es auf verschiedenen biologischen Organisationsebenen viele weitere Facetten gibt, z. B. genetische, phänotypische, funktionelle, multitrophische Diversität, die zusammen mehrere Quellen für Rohmaterial zur die Anpassung an Umweltveränderungen bilden und die Funktionsweise von Ökosystemen beeinflussen. Folglich ist die Untersuchung der Multidimensionalität von Ökosystemen, insbesondere der Zusammenhänge zwischen multifacettierter Diversität, Umweltveränderungen und Ökosystemfunktionen, von entscheidender Bedeutung für Forschung, Management und Naturschutz. In dieser Arbeit sollen mehrere Aspekte dieser Frage theoretisch untersucht werden. In dieser Arbeit untersuche ich drei große Themenbereiche. Erstens konzentriere ich mich auf die Frage, wie Nahrungsnetze mit unterschiedlichem Grad funktioneller Diversität auf drei trophischen Ebenen Umweltveränderungen abpuffern, wie etwa eine plötzliche Zugabe von Nährstoffen oder langfristige Veränderungen (z. B. Erwärmung oder Eutrophierung). Hier habe ich festgestellt, dass die funktionelle Diversität die ökologische Stabilität (d. h. die Pufferkapazität des Nahrungsnetzes) durch eine stärkere trophische Kopplung allgemein erhöht. Im Speziellen nahmen zwei Aspekte der ökologischen Stabilität (Resistenz und Resilienz) zu, obwohl ein dritter Aspekt, der Kehrwert der Zeit, die das System benötigt, um den Post-Störungszustand zu erreichen, mit zunehmender funktioneller Diversität abnahm. Zweitens untersuche ich, wie mehrere Facetten der Diversität als Basis für mehrere Anpassungsprozesse aus verschiedenen Quellen dienten und wie diese Quellen mehrere Ökosystemfunktionen auf zwei trophischen Ebenen beeinflussten. Die Berücksichtigung mehrerer Anpassungsquellen ermöglichte das Zusammenspiel zwischen ökologischen und evolutionären Prozessen, die sich auf die trophische Kopplung und damit auf die Funktionalität des Ökosystems auswirkten. Drittens reflektiere ich weiter über die Facetten der Diversität, indem ich einen Index K entwickle, der die Facette der funktionalen Diversität quantifizieren kann, welche wiederum selbst vielschichtig ist. K kann ein umfassendes Bild der funktionellen Diversität vermitteln und ist ein recht guter Prädiktor für das Funktionieren von Ökosystemen. Schließlich fasse ich die voneinander abhängigen Mechanismen (Komplementarität und Selektionseffekte, trophische Kopplung und Anpassung) zusammen, die den Beziehungen zwischen multi-facettierter Diversität, dem Funktionieren von Ökosystemen und der Umwelt zugrunde liegen, und erörtere die Möglichkeiten zur Verallgemeinerung meiner Ergebnisse über Ökosysteme hinweg sowie Perspektiven für die Ausarbeitung eines operativen Rahmens für der Biodiversität-Ökosystem- Funktionalität für Forscher und Anwender. KW - multifaceted diversity KW - multi-facettierter Diversität KW - perturbation KW - Störung KW - trait-based approaches KW - merkmalsbasierte Ansätze KW - food web models KW - Modelle der Nahrungsnetze KW - ecological stability KW - ökologische Stabilität KW - trait adaptation KW - Anpassung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646925 ER - TY - THES A1 - Lagodzinski, Julius Albert Gregor T1 - Counting homomorphisms over fields of prime order T1 - Zählen von Homomorphismen über Körper mit Primzahlordnung N2 - Homomorphisms are a fundamental concept in mathematics expressing the similarity of structures. They provide a framework that captures many of the central problems of computer science with close ties to various other fields of science. Thus, many studies over the last four decades have been devoted to the algorithmic complexity of homomorphism problems. Despite their generality, it has been found that non-uniform homomorphism problems, where the target structure is fixed, frequently feature complexity dichotomies. Exploring the limits of these dichotomies represents the common goal of this line of research. We investigate the problem of counting homomorphisms to a fixed structure over a finite field of prime order and its algorithmic complexity. Our emphasis is on graph homomorphisms and the resulting problem #_{p}Hom[H] for a graph H and a prime p. The main research question is how counting over a finite field of prime order affects the complexity. In the first part of this thesis, we tackle the research question in its generality and develop a framework for studying the complexity of counting problems based on category theory. In the absence of problem-specific details, results in the language of category theory provide a clear picture of the properties needed and highlight common ground between different branches of science. The proposed problem #Mor^{C}[B] of counting the number of morphisms to a fixed object B of C is abstract in nature and encompasses important problems like constraint satisfaction problems, which serve as a leading example for all our results. We find explanations and generalizations for a plethora of results in counting complexity. Our main technical result is that specific matrices of morphism counts are non-singular. The strength of this result lies in its algebraic nature. First, our proofs rely on carefully constructed systems of linear equations, which we know to be uniquely solvable. Second, by exchanging the field that the matrix is defined by to a finite field of order p, we obtain analogous results for modular counting. For the latter, cancellations are implied by automorphisms of order p, but intriguingly we find that these present the only obstacle to translating our results from exact counting to modular counting. If we restrict our attention to reduced objects without automorphisms of order p, we obtain results analogue to those for exact counting. This is underscored by a confluent reduction that allows this restriction by constructing a reduced object for any given object. We emphasize the strength of the categorial perspective by applying the duality principle, which yields immediate consequences for the dual problem of counting the number of morphisms from a fixed object. In the second part of this thesis, we focus on graphs and the problem #_{p}Hom[H]. We conjecture that automorphisms of order p capture all possible cancellations and that, for a reduced graph H, the problem #_{p}Hom[H] features the complexity dichotomy analogue to the one given for exact counting by Dyer and Greenhill. This serves as a generalization of the conjecture by Faben and Jerrum for the modulus 2. The criterion for tractability is that H is a collection of complete bipartite and reflexive complete graphs. From the findings of part one, we show that the conjectured dichotomy implies dichotomies for all quantum homomorphism problems, in particular counting vertex surjective homomorphisms and compactions modulo p. Since the tractable cases in the dichotomy are solved by trivial computations, the study of the intractable cases remains. As an initial problem in a series of reductions capable of implying hardness, we employ the problem of counting weighted independent sets in a bipartite graph modulo prime p. A dichotomy for this problem is shown, stating that the trivial cases occurring when a weight is congruent modulo p to 0 are the only tractable cases. We reduce the possible structure of H to the bipartite case by a reduction to the restricted homomorphism problem #_{p}Hom^{bip}[H] of counting modulo p the number of homomorphisms between bipartite graphs that maintain a given order of bipartition. This reduction does not have an impact on the accessibility of the technical results, thanks to the generality of the findings of part one. In order to prove the conjecture, it suffices to show that for a connected bipartite graph that is not complete, #_{p}Hom^{bip}[H] is #_{p}P-hard. Through a rigorous structural study of bipartite graphs, we establish this result for the rich class of bipartite graphs that are (K_{3,3}\{e}, domino)-free. This overcomes in particular the substantial hurdle imposed by squares, which leads us to explore the global structure of H and prove the existence of explicit structures that imply hardness. N2 - Homomorphismen sind ein grundlegendes Konzept der Mathematik, das die Ähnlichkeit von Strukturen ausdrückt. Sie bieten einen Rahmen, der viele der zentralen Probleme der Informatik umfasst und enge Verbindungen zu verschiedenen Wissenschaftsbereichen aufweist. Aus diesem Grund haben sich in den letzten vier Jahrzehnten viele Studien mit der algorithmischen Komplexität von Homomorphismusproblemen beschäftigt. Trotz ihrer Allgemeingültigkeit wurden Komplexitätsdichotomien häufig für nicht-uniforme Homomorphismusprobleme nachgewiesen, bei denen die Zielstruktur fixiert ist. Die Grenzen dieser Dichotomien zu erforschen, ist das gemeinsame Ziel dieses Forschungskalküls. Wir untersuchen das Problem und seine algorithmische Komplexität, Homomorphismen zu einer festen Struktur über einem endlichen Körper mit Primzahlordnung zu zählen. Wir konzentrieren uns auf Graphenhomomorphismen und das daraus resultierende Problem #_{p}Hom[H] für einen Graphen H und eine Primzahl p. Die Hauptforschungsfrage ist, wie das Zählen über einem endlichen Körper mit Primzahlordnung die Komplexität beeinflusst. Im ersten Teil wird die Forschungsfrage in ihrer Allgemeinheit behandelt und ein Rahmen für die Untersuchung der Komplexität von Zählproblemen auf der Grundlage der Kategorientheorie entwickelt. Losgelöst von problemspezifischen Details liefern die Ergebnisse in der Sprache der Kategorientheorie ein klares Bild der benötigten Eigenschaften und zeigen Gemeinsamkeiten zwischen verschiedenen Wissenschaftsgebieten auf. Das vorgeschlagene Problem #Mor^{C}[B] des Zählens der Anzahl von Morphismen zu einem festen Objekt B von C ist abstrakter Natur und umfasst wichtige Probleme wie Constraint Satisfaction Problems, die als leitendes Beispiel für alle unsere Ergebnisse dienen. Wir finden Erklärungen und Verallgemeinerungen für eine Vielzahl von Ergebnissen in der Komplexitätstheorie von Zählproblemen. Unser wichtigstes technisches Ergebnis ist, dass bestimmte Matrizen von Morphismenzahlen nicht singulär sind. Die Stärke dieses Ergebnisses liegt in seiner algebraischen Natur. Erstens basieren unsere Beweise auf sorgfältig konstruierten linearen Gleichungssystemen, von denen wir wissen, dass sie eindeutig lösbar sind. Zweitens, indem wir den Körper, über dem die Matrix definiert ist, durch einen endlichen Körper der Ordnung p ersetzen, erhalten wir analoge Ergebnisse für das modulare Zählen. Für letztere sind Annullierungen durch Automorphismen der Ordnung p impliziert, aber faszinierenderweise stellen diese das einzige Hindernis für die Übertragung unserer Ergebnisse von der exakten auf die modulare Zählung dar. Wenn wir unsere Aufmerksamkeit auf reduzierte Objekte ohne Automorphismen der Ordnung p beschränken, erhalten wir Ergebnisse, die zu denen des exakten Zählens analog sind. Dies wird durch eine konfluente Reduktion unterstrichen, die für jedes beliebige Objekt ein reduziertes Objekt konstruiert. Wir heben die Stärke der kategorialen Perspektive durch die Anwendung des Dualitätsprinzips hervor, das direkte Konsequenzen für das duale Problem des Zählens der Anzahl der Morphismen von einem fixen Objekts aus liefert. Im zweiten Teil konzentrieren wir uns auf Graphen und das Problem #_{p}Hom[H]. Wir stellen die Vermutung auf, dass Automorphismen der Ordnung p alle möglichen Annullierungen erklären und dass das Problem #_{p}Hom[H] für einen reduzierten Graphen H eine Komplexitätsdichotomie analog zu der aufweist, die von Dyer und Greenhill für das exakte Zählen bewiesen wurde. Dies stellt eine Verallgemeinerung der Vermutung von Faben und Jerrum für den Modulus 2 dar. Das Kriterium für die effiziente Lösbarkeit ist, dass H lediglich aus vollständigen bipartiten und reflexiven vollständigen Graphen besteht. Basierend auf den Ergebnisse des ersten Teils zeigen wir, dass die Vermutung Dichotomien für alle Quantenhomomorphismenprobleme impliziert, insbesondere für das Zählen modulo p von Homomorphismen surjektiv auf Knoten und von Verdichtungen. Da die effizient lösbaren Fälle in der Dichotomie durch triviale Berechnungen gelöst werden, bleibt es, die unlösbaren Fälle zu untersuchen. Als erstes Problem in einer Reihe von Reduktionen, deren Ziel es ist, Härte zu implizieren, verwenden wir das Problem des Zählens gewichteter unabhängiger Mengen in einem bipartiten Graphen modulo p. Für dieses Problem beweisen wir eine Dichotomie, die besagt, dass nur die trivialen Fälle effizient lösbar sind. Diese treten auf, wenn ein Gewicht kongruent modulo p zu 0 ist. Durch eine Reduktion auf das eingeschränkte Homomorphismusproblem #_{p}Hom^{bip}[H] reduzieren wir die mögliche Struktur von H auf den bipartiten Fall. Hierbei handelt es sich um das Problem des Zählens modulo p der Homomorphismen zwischen bipartiten Graphen, die eine gegebene Ordnung der Bipartition erhalten. Dank der Allgemeingültigkeit der Ergebnisse des ersten Teils hat diese Reduktion keinen Einfluss auf die Verfügbarkeit der technischen Ergebnisse. Für einen Beweis der Vermutung genügt es zu zeigen, dass #_{p}Hom^{bip}[H] für einen zusammenhängenden und nicht vollständigen bipartiten Graphen #_{p}P-schwer ist. Durch eine rigorose Untersuchung der Struktur von bipartiten Graphen beweisen wir dieses Ergebnis für die umfangreiche Klasse von bipartiten Graphen, die (K_{3,3}\{e}, domino)-frei sind. Dies überwindet insbesondere die substantielle Hürde, die durch Quadrate gegeben ist und uns dazu veranlasst, die globale Struktur von H zu untersuchen und die Existenz expliziter Strukturen zu beweisen, die Härte implizieren. KW - complexity theory KW - (modular) counting KW - relational structures KW - categories KW - homomorphisms KW - Zählen KW - Kategorien KW - Komplexitätstheorie KW - Homomorphismen KW - relationale Strukturen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646037 ER - TY - THES A1 - Felisatti, Arianna T1 - Spatial-numerical associations: From biological foundations to embodied learning to contextual flexibility T1 - Räumlich-numerische Assoziationen: Von den biologischen Grundlagen über das verkörperte Lernen bis zur kontextuellen Flexibilität N2 - Among the different meanings carried by numerical information, cardinality is fundamental for survival and for the development of basic as well as of higher numerical skills. Importantly, the human brain inherits from evolution a predisposition to map cardinality onto space, as revealed by the presence of spatial-numerical associations (SNAs) in humans and animals. Here, the mapping of cardinal information onto physical space is addressed as a hallmark signature characterizing numerical cognition. According to traditional approaches, cognition is defined as complex forms of internal information processing, taking place in the brain (cognitive processor). On the contrary, embodied cognition approaches define cognition as functionally linked to perception and action, in the continuous interaction between a biological body and its physical and sociocultural environment. Embracing the principles of the embodied cognition perspective, I conducted four novel studies designed to unveil how SNAs originate, develop, and adapt, depending on characteristics of the organism, the context, and their interaction. I structured my doctoral thesis in three levels. At the grounded level (Study 1), I unfold the biological foundations underlying the tendency to map cardinal information across space; at the embodied level (Study 2), I reveal the impact of atypical motor development on the construction of SNAs; at the situated level (Study 3), I document the joint influence of visuospatial attention and task properties on SNAs. Furthermore, I experimentally investigate the presence of associations between physical and numerical distance, another numerical property fundamental for the development of efficient mathematical minds (Study 4). In Study 1, I present the Brain’s Asymmetric Frequency Tuning hypothesis that relies on hemispheric asymmetries for processing spatial frequencies, a low-level visual feature that the (in)vertebrate brain extracts from any visual scene to create a coherent percept of the world. Computational analyses of the power spectra of the original stimuli used to document the presence of SNAs in human newborns and animals, support the brain’s asymmetric frequency tuning as a theoretical account and as an evolutionarily inherited mechanism scaffolding the universal and innate tendency to represent cardinality across horizontal space. In Study 2, I explore SNAs in children with rare genetic neuromuscular diseases: spinal muscular atrophy (SMA) and Duchenne muscular dystrophy (DMD). SMA children never accomplish independent motoric exploration of their environment; in contrast, DMD children do explore but later lose this ability. The different SNAs reported by the two groups support the critical role of early sensorimotor experiences in the spatial representation of cardinality. In Study 3, I directly compare the effects of overt attentional orientation during explicit and implicit processing of numerical magnitude. First, the different effects of attentional orienting based on the type of assessment support different mechanisms underlying SNAs during explicit and implicit assessment of numerical magnitude. Secondly, the impact of vertical shifts of attention on the processing of numerical distance sheds light on the correspondence between numerical distance and peri-personal distance. In Study 4, I document the presence of different SNAs, driven by numerical magnitude and numerical distance, by employing different response mappings (left vs. right and near vs. distant). In the field of numerical cognition, the four studies included in the present thesis contribute to unveiling how the characteristics of the organism and the environment influence the emergence, the development, and the flexibility of our attitude to represent cardinal information across space, thus supporting the predictions of the embodied cognition approach. Furthermore, they inform a taxonomy of body-centred factors (biological properties of the brain and sensorimotor system) modulating the spatial representation of cardinality throughout the course of life, at the grounded, embodied, and situated levels. If the awareness for different variables influencing SNAs over the course of life is important, it is equally important to consider the organism as a whole in its sensorimotor interaction with the world. Inspired by my doctoral research, here I propose a holistic perspective that considers the role of evolution, embodiment, and environment in the association of cardinal information with directional space. The new perspective advances the current approaches to SNAs, both at the conceptual and at the methodological levels. Unveiling how the mental representation of cardinality emerges, develops, and adapts is necessary to shape efficient mathematical minds and achieve economic productivity, technological progress, and a higher quality of life. N2 - Unter den verschiedenen Bedeutungsaspekten numerischer Informationen ist die Kardinalität fundamental für das Überleben und die Entwicklung grundlegender sowie fortgeschrittener numerischer Fähigkeiten. Ein wichtiger Aspekt ist, dass das menschliche Gehirn evolutionär die Prädisposition besitzt, Kardinalität auf den Raum abzubilden, wie das Vorhandensein von räumlich-numerischen Assoziationen [engl. spatial-numerical associations, SNA] bei Menschen und Tieren zeigt. Hier wird die Abbildung kardinaler Informationen auf den physischen Raum als charakteristisches Merkmal der numerischen Kognition untersucht. Nach traditionellen Ansätzen wird Kognition als eine komplexe Form der internen Informationsverarbeitung definiert, die im Gehirn stattfindet (kognitiver Prozessor). Im Gegensatz dazu betrachten Ansätze der verkörperten Kognition (Embodied Cognition) Kognition als funktionell mit Wahrnehmung und Handlung verbunden, eingebettet in die kontinuierliche Interaktion zwischen einem biologischen Körper und seiner physischen sowie soziokulturellen Umgebung. In Anlehnung an die Prinzipien der Embodied-Cognition-Perspektive habe ich vier innovative Studien durchgeführt, um herauszufinden, wie SNA in Abhängigkeit von den Merkmalen des Organismus, des Kontexts und ihrer Interaktion entstehen, sich entwickeln und anpassen. Meine Doktorarbeit ist auf drei Ebenen strukturiert. Auf der geerdeten („grounded“) Ebene (Studie 1) zeige ich die biologischen Grundlagen auf, die der Tendenz zugrunde liegen, kardinale Informationen über den Raum hinweg abzubilden; auf der verkörperten („embodied“) Ebene (Studie 2) zeige ich die Auswirkungen einer atypischen motorischen Entwicklung auf die Konstruktion von SNA; auf der situativen („situated“) Ebene (Studie 3) dokumentiere ich den gemeinsamen Einfluss von visuell-räumlicher Aufmerksamkeit und von Aufgabeneigenschaften auf SNA. Darüber hinaus untersuche ich experimentell das Vorliegen von Assoziationen zwischen physischer und numerischer Distanz, einer weiteren numerischen Eigenschaft, die für die Entwicklung eines effizienten mathematischen Verstandes grundlegend ist (Studie 4). In Studie 1 stelle ich die Hypothese der asymmetrischen Frequenzabstimmung des Gehirns vor, die sich auf hemisphärische Asymmetrien bei der Verarbeitung räumlicher Frequenzen stützt. Diese räumlichen Frequenzen sind ein visuelles Merkmal auf niedriger Verarbeitungsebene, das das Gehirn von (Nicht-)Wirbeltieren aus jeder visuellen Szene extrahiert, um eine kohärente Wahrnehmung der Welt zu gewährleisten. Computergestützte Analysen der Leistungsspektren der ursprünglichen Stimuli, die verwendet wurden, um die Existenz von SNA bei menschlichen Neugeborenen und Tieren zu dokumentieren, unterstützen die asymmetrische Frequenzabstimmung des Gehirns als theoretische Erklärung. Dieser evolutionär vererbte Mechanismus könnte die universelle und angeborene Tendenz zur Darstellung von Kardinalität im horizontalen Raum erklären. In Studie 2 untersuche ich SNA bei Kindern mit seltenen genetisch bedingten neuromuskulären Krankheiten, nämlich Spinaler Muskelatrophie (SMA) und Duchenne-Muskeldystrophie (DMD). Kinder mit SMA sind nicht in der Lage, ihre Umwelt selbstständig motorisch zu erkunden, während Kinder mit DMD diese Fähigkeit anfangs besitzen, sie aber im Laufe der Zeit verlieren. Die unterschiedlichen SNA, die von den beiden Gruppen berichtet werden, belegen die entscheidende Rolle früher sensomotorischer Erfahrungen für die räumliche Repräsentation von Kardinalität. In Studie 3 vergleiche ich direkt die Auswirkungen der offenen Aufmerksamkeitsorientierung während der expliziten und impliziten Verarbeitung numerischer Größenordnungen. Erstens zeigen die unterschiedlichen Auswirkungen der Aufmerksamkeitsorientierung je nach Art der Bewertung unterschiedliche Mechanismen auf, die den SNA bei der expliziten und impliziten Beurteilung numerischer Größen zugrunde liegen. Zweitens deutet die Wirkung der vertikalen Aufmerksamkeitsverschiebung auf die Verarbeitung numerischer Distanzen auf eine Korrelation zwischen numerischer Distanz und peripersonaler Distanz hin. In Studie 4 belege ich das Vorliegen unterschiedlicher SNA, die durch numerische Größe und numerische Distanz gesteuert werden, mittels verschiedener Antwortzuordnungen (links vs. rechts und nah vs. fern). Die vier Studien dieser Arbeit auf dem Gebiet der numerischen Kognition zeigen, wie die Eigenschaften des Organismus und der Umwelt die Entstehung, Entwicklung und Flexibilität der Fähigkeit beeinflussen, kardinale Informationen über den Raum hinweg zu repräsentieren, und unterstützen damit die Vorhersagen des Ansatzes der verkörperten Kognition. Darüber hinaus liefern sie Einblicke in eine Taxonomie körperbezogener Faktoren, darunter biologische Merkmale des Gehirns und des sensomotorischen Systems, die die räumliche Repräsentation von Kardinalität im Laufe des Lebens auf den „grounded“, „embodied“ und „situated“ Ebenen modulieren. Die Kenntnis der verschiedenen Variablen, die die SNA im Laufe des Lebens beeinflussen, ist ebenso wichtig wie die Betrachtung des Organismus als Ganzes in seiner sensomotorischen Interaktion mit der Welt. Inspiriert von meiner Doktorarbeit schlage ich hier eine ganzheitliche Perspektive vor, die die Rolle der Evolution, der Verkörperung und der Umwelt bei unserer Assoziation von kardinalen Informationen mit Raum berücksichtigt. Diese neue Perspektive erweitert die derzeitigen Ansätze zu SNA sowohl auf konzeptioneller als auch auf methodologischer Ebene. Die Erforschung der Entstehung, Entwicklung und Anpassung der mentalen Repräsentation von Kardinalität ist entscheidend, um effiziente mathematische Fähigkeiten zu entwickeln sowie wirtschaftliche Produktivität, technologischen Fortschritt und eine verbesserte Lebensqualität zu fördern. KW - numerical cognition KW - spatial-numerical associations KW - SNARC effect KW - numerical distance effect KW - hemispheric asymmetry KW - child development KW - visuospatial attention KW - embodied cognition KW - grounded cognition KW - situated cognition KW - numerische Kognition KW - räumlich-numerische Assoziationen KW - SNARC-Effekt KW - numerischer Abstandseffekt KW - hemisphärische Asymmetrie KW - kindliche Entwicklung KW - visuell-räumliche Aufmerksamkeit KW - verkörperte Kognition KW - geerdete („grounded“) Kognition KW - situierte („situated“ Kognition Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641791 ER - TY - THES A1 - Rasche, Daniel T1 - Cosmic-ray neutron sensing for the estimation of soil moisture T1 - Cosmic-Ray Neutron Sensing zur Messung der Bodenfeuchte BT - from the atmosphere to the near-surface and to larger depths N2 - Water stored in the unsaturated soil as soil moisture is a key component of the hydrological cycle influencing numerous hydrological processes including hydrometeorological extremes. Soil moisture influences flood generation processes and during droughts when precipitation is absent, it provides plant with transpirable water, thereby sustaining plant growth and survival in agriculture and natural ecosystems. Soil moisture stored in deeper soil layers e.g. below 100 cm is of particular importance for providing plant transpirable water during dry periods. Not being directly connected to the atmosphere and located outside soil layers with the highest root densities, water in these layers is less susceptible to be rapidly evaporated and transpired. Instead, it provides longer-term soil water storage increasing the drought tolerance of plants and ecosystems. Given the importance of soil moisture in the context of hydro-meteorological extremes in a warming climate, its monitoring is part of official national adaption strategies to a changing climate. Yet, soil moisture is highly variable in time and space which challenges its monitoring on spatio-temporal scales relevant for flood and drought risk modelling and forecasting. Introduced over a decade ago, Cosmic-Ray Neutron Sensing (CRNS) is a noninvasive geophysical method that allows for the estimation of soil moisture at relevant spatio-temporal scales of several hectares at a high, subdaily temporal resolution. CRNS relies on the detection of secondary neutrons above the soil surface which are produced from high-energy cosmic-ray particles in the atmosphere and the ground. Neutrons in a specific epithermal energy range are sensitive to the amount of hydrogen present in the surroundings of the CRNS neutron detector. Due to same mass as the hydrogen nucleus, neutrons lose kinetic energy upon collision and are subsequently absorbed when reaching low, thermal energies. A higher amount of hydrogen therefore leads to fewer neutrons being detected per unit time. Assuming that the largest amount of hydrogen is stored in most terrestrial ecosystems as soil moisture, changes of soil moisture can be estimated through an inverse relationship with observed neutron intensities. Although important scientific advancements have been made to improve the methodological framework of CRNS, several open challenges remain, of which some are addressed in the scope of this thesis. These include the influence of atmospheric variables such as air pressure and absolute air humidity, as well as, the impact of variations in incoming primary cosmic-ray intensity on observed epithermal and thermal neutron signals and their correction. Recently introduced advanced neutron-to-soil moisture transfer functions are expected to improve CRNS-derived soil moisture estimates, but potential improvements need to be investigated at study sites with differing environmental conditions. Sites with strongly heterogeneous, patchy soil moisture distributions challenge existing transfer functions and further research is required to assess the impact of, and correction of derived soil moisture estimates under heterogeneous site conditions. Despite its capability of measuring representative averages of soil moisture at the field scale, CRNS lacks an integration depth below the first few decimetres of the soil. Given the importance of soil moisture also in deeper soil layers, increasing the observational window of CRNS through modelling approaches or in situ measurements is of high importance for hydrological monitoring applications. By addressing these challenges, this thesis aids to closing knowledge gaps and finding answers to some of the open questions in CRNS research. Influences of different environmental variables are quantified, correction approaches are being tested and developed. Neutron-to-soil moisture transfer functions are evaluated and approaches to reduce effects of heterogeneous soil moisture distributions are presented. Lastly, soil moisture estimates from larger soil depths are derived from CRNS through modified, simple modelling approaches and in situ estimates by using CRNS as a downhole technique. Thereby, this thesis does not only illustrate the potential of new, yet undiscovered applications of CRNS in future but also opens a new field of CRNS research. Consequently, this thesis advances the methodological framework of CRNS for above-ground and downhole applications. Although the necessity of further research in order to fully exploit the potential of CRNS needs to be emphasised, this thesis contributes to current hydrological research and not least to advancing hydrological monitoring approaches being of utmost importance in context of intensifying hydro-meteorological extremes in a changing climate. N2 - Wasser, das als Bodenfeuchte in der ungesättigten Bodenzone gespeichert ist, beeinflusst zahlreiche hydrologische Prozesse. Sie ist von großer Bedeutung für hydrometeorologische Extremereignisse, da sie sowohl die Prozesse zur Entstehung von Hochwassereignissen beeinflusst als auch pflanzenverfügbares Wasser in Dürreperioden bereitstellt, in denen Regen ausbleibt. Vor allem Bodenfeuchte in tieferen Schichten des Bodens wird zum Beispiel durch die geringere Dichte an Pflanzenwurzeln langsamer aufgenommen und reduziert. Die Bodenfeuchte in diesen tieferen Schichten kann daher vor allem in Trockenperioden zum Überleben der Pflanzen in landwirtschaftlichen Gebieten und natürlichen Ökosystemen beitragen. Im Kontext hydro-meteorologischer Extremereignisse kommt der Bodenfeuchte so eine besondere Bedeutung zu und ist daher Teil nationaler Monitoring- und Anpassungsstrategien an sich verändernde Klimabedingungen. Cosmic-Ray Neutron Sensing (CRNS) ist ein geophysikalisches Messverfahren, das natürlich vorkommende Neutronen aus kosmischer Strahlung zur Bodenfeuchtebestimmung nutzt. Die Intensität der über dem Boden gemessenen Neutronen ist dabei abhängig von der Menge anWasserstoff in der Umgebung des Neutronendetektors. Da in den meisten Bereichen an Land die Bodenfeuchte den größten Teil des Wasserstoffs ausmacht, lassen Veränderungen in der gemessenen Neutronenintensität auf veränderte Bodenfeuchtebedingungen schließen. Ein Vorteil dieser nichtinvasiven Methode ist ihr großer Messbereich von mehreren Hektar. Die, selbst über kurze Distanzen und Zeiträume auftretenden, Unterschiede werden somit repräsentativ gemittelt und gemessene Bodenfeuchtewerte können so besser für Vorhersagemodelle von Hochwasser- und Dürreereignissen genutzt werden. Trotz des Potentials von CRNS für das Monitoring von Bodenfeuchte bleiben zahlreiche offene Forschungsfragen, von denen einige im Rahmen dieser Arbeit betrachtet werden. Hierzu zählt die Bestimmung und Korrektur von Einflussgrößen, die das Neutronensignal zusätzlich zur Bodenfeuchte beeinflussen. Ebenso gehört die Ableitung von Bodenfeuchte aus dem Neutronensignal selbst sowie der Umgang mit stark unterschiedlichen Bodenfeuchtebedingungen im Messbereich dazu. Obwohl CRNS einen großen horizontalen Messbereich besitzt, ist die Messtiefe auf die oberen ca. 30 cm des Bodens begrenzt. Hierzu werden Ansätze untersucht, die Bodenfeuchte mathematisch in größere Tiefen zu extrapolieren und sie direkt dort zu messen, indem Neutronendetektoren in Bohrlöchern installiert werden. Mit der Betrachtung der Forschungsfragen kann diese Arbeit einen wichtigen Beitrag zur Weiterentwicklung von CRNS und der Anwendbarkeit der Methode z.B. im Rahmen nationaler Monitoring-Programme leisten, denen im Kontext zunehmend intensiverer hydro-meteorologischer Extremereignisse eine besondere Bedeutung zukommt. KW - cosmic-ray neutron sensing KW - soil moisture KW - Cosmic-Ray Neutron Sensing KW - Bodenfeuchte KW - soil hydrology KW - geophysics KW - Bodenhydrologie KW - Geophysik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636465 ER - TY - THES A1 - Dronsella, Beau B. T1 - Overcoming natural biomass limitations in gram-negative bacteria through synthetic carbon fixation T1 - Überwindung natürlicher Biomasselimitationen in gramnegativen Bakterien mittels synthetischer Kohlenstofffixierung N2 - The carbon demands of an ever-increasing human population and the concomitant rise in net carbon emissions requires CO2 sequestering approaches for production of carbon-containing molecules. Microbial production of carbon-containing products from plant-based sugars could replace current fossil-based production. However, this form of sugar-based microbial production directly competes with human food supply and natural ecosystems. Instead, one-carbon feedstocks derived from CO2 and renewable energy were proposed as an alternative. The one carbon molecule formate is a stable, readily soluble and safe-to-store energetic mediator that can be electrochemically generated from CO2 and (excess off-peak) renewable electricity. Formate-based microbial production could represent a promising approach for a circular carbon economy. However, easy-to-engineer and efficient formate-utilizing microbes are lacking. Multiple synthetic metabolic pathways were designed for better-than-nature carbon fixation. Among them, the reductive glycine pathway was proposed as the most efficient pathway for aerobic formate assimilation. While some of these pathways have been successfully engineered in microbial hosts, these synthetic strains did so far not exceed the performance of natural strains. In this work, I engineered and optimized two different synthetic formate assimilation pathways in gram-negative bacteria to exceed the limits of a natural carbon fixation pathway, the Calvin cycle. The first chapter solidified Cupriavidus necator as a promising formatotrophic host to produce value-added chemicals. The formate tolerance of C. necator was assessed and a production pathway for crotonate established in a modularized fashion. Last, bioprocess optimization was leveraged to produce crotonate from formate at a titer of 148 mg/L. In the second chapter, I chromosomally integrated and optimized the synthetic reductive glycine pathway in C. necator using a transposon-mediated selection approach. The insertion methodology allowed selection for condition-specific tailored pathway expression as improved pathway performance led to better growth. I then showed my engineered strains to exceed the biomass yields of the Calvin cycle utilizing wildtype C. necator on formate. This demonstrated for the first time the superiority of a synthetic formate assimilation pathway and by extension of synthetic carbon fixation efforts as a whole. In chapter 3, I engineered a segment of a synthetic carbon fixation cycle in Escherichia coli. The GED cycle was proposed as a Calvin cycle alternative that does not perform a wasteful oxygenation reaction and is more energy efficient. The pathways simple architecture and reasonable driving force made it a promising candidate for enhanced carbon fixation. I created a deletion strain that coupled growth to carboxylation via the GED pathway segment. The CO2 dependence of the engineered strain and 13C-tracer analysis confirmed operation of the pathway in vivo. In the final chapter, I present my efforts of implementing the GED cycle also in C. necator, which might be a better-suited host, as it is accustomed to formatotrophic and hydrogenotrophic growth. To provide the carboxylation substrate in vivo, I engineered C. necator to utilize xylose as carbon source and created a selection strain for carboxylase activity. I verify activity of the key enzyme, the carboxylase, in the decarboxylative direction. Although CO2-dependent growth of the strain was not obtained, I showed that all enzymes required for operation of the GED cycle are active in vivo in C. necator. I then evaluate my success with engineering a linear and cyclical one-carbon fixation pathway in two different microbial hosts. The linear reductive glycine pathway presents itself as a much simpler metabolic solution for formate dependent growth over the sophisticated establishment of hard-to-balance carbon fixation cycles. Last, I highlight advantages and disadvantages of C. necator as an upcoming microbial benchmark organism for synthetic metabolism efforts and give and outlook on its potential for the future of C1-based manufacturing. N2 - Der Rohstoffbedarf einer ständig wachsenden menschlichen Bevölkerung und der damit einhergehende Anstieg der Kohlenstoffemissionen erfordert Konzepte zur CO2-Bindung für die Produktion von kohlenstoffhaltigen Molekülen. Hier bietet die mikrobielle Produktion von Chemikalien eine nachhaltige Alternative zu den bisher etablierten Syntheseprozessen. Da die Nutzung von pflanzlich hergestelltem Zucker durch die entsprechenden Mikroben allerdings in direkter Konkurrenz zur menschlichen Nahrungsmittelversorgung steht, soll aus CO2 und erneuerbarer Energie synthetisiertes Formiat (Ameisensäure) als alternativer Nährstoff nutzbar gemacht werden. Formiat fungiert als ein stabiler, leicht löslicher und sicher zu lagernder Energiespeicher, der als Ausgangsstoff mikrobieller Produktionen einen vielversprechenden Ansatz für eine nachhaltige Kreislaufwirtschaft eröffnet. Dieses Potenzial wurde bisher nicht realisiert, da es an einfach zu modifizierenden Mikroben, die Formiat effizient nutzen, mangelt. Zwecks mikrobieller Formiatnutzung wurden deshalb synthetische Stoffwechselwege entwickelt, die die Ein-Kohlenstoff Quelle deutlich effizienter als natürliche Alternativen in den Metabolismus einbringen. Die effizienteste Variante für die aerobe Formiat-Assimilation ist hierbei der reduktive Glycin-Stoffwechselweg. Während Letzterer zwar bereits erfolgreich in Mikroben eingebracht wurde, übertraf die Leistung dieser synthetischen Stämme trotz der theoretisch höheren Stoffwechseleffizienz nicht die des natürlichen Stoffwechsels. In dieser Arbeit entwickelte und optimierte ich zwei verschiedene synthetische Ein-Kohlenstoff-Fixierungswege in gramnegativen Bakterien, um die Grenzen der natürlichen CO2 Nutzung zu überschreiten. Das erste Kapitel untersuchte das Potenzial von Cupriavidus necator als vielversprechenden formatotrophen Wirt für die Produktion von Chemikalien mit hohem Mehrwert. Die Ameisensäuretoleranz von C. necator wurde getestet und ein Produktionsweg für Crotonat in einer modularen Weise etabliert. Schließlich wurde Bioprozessoptimierung genutzt, um Crotonat aus Formiat mit einem Titer von 148 mg/L zu produzieren. Im zweiten Kapitel integrierte ich den synthetischen reduktiven Glycinweg anstelle der nativen Formiatassimilierung chromosomal in C. necator und optimierte die Expressionsniveaus der beteiligten Enzyme und somit Wachstum des Stammes mit Hilfe eines transposonbasierten Selektionsansatzes. Die Kombination von randomisierter Insertionsmethodik und erzwungener Nutzung des Stoffwechselwegs für Wachstum auf Formiat ermöglichte hier die Selektion für bedingungsspezifisch optimale Expression des Stoffwechselweges, da eine höhere Operationsrate des Stoffwechselweges zu verbessertem Wachstum führte. Anschließend zeigte ich, dass meine optimierten synthetischen Stämme die Biomasseerträge des Calvin-Zyklus von C. necator auf Formiat übertrafen. Dies zeigte zum ersten Mal die bisher nur theoretisch prognostizierte Überlegenheit eines synthetischen Formiat-Assimilationsweges und damit der synthetischen Kohlenstofffixierung gegenüber natürlicher Kohlenstofffixierung. In Kapitel 3 entwickelte ich ein Segment des GED-Zyklus zur synthetischen CO2-Fixierung in Escherichia coli. Der GED-Zyklus ist eine Alternative zum Calvin-Zyklus, die im Gegensatz zu Letzterem keine ungewollte Aktivität mit Sauerstoff hat und somit energieeffizienter CO2 fixiert. Die einfache Architektur des Kreislaufs mit nur einer kritischen Reaktion macht ihn zu einem vielversprechenden Kandidaten für verbesserte Kohlenstofffixierung. Ich erzeugte einen Deletionsstamm, dessen Wachstum an besagte Reaktion, genauer die Carboxylierung mittels des GED-Segments, gekoppelt war. Die Fähigkeit des Stammes, CO2-abhängig zu wachsen, und die 13C-Tracer-Analyse bestätigten die Funktionalität des Weges in vivo. Im letzten Kapitel versuchte ich den GED-Zyklus auch in C. necator zu implementieren, da C. necator durch sein formatotrophes Wachstum potenziell ein vielversprechenderer Wirt sein könnte. Hierbei war das Wachstum des Calvin-Zyklus abhängigen Wildtyps, wie auch für den reduktiven Glycin-Weg, ein guter Referenzwert für den Vergleich mit den synthetischen Stämmen. Ich veränderte C. necator genetisch, sodass es das GED Substrat Xylose nutzt und zeigte, dass alle Enzyme für den Betrieb des Kohlenstofffixierungsweges in separierten Testeinheiten in vivo in C. necator funktional sind. Schließlich vergleiche ich meine Ergebnisse bezüglich der Entwicklung von linearer und zyklischer Ein-Kohlenstoff-Fixierung in zwei verschiedenen mikrobiellen Wirten. Es zeigt sich, dass der simplere lineare reduktive Glycinweg synthetische Formatotrophie von bisher unerschlossener Effizienz erlaubt, während sich die Realisierung komplexer autokatalytischer Kohlenstofffixierungszyklen als deutlich schwieriger erweist. Ich hebe die Vor- und Nachteile von C. necator als zukünftigem Plattformorganismus für synthetische Stoffwechselprozesse hervor und gebe einen Ausblick auf sein Potenzial für die Zukunft der C1-basierten Produktion. KW - synthetic biology KW - metabolic engineering KW - synthetic metabolism KW - carbon fixation KW - C1 assimilation KW - formate KW - reductive glycine pathway KW - GED cycle KW - cupriavidus necator KW - Ralstonia eutropha KW - H16 KW - Alcaligenes eutrophus KW - Wautersia eutropha KW - Hydrogenomonas eutrophus KW - Escherichia coli KW - bio-economy KW - Calvin cycle KW - Alcaligenes eutrophus KW - C1-Assimilation KW - Calvinzyklus KW - Escherichia coli KW - GED-Zyklus KW - H16 KW - Hydrogenomonas eutrophus KW - Ralstonia eutropha KW - Wautersia eutropha KW - Bioökonomie KW - Kohlenstofffixerung KW - Cupriavidus necator KW - Formiat KW - metabolisches Modifizieren KW - reduktiver Glycinstoffwechselweg KW - synthetische Biologie KW - synthetischer Metabolismus Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646273 ER - TY - THES A1 - Brembach, Theresa-Charlotte T1 - Regulators and effects of neutrophilic granulocytes in hidradenitis suppurativa Y1 - 2024 ER - TY - THES A1 - Blanz, Alkis T1 - Essays on the macroeconomics of climate change and policy Y1 - 2024 ER - TY - THES A1 - Ranaee, Mahdi T1 - Skepticism BT - Cartesian and Kantian N2 - This dissertation offers new and original readings of three major texts in the history of Western philosophy: Descartes’s “First Meditation,” Kant’s “Transcendental Deduction,” and his “Refutation of Idealism.” The book argues that each text addresses the problem of skepticism and posits that they have a hitherto underappreciated, organic relationship to one another. The dissertation begins with an analysis of Descartes’ “First Meditation,” which I argue offers two distinct and independent skeptical arguments that differ in both aim and scope. I call these arguments the “veil of ideas” argument and the “author of my origin” argument. My reading counters the standard interpretation of the text, which sees it as offering three stages of doubt, namely the occasional fallibility of the senses, the dream hypothesis, and the evil demon hypothesis. Building on this, the central argument of the dissertation is that Kant’s “Transcendental Deduction” actually transforms and radicalizes Descartes’s Author of My Origin argument, reconceiving its meaning within the framework of Kant’s own transcendental idealist philosophy. Finally, I argue that the Refutation of Idealism offers a similarly radicalized version of Descartes’s Veil of Ideas argument, albeit translated into the framework of transcendental idealism. N2 - Diese Dissertation bietet neue und originelle Lesarten von drei wichtigen Texten in der Geschichte der abendländischen Philosophie: Descartes‘ „Erste Meditation“, Kants „transzendentale Deduktion“ und seine „Widerlegung des Idealismus“. Die Arbeit argumentiert, dass jeder dieser Texte das Problem des Skeptizismus aufgreift, und schlägt vor, dass sie in einer bisher unterschätzten organischen Beziehung zueinander stehen. Die Dissertation beginnt mit einer Analyse von Descartes‘ „Erster Meditation“, die, wie ich behaupte, zwei verschiedene und unabhängige skeptische Argumente enthält, die sich in Ziel und Umfang unterscheiden. Ich nenne diese Argumente das Argument vom „Schleier der Ideen“ und das Argument vom „Urheber meines Ursprungs“. Meine Lesart widerspricht der Standardinterpretation des Textes, die drei Ebenen des Zweifels anbietet, nämlich die gelegentliche Fehlbarkeit der Sinne, die Traumhypothese und die Hypothese des bösen Dämons. Darauf aufbauend ist das zentrale Argument der Arbeit, dass Kants „Transzendentale Deduktion“ Descartes‘ „Urheber meines Ursprungs“-Argument transformiert und radikalisiert, indem sie dessen Bedeutung im Rahmen von Kants eigener transzendental-idealistischer Philosophie neu interpretiert. Schließlich argumentiere ich, dass die Widerlegung des Idealismus eine ähnlich radikalisierte Version von Descartes' Argument des Schleiers der Ideen bietet, wenn auch im Rahmen des transzendentalen Idealismus. KW - Descartes KW - Kant KW - skepticism KW - transcendental Deduction KW - refutation of idealism KW - Descartes KW - Kant KW - transzendentale Deduktion KW - Widerlegung des Idealismus KW - Skeptizismus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645652 ER - TY - THES A1 - Eckert, Konstantin Franz T1 - Vorleben, vorsterben, vorglauben? BT - Menschenführung in der Wehrmacht? T2 - Krieg und Konflikt N2 - Wie wurden die Soldaten der Wehrmacht – in der Kaserne und an der Front – von ihren Unteroffizieren und Offizieren behandelt? Wie war deren Menschenführung beeinflusst vom Nationalsozialismus und welche Bedeutung hatte sie für den Zusammenhalt des deutschen Heeres im Zweiten Weltkrieg? Konstantin Franz Eckert schließt, gestützt auf eine breite Quellenbasis, eine wichtige Forschungslücke. Seine Studie zeigt, wie junge Männer auf ihren Militärdienst vorbereitet wurden und was sie von ihren Vorgesetzten erwarteten. Sie weist nach, dass Vorbild und persönlicher Einsatz, Konstruktivität und absolute Unterordnung unter das Gehorsamsprinzip im Dienst des NS-Regimes zentrale Führungselemente der Wehrmacht waren. Zudem wirft sie einen Blick auf die militärische Ausbildung und ordnet die alten Narrative vom »Kasernenhofschleifer« sachlich ein. Y1 - 2024 SN - 978-3-593-51865-7 SN - 978-3-593-45704-8 SN - 978-3-593-45703-1 VL - 22 PB - Campus CY - Frankfurt am Main ER - TY - THES A1 - Blaser, Berenike Lisa T1 - Premenstrual symptoms as a function of altered central autonomous nervous activity T1 - Prämenstruelle Symptome als Funktion veränderter zentralautonomer Netzwerkaktivität BT - a neurovisceral integration perspective on premenstrual syndrome BT - eine neuroviszerale Integrations-Perspektive auf das Prämenstruelle Syndrom N2 - The experience of premenstrual syndrome (PMS) affects up to 90% of individuals with an active menstrual cycle and involves a spectrum of aversive physiological and psychological symptoms in the days leading up to menstruation (Tschudin et al., 2010). Despite its high prevalence, the precise origins of PMS remain elusive, with influences ranging from hormonal fluctuations to cognitive, social, and cultural factors (Hunter, 2007; Matsumoto et al., 2013). Biologically, hormonal fluctuations, particularly in gonadal steroids, are commonly believed to be implicated in PMS, with the central factor being varying susceptibilities to the fluctuations between individuals and cycles (Rapkin & Akopians, 2012). Allopregnanolone (ALLO), a neuroactive steroid and progesterone metabolite, has emerged as a potential link to PMS symptoms (Hantsoo & Epperson, 2020). ALLO is a positive allosteric modulator of the GABAA receptor, influencing inhibitory communication (Rupprecht, 2003; Andréen et al., 2006). Different susceptibility to ALLO fluctuations throughout the cycle may lead to reduced GABAergic signal transmission during the luteal phase of the menstrual cycle. The GABAergic system's broad influence leads to a number of affected physiological systems, including a consistent reduction in vagally mediated heart rate variability (vmHRV) during the luteal phase (Schmalenberger et al., 2019). This reduction in vmHRV is more pronounced in individuals with high PMS symptoms (Baker et al., 2008; Matsumoto et al., 2007). Fear conditioning studies have shown inconsistent associations with cycle phases, suggesting a complex interplay between physiological parameters and PMS-related symptoms (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). The neurovisceral integration model posits that vmHRV reflects the capacity of the central autonomous network (CAN), which is responsible for regulatory processes on behavioral, cognitive, and autonomous levels (Thayer & Lane, 2000, 2009). Fear learning, mediated within the CAN, is suggested to be indicative of vmHRV's capacity for successful VI regulation (Battaglia & Thayer, 2022). Given the GABAergic mediation of central inhibitory functional connectivity in the CAN, which may be affected by ALLO fluctuations, this thesis proposes that fluctuating CAN activity in the luteal phase contributes to diverse aversive symptoms in PMS. A research program was designed to empirically test these propositions. Study 1 investigated fear discrimination during different menstrual cycle phases and its interaction with vmHRV, revealing nuanced effects on acoustic startle response and skin conductance response. While there was heightened fear discrimination in acoustic startle responses in participants in the luteal phase, there was an interaction between menstrual cycle phase and vmHRV in skin conductance responses. In this measure, heightened fear discrimination during the luteal phase was only visible in individuals with high resting vmHRV; those with low vmHRV showed reduced fear discrimination and higher overall responses. Despite affecting the vast majority of menstruating people, there are very limited tools available to reliably assess these symptoms in the German speaking area. Study 2 aimed at closing this gap, by translating and validating a German version of the short version of the Premenstrual Assessment Form (Allen et al., 1991), providing a reliable tool for future investigations, which closes the gap in PMS questionnaires in the German-speaking research area. Study 3 employed a diary study paradigm to explore daily associations between vmHRV and PMS symptoms. The results showed clear simultaneous fluctuations between the two constructs with a peak in PMS and a low point in vmHRV a few days before menstruation onset. The association between vmHRV and PMS was driven by psychological PMS symptoms. Based on the theoretical considerations regarding the neurovisceral perspective on PMS, another interesting construct to consider is attentional control, as it is closely related to functions of the CAN. Study 4 delved into attentional control and vmHRV differences between menstrual cycle phases, demonstrating an interaction between cycle phase and PMS symptoms. In a pilot, we found reduced vmHRV and attentional control during the luteal phase only in participants who reported strong PMS. While Studies 1-4 provided evidence for the mechanisms underlying PMS, Studies 5 and 6 investigated short- and long-term intervention protocols to ameliorate PMS symptomatology. Study 5 explored the potential of heart rate variability biofeedback (HRVB) in alleviating PMS symptoms and a number of other outcome measures. In a waitlist-control design, participants underwent a 4-week smartphone-based HRVB intervention. The results revealed positive effects on PMS, with larger effect sizes on psychological symptoms, as well as on depressive symptoms, anxiety/stress and attentional control. Finally, Study 6 examined the acute effects of HRVB on attentional control. The study found positive impact but only in highly stressed individuals. The thesis, based on this comprehensive research program, expands our understanding of PMS as an outcome of CAN fluctuations mediated by GABAA receptor reactivity. The results largely support the model. These findings not only deepen our understanding of PMS but also offer potential avenues for therapeutic interventions. The promising results of smartphone-based HRVB training suggest a non-pharmacological approach to managing PMS symptoms, although further research is needed to confirm its efficacy. In conclusion, this thesis illuminates the complex web of factors contributing to PMS, providing valuable insights into its etiological underpinnings and potential interventions. By elucidating the relationships between hormonal fluctuations, CAN activity, and psychological responses, this research contributes to more effective treatments for individuals grappling with the challenges of PMS. The findings hold promise for improving the quality of life for those affected by this prevalent and often debilitating condition. N2 - Das prämenstruelle Syndrom (PMS) betrifft bis zu 90% aller Personen mit einem aktiven Menstruationszyklus und umfasst ein Spektrum aversiver physiologischer und psychologischer Symptome in den Tagen vor der Menstruation (Tschudin et al., 2010). Trotz der hohen Prävalenz bleiben die genauen Ursachen von PMS weitgehend unklar, wobei Einflüsse von hormonellen Schwankungen bis hin zu kognitiven, sozialen und kulturellen Faktoren reichen (Hunter, 2007; Matsumoto et al., 2013). Von einer biologischen Perspektive werden hormonelle Schwankungen insbesondere in den Geschlechtshormonen häufig mit PMS in Verbindung gebracht. Dabei gelten individuelle und zyklusabhängige Anfälligkeiten gegenüber der hormonellen Schwankungen als zentraler Faktor (Rapkin & Akopians, 2012). Allopregnanolon (ALLO), ein neuroaktives Steroid und ein Progesteronmetabolit, hat sich als potenzielle Verbindung zu PMS-Symptomen herausgestellt (Hantsoo & Epperson, 2020). ALLO ist ein positiver allosterischer Modulator des GABAA-Rezeptors, der die inhibitorische Kommunikation beeinflusst (Rupprecht, 2003; Andréen et al., 2006). Eine unterschiedliche Anfälligkeit für ALLO-Schwankungen im Verlauf des Menstruationszyklus kann zu einer verminderten GABAergen Signalübertragung während der Lutealphase führen. Der breite Einfluss des GABAergen Systems führt zu einer Vielzahl von betroffenen physiologischen Systemen, einschließlich einer konstanten Reduktion der vagal vermittelten Herzfrequenzvariabilität (vmHRV) während der Lutealphase (Schmalenberger et al., 2019). Diese Reduktion der vmHRV ist bei Personen mit starken PMS-Symptomen stärker ausgeprägt (Baker et al., 2008; Matsumoto et al., 2007). Studien zur Furchtkonditionierung haben inkonsistente Assoziationen mit den Zyklusphasen gezeigt, was auf ein komplexes Zusammenspiel zwischen physiologischen Parametern und PMS-spezifischen Symptomen hindeutet (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). Das neuroviszerale Integrationsmodell postuliert, dass die vmHRV die Kapazität des zentralen autonomen Netzwerks (CAN) widerspiegelt, das für regulatorische Prozesse auf Verhaltens-, kognitiver und autonomer Ebene verantwortlich ist (Thayer & Lane, 2000, 2009). Das innerhalb des CAN vermittelte Furchtlernen wird als Indikator für die Fähigkeit der vmHRV zur erfolgreichen Regulation betrachtet (Battaglia & Thayer, 2022). Angesichts der GABAergen Vermittlung der zentralen inhibitorischen funktionellen Konnektivität im CAN, die durch ALLO-Schwankungen beeinflusst werden kann, postuliert diese Arbeit, dass eine fluktuierende CAN-Aktivität in der Lutealphase zu den vielfältigen aversiven Symptomen des PMS beiträgt. Ein Forschungsprogramm wurde konzipiert, um diese Annahmen empirisch zu überprüfen. Studie 1 untersuchte die Furchtdiskriminierung während verschiedener Menstruationszyklusphasen und deren Wechselwirkung mit vmHRV. Dabei wurden nuancierte Effekte auf den akustischen Schreckreflex und die Hautleitfähigkeitsreaktion aufgedeckt. Während eine gesteigerte Furchtdiskriminierung in akustischen Startlereaktionen bei Teilnehmenden in der Lutealphase festgestellt wurde, zeigte sich in den Hautleitfähigkeitsreaktionen eine Wechselwirkung zwischen Menstruationszyklusphase und vmHRV. In dieser Variable war eine erhöhte Furchtdiskriminierung während der Lutealphase nur bei Personen mit hoher Ruhe-vmHRV sichtbar; Personen mit niedriger vmHRV zeigten eine verringerte Furchtdiskriminierung und insgesamt stärkere Reaktionen. Trotzdem PMS die Mehrzahl aller menstruierender Personen betrifft, gibt es im deutschen Sprachraum wenige Instrumente, die die Symptomatik reliabel erfassen. Um diese Lücke zu schließen, übersetzte und validierte Studie 2 eine deutsche Version der Kurzversion der Premenstrual Assessment Form (Allen et al., 1991), wodurch ein reliables Instrument für zukünftige Untersuchungen bereitgestellt wurde. Dieses schließt eine Lücke in PMS-Fragebögen in der deutschen Forschungslandschaft. Studie 3 verwendete ein Tagebuchstudienparadigma, um tägliche Zusammenhänge zwischen vmHRV und PMS-Symptomen zu erforschen. Die Ergebnisse zeigten klare simultane Fluktuationen zwischen den beiden Konstrukten mit einem Höhepunkt in PMS und einem Tiefpunkt in vmHRV einige Tage vor Beginn der Menstruation. Die Assoziation zwischen vmHRV und PMS wurde hautsächlich durch psychologische PMS-Symptome verursacht. Basierend auf den theoretischen Überlegungen zur neuroviszeralen Perspektive auf PMS, ist ein weiteres interessantes zu betrachtende Konstrukt Aufmerksamkeitskontrolle, da diese eng mit Funktionen des CAN zusammenhängt. Studie 4 untersuchte Aufmerksamkeitskontrolle und Unterschiede in der vmHRV zwischen der Luteal- und Follikelphase des Menstruationszyklus und zeigte eine Wechselwirkung zwischen Zyklusphase und PMS-Symptomen. In einer Pilotstudie fanden wir eine reduzierte vmHRV und Aufmerksamkeitskontrolle während der Lutealphase ausschließlich bei Teilnehmenden, die starke PMS-Symptome berichteten. Während die Studien 1-4 Evidenz für die Mechanismen hinter PMS lieferten, untersuchten Studien 5 und 6 Kurz- und Langzeitinterventionsprotokolle zur Verbesserung der PMS-Symptomatik. Studie 5 untersuchte den Effekt von Herzratenvariabilitätsbiofeedback (HRVB) auf PMS-Symptome und einer Reihe anderer Outcomemaße. In einem Wartelisten-Kontroll-Design durchliefen die Teilnehmenden eine 4-wöchige Smartphone-basierte HRVB-Intervention. Die Ergebnisse zeigten positive Effekte auf PMS, mit größeren Effektstärken in psychologischen Symptomen, sowie bei depressiven Symptomen, Ängstlichkeit/Stress und Aufmerksamkeitskontrolle. Schließlich untersuchte Studie 6 die akuten Effekte von HRVB auf Aufmerksamkeitskontrolle. Die Studie zeigte positive Effekte, jedoch nur bei stark gestressten Personen. KW - premenstrual syndrome KW - prämenstruelles Syndrom KW - heart rate variability KW - Herzratenvariabilität KW - biofeedback KW - Aufmerksamkeit KW - attention Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645970 ER - TY - THES A1 - Pörschke, Alexander T1 - Koalitionsbildung und Gesetzgebung im Semi-Parlamentarismus T1 - Coalition formation and legislation in semi-parliamentarism N2 - Der Semi-Parlamentarismus beschreibt das Regierungssystem, in dem die Regierung von einem Teil des Parlaments gewählt wird und abberufen werden kann, von einem anderen Teil des Parlaments aber unabhängig ist. Beide Kammern müssen dabei der Gesetzgebung zustimmen. Dieses von Steffen Ganghof klassifizierte System ergänzt gängige Regierungssystemtypologien, wie sie beispielsweise von David Samuels und Matthew Shugart genutzt werden. Der Semi-Parlamentarismus ist der logische Gegenpart zum Semi-Präsidentialismus, bei dem nur ein Teil der Exekutive von der Legislative abhängt, während im Semi-Parlamentarismus die Exekutive von nur einem Teil der Legislative abhängt. Der Semi-Parlamentarismus verkörpert so ein System der Gewaltenteilung ohne einen exekutiven Personalismus, wie er durch die Direktwahl und Unabhängigkeit der Regierungchef:in im Präsidentialismus hervorgerufen wird. Dadurch ist der Semi-Parlamentarismus geeignet, Unterschiede zwischen Parlamentarismus und Präsidentialismus auf den separaten Einfluss der Gewaltenteilung und des exekutiven Personalismus zurückzuführen. Die Untersuchung des Semi-Parlamentarismus ist daher für die Regierungssystemliteratur insgesamt von Bedeutung. Der Semi-Parlamentarismus ist dabei kein rein theoretisches Konstrukt, sondern existiert im australischen Bundesstaat, den australischen Substaaten und Japan. Die vorliegende Dissertation untersucht erstmals umfassend die Gesetzgebung der semi-parlamentarischen Staaten als solchen. Der Fokus liegt dabei auf den zweiten Kammern, da diese durch die Unabhängigkeit von der Regierung der eigentliche Ort der Gesetzgebung sind. Die Gesetzgebung in Parlamentarismus und Präsidentialismus unterscheidet sich insbesondere in der Geschlossenheit der Parteien, der Koalitionsbildung und dem legislativen Erfolg der Regierungen. Diese Punkte sind daher auch von besonderem Interesse bei der Analyse des Semi-Parlamentarismus. Die semi-parlamentarischen Staaten unterscheiden sich auch untereinander teilweise erheblich in der institutionellen Ausgestaltung wie den Wahlsystemen oder den verfügbaren Mitteln zur Überwindung von Blockadesituationen. Die Darstellung und die Analyse der Auswirkungen dieser Unterschiede auf die Gesetzgebung ist neben dem Vergleich des Semi-Parlamentarismus mit anderen Systemen das zweite wesentliche Ziel dieser Arbeit. Als Fundament der Analyse habe ich einen umfangreichen Datensatz erhoben, der alle Legislaturperioden der australischen Staaten zwischen 1997 und 2019 umfasst. Wesentliche Bestandteile des Datensatzes sind alle namentlichen Abstimmungen beider Kammern, alle eingebrachten und verabschiedeten Gesetzen der Regierung sowie die mit Hilfe eines Expert-Surveys erhobenen Parteipositionen in den relevanten Politikfeldern auf substaatlicher Ebene. Hauptsächlich mit der Hilfe von Mixed-Effects- und Fractional-Response-Analysen kann ich so zeigen, dass der Semi-Parlamentarismus in vielen Aspekten eher parlamentarischen als präsidentiellen Systemen gleicht. Nur die Koalitionsbildung erfolgt deutlich flexibler und unterscheidet sich daher von der typischen parlamentarischen Koalitionsbildung. Die Analysen legen nahe, dass wesentliche Unterschiede zwischen Parlamentarismus und Präsidentialismus eher auf den exekutiven Personalismus als auf die Gewaltenteilung zurückzuführen sind. Zwischen den semi-parlamentarischen Staaten scheinen vor allem die Kontrolle des Medians beider Parlamentskammern durch die Regierung und die Möglichkeit der Regierung, die zweite Kammer mitaufzulösen, zu entscheidenden Unterschieden in der Gesetzgebung zu führen. Die Kontrolle des Medians ermöglicht eine flexible Koalitionsbildung und führt zu höheren legislativen Erfolgsraten. Ebenso führt eine möglichst leichte Auflösungsmöglichkeit der zweiten Kammern zu höheren legislativen Erfolgsraten. Die Parteigeschlossenheit ist unabhängig von diesen Aspekten in beiden Kammern der semi-parlamentarischen Parlamente sehr hoch. N2 - Semi-parliamentarism describes a system of government in which the government is elected and can be dismissed by one part of the parliament, but is independent of another part of the parliament. Both chambers must approve legislation. This system, as classified by Steffen Ganghof, complements common typologies of government systems such as those used by David Samuels and Matthew Shugart. Semi-parliamentarism is the logical counterpart to semi-presidentialism, in which only part of the executive depends on the legislature, while in semi-parliamentarism the executive depends on only part of the legislature. Semi-parliamentarism thus embodies a system of separation of powers without executive personalism, which is caused by the direct election and independence of the head of government in presidentialism. This makes semi-parliamentarism suitable for attributing differences between parliamentarism and presidentialism to the separate influence of separation of powers and executive personalism. The study of semi-parliamentarism is therefore important to the literature on governmental systems as a whole. Semi-parliamentarism is not a purely theoretical construct, but exists in the Australian federal state, the Australian sub-states, and Japan. This dissertation is the first to comprehensively examine the legislation of semi-parliamentary states as such. The focus is on the second chambers, which, because of their independence from the government, are the real locus of legislation. Legislation in parliamentary and presidential systems differs in terms of party unity, the formation of coalitions, and the legislative success of governments. These points are therefore of particular interest in the analysis of semi-parliamentarism. Some of the semi-parliamentary states also differ considerably from one another in terms of their institutional design, such as their electoral systems or the means available to overcome deadlock situations. In addition to comparing semi-parliamentarism with other systems, the second main objective of this thesis is to present and analyze the effects of these differences on legislation. As a basis for the analysis, I collected a comprehensive dataset covering all Australian state parliaments between 1997 and 2019. Essential components of the dataset are all roll call votes of both chambers, all introduced and passed government bills as well as the party positions in relevant policy areas at the sub-state level, which were collected with the help of an expert survey. Using mainly mixed-effects and fractional-response analyses, I show that semi-parliamentarism is more similar to parliamentary than to presidential systems in many respects. Only coalition formation is much more flexible and thus differs from typical parliamentary coalition formation. The analyses suggest that major differences between parliamentarism and presidentialism are due more to executive personalism than to the separation of powers. In semi-parliamentary states, government control over the median of the two parliamentary chambers and the government's ability to dissolve the second chamber seem to lead to significant differences in legislation. Control of the median allows for flexible coalition building and leads to higher legislative success rates. Similarly, making it as easy as possible to dissolve the second chamber leads to higher legislative success rates. Regardless of these aspects, party unity is very high in both chambers of semi-parliamentary parliaments. KW - Semi-Parlamentarismus KW - Gewaltenteilung KW - exekutiver Personalismus KW - Koalitionsbildung KW - legislative Erfolgsraten KW - Parteigeschlossenheit KW - Australien KW - semi-parliamentarism KW - separation of powers KW - executive personalism KW - coalition formation KW - legislative success rates KW - party unity KW - Australia Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634498 ER - TY - THES A1 - Sareeto, Apatsara T1 - Algebraic properties of a subsemigroup of the symmetric inverse semigroup Y1 - 2024 ER - TY - THES A1 - Runge, Isabell T1 - Lehrkräftefortbildungen und Kompetenzen von Lehrkräften im Kontext der Digitalisierung BT - digitalbezogene Lehrkräftefortbildungen, selbsteingeschätzte digitale Kompetenzen von Lehrkräften und digitalgestützte Unterrichtsqualität N2 - Digitale Medien erlangen eine zunehmende Bedeutung für die Gestaltung von unterrichtlichen Lehr- und Lernprozessen (KMK, 2021; Scheiter, 2021). Die erfolgreiche Integration digitaler Medien und die qualitätsvolle Gestaltung digitalgestützten Unterrichts ist dabei abhängig von den digitalen Kompetenzen der beteiligten Lehrkräfte (KMK, 2021; Lachner et al., 2020). Lehrkräftefortbildungen zu Themen digitaler Medien sind in diesem Kontext von großer Relevanz. Die Teilnahme an Fortbildungen zu digitalen Themen kann zur Förderung der (selbsteingeschätzten) digitalen Kompetenzen sowie des digitalgestützten Unterrichts beitragen (KMK, 2021; SWK, 2022). Die Zusammenhänge zwischen Lehrkräftefortbildungen, Kompetenzen und Handeln von Lehrkräften werden auf theoretischer Ebene im Modell der Determinanten und Konsequenzen der professionellen Kompetenz von Lehrkräften nach Kunter et al. (2011) beschrieben. Allerdings ist bislang ungeklärt, inwiefern die für allgemeine Lehrkräftefortbildungen formulierten Zusammenhänge auch auf den digitalen Kontext übertragbar sind. Bisher weisen nur wenige empirische Ergebnisse darauf hin, dass digitalbezogene Lehrkräftefortbildungen mit selbsteingeschätzten digitalen Kompetenzen (z. B. Mayer et al., 2021; Ning et al., 2022; Reisoğlu, 2022) und dem digitalgestützten Unterrichtshandeln zusammenhängen (z. B. Alt, 2018; Gisbert Cervera & Lázaro Cantabrana, 2015). Eine zentrale Rolle für qualitätsvolles Unterrichtshandeln spielen die Handlungskompetenzen von Lehrkräften (Kunter et al., 2011). Auch im digitalen Kontext sind (selbsteingeschätzte) Kompetenzen von Lehrkräften für das unterrichtliche Handeln mit digitalen Medien relevant (z. B. Hatlevik, 2017; Spiteri & Rundgren, 2020). Eine systematische Darstellung von Kompetenzen von Lehrkräften für den unterrichtsbezogenen Einsatz digitaler Medien leistet der European Framework for the Digital Competence of Educators (DigCompEdu; Redecker & Punie, 2017). Jedoch liegen bisher nur wenige empirische Forschungsarbeiten zur Validierung dieses Rahmenmodells vor (z. B. Antonietti et al., 2022). Dabei bietet das DigCompEdu-Modell im Vergleich zu anderen Kompetenzmodellen wie beispielsweise dem Modell des Technological Pedagogical Content Knowledge (TPACK; Mishra & Koehler, 2006) einen differenzierten Blick auf verschiedene Kompetenzdimensionen. Die aufgezeigten Forschungslücken aufnehmend, befasst sich die vorliegende Dissertation mit den Faktoren, die zu einer hohen Unterrichtsqualität im digitalgestützten Unterricht beitragen. Die drei empirischen Studien dieser Dissertation behandeln aus verschiedenen Perspektiven die Zusammenhänge zwischen der Teilnahme an digitalbezogenen Lehrkräftefortbildungen, den selbsteingeschätzten digitalen Kompetenzen von Lehrkräften und der selbstberichteten digitalgestützten Unterrichtsqualität. Die Studien orientieren sich dabei theoriegeleitet an den Annahmen des Modells der Determinanten und Konsequenzen der professionellen Kompetenz von Lehrkräften nach Kunter et al. (2011). Studie 1 widmet sich der Frage, inwieweit die Teilnahme an digitalbezogenen Fortbildungen und Lehrkräftekooperationen im digitalen Kontext mit selbsteingeschätzten digitalen Kompetenzen, Interesse am digitalgestützten Unterrichten und qualitätsvollem Unterrichten mit digitalen Medien zusammenhängen. Die Ergebnisse manifester Pfadmodelle verdeutlichen, dass die Teilnahme an digitalbezogenen Fortbildungen und Kooperationen mit hohen digitalen Kompetenzen, einem hohen Interesse am digitalgestützten Unterrichten und einem selbstberichteten häufigen Einsatz digitaler Medien zur Umsetzung qualitätsvollen Unterrichtens (kognitive Aktivierung und Individualisierung) einhergingen. Digitalgestütztes Unterrichtshandeln wurde in bisherigen empirischen Studien vorrangig über die Nutzungshäufigkeit digitaler Medien im Unterricht erhoben, welche jedoch keine Rückschlüsse auf die Qualität des Einsatzes zulässt (Lachner et al., 2020; Scheiter, 2021). Der qualitätsvolle Einsatz digitaler Medien entlang der drei generischen Basisdimensionen (Klieme et al., 2009) wird daher in allen drei Studien der Dissertation berücksichtigt. In Studie 1 konnte zudem gezeigt werden, dass die selbsteingeschätzten digitalen Kompetenzen im Bereich TPACK die querschnittlichen Zusammenhänge zwischen der Teilnahmehäufigkeit von Lehrkräften an digitalbezogenen Fortbildungen und der Nutzungshäufigkeit digitaler Medien zur Umsetzung von kognitiver Aktivierung und Individualisierung vermitteln. In Studie 2 wurden Skalen zur Erfassung selbsteingeschätzter digitaler Kompetenzen basierend auf dem DigCompEdu-Modell entwickelt und getestet. Konkret wurde dabei die Kompetenzdimension der Lernerorientierung mit den Subdimensionen Differenzierung und Aktive Einbindung von Schüler*innen in den Blick genommen. Die Ergebnisse der durchgeführten Strukturgleichungsmodellierungen legen eine bifaktorielle Faktorstruktur nahe, die sowohl die zwei theoretisch angenommenen Subdimensionen repräsentiert als auch einen generellen Faktor beinhaltet, der sich als übergreifende Lernerorientierung interpretiert lässt. Die selbsteingeschätzten digitalen Kompetenzen in Bereich der Lernerorientierung standen in signifikant positivem Zusammenhang mit dem selbstberichteten Einsatz digitaler Medien zur selbstberichteten Umsetzung qualitätsvollen Unterrichtshandelns (Klassenführung, kognitive Aktivierung und konstruktive Unterstützung). Studie 3 führt die Themenfelder der Fortbildungen und der Kompetenzen im digitalen Kontext zusammen und befasst sich mit dem Zusammenhang zwischen Fortbildungsthemen und digitalen Kompetenzen. Ergebnisse von Pfadmodellierungen zeigen, dass die Teilnahme an digitalbezogenen Fortbildungen zu den technologisch-pädagogisch-inhaltlichen Themen „Computergestützte Förderung der Schüler*innen“ und „Fachspezifische Unterrichtsentwicklung mit digitalen Medien“ mit dem selbstberichteten qualitätsvollen Einsatz digitaler Medien zur kognitiven Aktivierung und konstruktiven Unterstützung einhergehen. Diese Befunde stärken die Annahme, dass Lehrkräfte für einen qualitätsvollen Einsatz digitaler Medien sowohl technologische als auch pädagogisch didaktische Kompetenzen benötigen (Lipowsky & Rzejak, 2021; Mishra & Koehler, 2006; Scheiter & Lachner, 2019) und Fortbildungen folglich technologische mit unterrichtspraktischen Inhalten kombinieren sollten (Bonnes et al., 2022). Zudem zeigt die Studie basierend auf den theoretischen Annahmen von Kunter et al. (2011), dass selbsteingeschätzte digitale Kompetenzen von Lehrkräften die Zusammenhänge zwischen der Teilnahmehäufigkeit an digitalbezogenen Fortbildungen und der selbstberichteten digitalgestützten Unterrichtsqualität vermittelten. In der abschließenden Gesamtdiskussion der Dissertation werden die Befunde vor dem Hintergrund des dargelegten Forschungsstandes und hinsichtlich der Forschungslücken diskutiert und auf Grundlage der Befunde der drei Studien forschungs- und praxisrelevante Implikationen abgeleitet. KW - digitalbezogene Lehrkräftefortbildungen KW - digitalbzeogene Kompetenzen KW - digitalgestützte Unterrichtsqualität Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-632716 ER - TY - THES A1 - Taleb, Aiham T1 - Self-supervised deep learning methods for medical image analysis T1 - Selbstüberwachte Deep Learning Methoden für die medizinische Bildanalyse N2 - Deep learning has seen widespread application in many domains, mainly for its ability to learn data representations from raw input data. Nevertheless, its success has so far been coupled with the availability of large annotated (labelled) datasets. This is a requirement that is difficult to fulfil in several domains, such as in medical imaging. Annotation costs form a barrier in extending deep learning to clinically-relevant use cases. The labels associated with medical images are scarce, since the generation of expert annotations of multimodal patient data at scale is non-trivial, expensive, and time-consuming. This substantiates the need for algorithms that learn from the increasing amounts of unlabeled data. Self-supervised representation learning algorithms offer a pertinent solution, as they allow solving real-world (downstream) deep learning tasks with fewer annotations. Self-supervised approaches leverage unlabeled samples to acquire generic features about different concepts, enabling annotation-efficient downstream task solving subsequently. Nevertheless, medical images present multiple unique and inherent challenges for existing self-supervised learning approaches, which we seek to address in this thesis: (i) medical images are multimodal, and their multiple modalities are heterogeneous in nature and imbalanced in quantities, e.g. MRI and CT; (ii) medical scans are multi-dimensional, often in 3D instead of 2D; (iii) disease patterns in medical scans are numerous and their incidence exhibits a long-tail distribution, so it is oftentimes essential to fuse knowledge from different data modalities, e.g. genomics or clinical data, to capture disease traits more comprehensively; (iv) Medical scans usually exhibit more uniform color density distributions, e.g. in dental X-Rays, than natural images. Our proposed self-supervised methods meet these challenges, besides significantly reducing the amounts of required annotations. We evaluate our self-supervised methods on a wide array of medical imaging applications and tasks. Our experimental results demonstrate the obtained gains in both annotation-efficiency and performance; our proposed methods outperform many approaches from related literature. Additionally, in case of fusion with genetic modalities, our methods also allow for cross-modal interpretability. In this thesis, not only we show that self-supervised learning is capable of mitigating manual annotation costs, but also our proposed solutions demonstrate how to better utilize it in the medical imaging domain. Progress in self-supervised learning has the potential to extend deep learning algorithms application to clinical scenarios. N2 - Deep Learning findet in vielen Bereichen breite Anwendung, vor allem wegen seiner Fähigkeit, Datenrepräsentationen aus rohen Eingabedaten zu lernen. Dennoch war der Erfolg bisher an die Verfügbarkeit großer annotatierter Datensätze geknüpft. Dies ist eine Anforderung, die in verschiedenen Bereichen, z. B. in der medizinischen Bildgebung, schwer zu erfüllen ist. Die Kosten für die Annotation stellen ein Hindernis für die Ausweitung des Deep Learning auf klinisch relevante Anwendungsfälle dar. Die mit medizinischen Bildern verbundenen Annotationen sind rar, da die Erstellung von Experten Annotationen für multimodale Patientendaten in großem Umfang nicht trivial, teuer und zeitaufwändig ist. Dies unterstreicht den Bedarf an Algorithmen, die aus den wachsenden Mengen an unbeschrifteten Daten lernen. Selbstüberwachte Algorithmen für das Repräsentationslernen bieten eine mögliche Lösung, da sie die Lösung realer (nachgelagerter) Deep-Learning-Aufgaben mit weniger Annotationen ermöglichen. Selbstüberwachte Ansätze nutzen unannotierte Stichproben, um generisches Eigenschaften über verschiedene Konzepte zu erlangen und ermöglichen so eine annotationseffiziente Lösung nachgelagerter Aufgaben. Medizinische Bilder stellen mehrere einzigartige und inhärente Herausforderungen für existierende selbstüberwachte Lernansätze dar, die wir in dieser Arbeit angehen wollen: (i) medizinische Bilder sind multimodal, und ihre verschiedenen Modalitäten sind von Natur aus heterogen und in ihren Mengen unausgewogen, z.B. (ii) medizinische Scans sind mehrdimensional, oft in 3D statt in 2D; (iii) Krankheitsmuster in medizinischen Scans sind zahlreich und ihre Häufigkeit weist eine Long-Tail-Verteilung auf, so dass es oft unerlässlich ist, Wissen aus verschiedenen Datenmodalitäten, z. B. Genomik oder klinische Daten, zu verschmelzen, um Krankheitsmerkmale umfassender zu erfassen; (iv) medizinische Scans weisen in der Regel eine gleichmäßigere Farbdichteverteilung auf, z. B. in zahnmedizinischen Röntgenaufnahmen, als natürliche Bilder. Die von uns vorgeschlagenen selbstüberwachten Methoden adressieren diese Herausforderungen und reduzieren zudem die Menge der erforderlichen Annotationen erheblich. Wir evaluieren unsere selbstüberwachten Methoden in verschiedenen Anwendungen und Aufgaben der medizinischen Bildgebung. Unsere experimentellen Ergebnisse zeigen, dass die von uns vorgeschlagenen Methoden sowohl die Effizienz der Annotation als auch die Leistung steigern und viele Ansätze aus der verwandten Literatur übertreffen. Darüber hinaus ermöglichen unsere Methoden im Falle der Fusion mit genetischen Modalitäten auch eine modalübergreifende Interpretierbarkeit. In dieser Arbeit zeigen wir nicht nur, dass selbstüberwachtes Lernen in der Lage ist, die Kosten für manuelle Annotationen zu senken, sondern auch, wie man es in der medizinischen Bildgebung besser nutzen kann. Fortschritte beim selbstüberwachten Lernen haben das Potenzial, die Anwendung von Deep-Learning-Algorithmen auf klinische Szenarien auszuweiten. KW - Artificial Intelligence KW - machine learning KW - unsupervised learning KW - representation learning KW - Künstliche Intelligenz KW - maschinelles Lernen KW - Representationlernen KW - selbstüberwachtes Lernen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-644089 ER - TY - THES A1 - Khosravi, Sara T1 - The effect of new turbulence parameterizations for the stable surface layer on simulations of the Arctic climate T1 - Die Auswirkung neuer Turbulenzparametrisierungen auf die stabile Grenzschicht in Simulationen des arktischen Klimas N2 - Arctic climate change is marked by intensified warming compared to global trends and a significant reduction in Arctic sea ice which can intricately influence mid-latitude atmospheric circulation through tropo- and stratospheric pathways. Achieving accurate simulations of current and future climate demands a realistic representation of Arctic climate processes in numerical climate models, which remains challenging. Model deficiencies in replicating observed Arctic climate processes often arise due to inadequacies in representing turbulent boundary layer interactions that determine the interactions between the atmosphere, sea ice, and ocean. Many current climate models rely on parameterizations developed for mid-latitude conditions to handle Arctic turbulent boundary layer processes. This thesis focuses on modified representation of the Arctic atmospheric processes and understanding their resulting impact on large-scale mid-latitude atmospheric circulation within climate models. The improved turbulence parameterizations, recently developed based on Arctic measurements, were implemented in the global atmospheric circulation model ECHAM6. This involved modifying the stability functions over sea ice and ocean for stable stratification and changing the roughness length over sea ice for all stratification conditions. Comprehensive analyses are conducted to assess the impacts of these modifications on ECHAM6's simulations of the Arctic boundary layer, overall atmospheric circulation, and the dynamical pathways between the Arctic and mid-latitudes. Through a step-wise implementation of the mentioned parameterizations into ECHAM6, a series of sensitivity experiments revealed that the combined impacts of the reduced roughness length and the modified stability functions are non-linear. Nevertheless, it is evident that both modifications consistently lead to a general decrease in the heat transfer coefficient, being in close agreement with the observations. Additionally, compared to the reference observations, the ECHAM6 model falls short in accurately representing unstable and strongly stable conditions. The less frequent occurrence of strong stability restricts the influence of the modified stability functions by reducing the affected sample size. However, when focusing solely on the specific instances of a strongly stable atmosphere, the sensible heat flux approaches near-zero values, which is in line with the observations. Models employing commonly used surface turbulence parameterizations were shown to have difficulties replicating the near-zero sensible heat flux in strongly stable stratification. I also found that these limited changes in surface layer turbulence parameterizations have a statistically significant impact on the temperature and wind patterns across multiple pressure levels, including the stratosphere, in both the Arctic and mid-latitudes. These significant signals vary in strength, extent, and direction depending on the specific month or year, indicating a strong reliance on the background state. Furthermore, this research investigates how the modified surface turbulence parameterizations may influence the response of both stratospheric and tropospheric circulation to Arctic sea ice loss. The most suitable parameterizations for accurately representing Arctic boundary layer turbulence were identified from the sensitivity experiments. Subsequently, the model's response to sea ice loss is evaluated through extended ECHAM6 simulations with different prescribed sea ice conditions. The simulation with adjusted surface turbulence parameterizations better reproduced the observed Arctic tropospheric warming in vertical extent, demonstrating improved alignment with the reanalysis data. Additionally, unlike the control experiments, this simulation successfully reproduced specific circulation patterns linked to the stratospheric pathway for Arctic-mid-latitude linkages. Specifically, an increased occurrence of the Scandinavian-Ural blocking regime (negative phase of the North Atlantic Oscillation) in early (late) winter is observed. Overall, it can be inferred that improving turbulence parameterizations at the surface layer can improve the ECHAM6's response to sea ice loss. N2 - Der Klimawandel in der Arktis ist durch eine im Vergleich zum globalen Klimawandel verstärkte Erwärmung und einem damit verbundenen starken Rückgang des arktischen Meereises gekennzeichnet. Da dieser verstärkte Klimawandel in der Arktis die atmosphärische Zirkulation in den mittleren Breiten auf komplexe Weise über tropo- und stratosphärische Pfade beeinflussen kann, ist eine realistische Darstellung arktischer Prozesse in numerischen Klimamodellen für zuverlässige Simulationen gegenwärtiger und zukünftiger Klimaänderungen notwendig, stellt aber nach wie vor eine Herausforderung dar. Ein wesentlicher Grund für Modelldefizite bei der Reproduktion der beobachteten arktischen Klimaprozesse sind Unzulänglichkeiten bei der Darstellung von turbulenten Grenzschichtprozessen, die die Wechselwirkung zwischen Atmosphäre, Meereis und Ozean bestimmen. Gegenwärtige Klimamodelle verwenden für die Darstellung von turbulenten Grenzschichtprozessen in der Arktis häufig Parametrisierungen, die für Bedingungen in mittleren Breiten entwickelt wurden. Diese Arbeit zielt auf eine bessere Darstellung arktischer atmosphärischer Prozesse in Klimamodellen und ein besseres Verständnis der daraus resultierenden Auswirkungen auf die simulierte großskalige atmosphärische Zirkulation in mittleren Breiten ab. Aus diesem Grund wurde in dieser Arbeit eine Hierarchie von verbesserten Turbulenzparametrisierungen in das globale atmosphärische Zirkulationsmodell ECHAM6 implementiert, die basierend auf arktischen Messungen kürzlich entwickelt wurden. Dabei wurden die Stabilitätsfunktionen über Meereis und Ozean für stabile Schichtung sowie die Rauhigkeitslänge über dem Meereis für alle Schichtungsbedingungen modifiziert. Anschließend wurde eine umfassende Analyse der jeweiligen Sensitivitätsexperimente durchgeführt, um den Einfluss dieser Modifikationen auf die Simulationen der arktischen Grenzschicht, der großräumigen atmosphärischen Zirkulation und der dynamischen Verbindungswege zwischen der Arktis und den mittleren Breiten in ECHAM6 zu bewerten. Durch eine schrittweise Implementierung der Hierarchie von verbesserten Turbulenzparameterisierungen in ECHAM6 wurden in einer Reihe von Sensitivitätsexperimenten folgende Erkenntnisse gewonnen: Die kombinierte Auswirkung der reduzierten Rauhigkeitslänge und der modifizierten Stabilitätsfunktionen ist nichtlinear. Dennoch zeigt sich, dass beide Modifikationen zu einer besseren Darstellung arktischer Grenzschichtprozesse führen, insbesondere stimmt die Verringerung des Transferkoeffizienten für Wärme gut mit den Beobachtungen überein. Im Vergleich zu den Referenzbeobachtungen zeigt das ECHAM6-Modell jedoch eine unrealistische Darstellung des Auftretens labiler und stark stabiler Schichtungsbedingungen. Die geringere Häufigkeit von stark stabilen Bedingungen begrenzt den Einfluss der modifizierten Stabilitätsfunktionen. Wenn in den Modelldaten nur die Fälle mit stark stabiler Schichtung analysiert werden, führt die Verwendung der modifizierten Stabilitätsfunktionen zu sehr kleinen turbulenten sensiblen Wärmeflüssen in guter Übereinstimmung mit den Beobachtungen. Dieses Verhalten wurde in den Modellsimulationen mit der Standardturbulenzparametrisierung nicht reproduziert. Es wurde zudem festgestellt, dass die Änderungen in den Turbulenzparametrisierungen einen statistisch signifikanten Einfluss auf die großskaligen Temperatur- und Windfelder in verschiedenen Höhen bis in die Stratosphäre sowohl in der Arktis als auch in den mittleren Breiten haben. Diese signifikanten Signale variieren in ihrer Stärke und Lage je nach Monat und Jahr, was eine starke Abhängigkeit vom Hintergrundzustand anzeigt. Des Weiteren wird in dieser Arbeit untersucht, wie die modifizierten Turbulenzparametrisierungen die Reaktion der troposphärischen und stratosphärischen Zirkulation auf den Rückgang des arktischen Meereises beeinflussen. Dafür wurden die geeignetsten Parametrisierungen zur Darstellung der arktischen Grenzschichtturbulenz anhand der Sensitivitätsexperimente identifiziert. Anschließend wurde die Reaktion des Modells ECHAM6 auf den Meereisverlust durch weitere lange Simulationen mit unterschiedlichen vorgegebenen Meereisbedingungen bewertet. Dabei simuliert die ECHAM6 Modellversion mit verbesserter Turbulenzparametrisierung eine größere vertikale Ausdehnung der arktischen troposphärischen Erwärmung bei Meereisrückgang und zeigt somit eine verbesserte Übereinstimmung mit den Reanalyse-Daten. Darüber hinaus treten in dieser Simulation im Gegensatz zu den Kontrollexperimenten häufiger bevorzugte Zirkulationsmuster auf, die dafür bekannt sind, dass sie Änderungen in der Arktis dynamisch mit den mittleren Breiten verknüpfen. Insbesondere treten blockierende Hochdrucklagen über Skandinavien/Ural im Frühwinter und die negative Phase der Nordatlantischen Oszillation im Spätwinter häufiger auf. Daher lässt sich ableiten, dass durch eine Verbesserung der Turbulenzparametrisierung der Effekt von Meereisverlust in ECHAM6 realistischer dargestellt werden kann. KW - boundary layer KW - atmosphere KW - atmospheric modelling KW - turbulence parameterizations KW - Atmosphäre KW - Atmosphärenmodellierung KW - Grenzschicht KW - Turbulenzparametrisierungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643520 ER - TY - THES A1 - Richly, Keven T1 - Memory-efficient data management for spatio-temporal applications BT - workload-driven fine-grained configuration optimization for storing spatio-temporal data in columnar In-memory databases N2 - The wide distribution of location-acquisition technologies means that large volumes of spatio-temporal data are continuously being accumulated. Positioning systems such as GPS enable the tracking of various moving objects' trajectories, which are usually represented by a chronologically ordered sequence of observed locations. The analysis of movement patterns based on detailed positional information creates opportunities for applications that can improve business decisions and processes in a broad spectrum of industries (e.g., transportation, traffic control, or medicine). Due to the large data volumes generated in these applications, the cost-efficient storage of spatio-temporal data is desirable, especially when in-memory database systems are used to achieve interactive performance requirements. To efficiently utilize the available DRAM capacities, modern database systems support various tuning possibilities to reduce the memory footprint (e.g., data compression) or increase performance (e.g., additional indexes structures). By considering horizontal data partitioning, we can independently apply different tuning options on a fine-grained level. However, the selection of cost and performance-balancing configurations is challenging, due to the vast number of possible setups consisting of mutually dependent individual decisions. In this thesis, we introduce multiple approaches to improve spatio-temporal data management by automatically optimizing diverse tuning options for the application-specific access patterns and data characteristics. Our contributions are as follows: (1) We introduce a novel approach to determine fine-grained table configurations for spatio-temporal workloads. Our linear programming (LP) approach jointly optimizes the (i) data compression, (ii) ordering, (iii) indexing, and (iv) tiering. We propose different models which address cost dependencies at different levels of accuracy to compute optimized tuning configurations for a given workload, memory budgets, and data characteristics. To yield maintainable and robust configurations, we further extend our LP-based approach to incorporate reconfiguration costs as well as optimizations for multiple potential workload scenarios. (2) To optimize the storage layout of timestamps in columnar databases, we present a heuristic approach for the workload-driven combined selection of a data layout and compression scheme. By considering attribute decomposition strategies, we are able to apply application-specific optimizations that reduce the memory footprint and improve performance. (3) We introduce an approach that leverages past trajectory data to improve the dispatch processes of transportation network companies. Based on location probabilities, we developed risk-averse dispatch strategies that reduce critical delays. (4) Finally, we used the use case of a transportation network company to evaluate our database optimizations on a real-world dataset. We demonstrate that workload-driven fine-grained optimizations allow us to reduce the memory footprint (up to 71% by equal performance) or increase the performance (up to 90% by equal memory size) compared to established rule-based heuristics. Individually, our contributions provide novel approaches to the current challenges in spatio-temporal data mining and database research. Combining them allows in-memory databases to store and process spatio-temporal data more cost-efficiently. N2 - Durch die starke Verbreitung von Systemen zur Positionsbestimmung werden fortlaufend große Mengen an Bewegungsdaten mit einem räumlichen und zeitlichen Bezug gesammelt. Ortungssysteme wie GPS ermöglichen, die Bewegungen verschiedener Objekte (z. B. Personen oder Fahrzeuge) nachzuverfolgen. Diese werden in der Regel durch eine chronologisch geordnete Abfolge beobachteter Aufenthaltsorte repräsentiert. Die Analyse von Bewegungsmustern auf der Grundlage detaillierter Positionsinformationen schafft in unterschiedlichsten Branchen (z. B. Transportwesen, Verkehrssteuerung oder Medizin) die Möglichkeit Geschäftsentscheidungen und -prozesse zu verbessern. Aufgrund der großen Datenmengen, die bei diesen Anwendungen auftreten, stellt die kosteneffiziente Speicherung von Bewegungsdaten eine Herausforderung dar. Dies ist insbesondere der Fall, wenn Hauptspeicherdatenbanken zur Speicherung eingesetzt werden, um die Anforderungen bezüglich interaktiver Antwortzeiten zu erfüllen. Um die verfügbaren Speicherkapazitäten effizient zu nutzen, unterstützen moderne Datenbanksysteme verschiedene Optimierungsmöglichkeiten, um den Speicherbedarf zu reduzieren (z. B. durch Datenkomprimierung) oder die Performance zu erhöhen (z. B. durch Indexstrukturen). Dabei ermöglicht eine horizontale Partitionierung der Daten, dass unabhängig voneinander verschiedene Optimierungen feingranular auf einzelnen Bereichen der Daten angewendet werden können. Die Auswahl von Konfigurationen, die sowohl die Kosten als auch Leistungsanforderungen berücksichtigen, ist jedoch aufgrund der großen Anzahl möglicher Kombinationen -- die aus voneinander abhängigen Einzelentscheidungen bestehen -- komplex. In dieser Dissertation präsentieren wir mehrere Ansätze zur Verbesserung der Datenverwaltung, indem wir die Auswahl verschiedener Datenbankoptimierungen automatisch für die anwendungsspezifischen Zugriffsmuster und Dateneigenschaften anpassen. Diesbezüglich leistet die vorliegende Dissertation die folgenden Beiträge: (1) Wir stellen einen neuen Ansatz vor, um feingranulare Tabellenkonfigurationen für räumlich-zeitliche Workloads zu bestimmen. In diesem Zusammenhang optimiert unser Linear Programming (LP) Ansatz gemeinsam (i) die Datenkompression, (ii) die Sortierung, (iii) die Indizierung und (iv) die Datenplatzierung. Hierzu schlagen wir verschiedene Modelle mit unterschiedlichen Kostenabhängigkeiten vor, um optimierte Konfigurationen für einen gegebenen Workload, ein Speicherbudget und die vorliegenden Dateneigenschaften zu berechnen. Durch die Erweiterung des LP-basierten Ansatzes zur Berücksichtigung von Modifikationskosten und verschiedener potentieller Workloads ist es möglich, die Wartbarkeit und Robustheit der bestimmten Tabellenkonfiguration zu erhöhen. (2) Um die Speicherung von Timestamps in spalten-orientierten Datenbanken zu optimieren, stellen wir einen heuristischen Ansatz für die kombinierte Auswahl eines Speicherlayouts und eines Kompressionsschemas vor. Zudem sind wir durch die Berücksichtigung von Strategien zur Aufteilung von Attributen in der Lage, anwendungsspezifische Optimierungen anzuwenden, die den Speicherbedarf reduzieren und die Performance verbessern. (3) Wir stellen einen Ansatz vor, der in der Vergangenheit beobachtete Bewegungsmuster nutzt, um die Zuweisungsprozesse von Vermittlungsdiensten zur Personenbeförderung zu verbessern. Auf der Grundlage von Standortwahrscheinlichkeiten haben wir verschiedene Strategien für die Vergabe von Fahraufträgen an Fahrer entwickelt, die kritische Verspätungen reduzieren. (4) Abschließend haben wir unsere Datenbankoptimierungen anhand eines realen Datensatzes eines Transportdienstleisters evaluiert. In diesem Zusammenhang zeigen wir, dass wir durch feingranulare workload-basierte Optimierungen den Speicherbedarf (um bis zu 71% bei vergleichbarer Performance) reduzieren oder die Performance (um bis zu 90% bei gleichem Speicherverbrauch) im Vergleich zu regelbasierten Heuristiken verbessern können. Die einzelnen Beiträge stellen neuartige Ansätze für aktuelle Herausforderungen im Bereich des Data Mining und der Datenbankforschung dar. In Kombination ermöglichen sie eine kosteneffizientere Speicherung und Verarbeitung von Bewegungsdaten in Hauptspeicherdatenbanken. KW - spatio-temporal data management KW - trajectory data KW - columnar databases KW - in-memory data management KW - database tuning KW - spaltenorientierte Datenbanken KW - Datenbankoptimierung KW - Hauptspeicher Datenmanagement KW - Datenverwaltung für Daten mit räumlich-zeitlichem Bezug KW - Trajektoriendaten Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635473 ER - TY - THES A1 - Frank, Mario T1 - On synthesising Linux kernel module components from Coq formalisations T1 - Über die Synthese von Linux Kernel- Modul-Komponenten aus Coq-Formalisierungen N2 - This thesis presents an attempt to use source code synthesised from Coq formalisations of device drivers for existing (micro)kernel operating systems, with a particular focus on the Linux Kernel. In the first part, the technical background and related work are described. The focus is here on the possible approaches to synthesising certified software with Coq, namely the extraction to functional languages using the Coq extraction plugin and the extraction to Clight code using the CertiCoq plugin. It is noted that the implementation of CertiCoq is verified, whereas this is not the case for the Coq extraction plugin. Consequently, there is a correctness guarantee for the generated Clight code which does not hold for the code being generated by the Coq extraction plugin. Furthermore, the differences between user space and kernel space software are discussed in relation to Linux device drivers. It is elaborated that it is not possible to generate working Linux kernel module components using the Coq extraction plugin without significant modifications. In contrast, it is possible to produce working user space drivers both with the Coq extraction plugin and CertiCoq. The subsequent parts describe the main contributions of the thesis. In the second part, it is demonstrated how to extend the Coq extraction plugin to synthesise foreign function calls between the functional language OCaml and the imperative language C. This approach has the potential to improve the type-safety of user space drivers. Furthermore, it is shown that the code being synthesised by CertiCoq cannot be used in kernel space without modifications to the necessary runtime. Consequently, the necessary modifications to the runtimes of CertiCoq and VeriFFI are introduced, resulting in the runtimes becoming compatible components of a Linux kernel module. Furthermore, justifications for the transformations are provided and possible further extensions to both plugins and solutions to failing garbage collection calls in kernel space are discussed. The third part presents a proof of concept device driver for the Linux Kernel. To achieve this, the event handler of the original PC Speaker driver is partially formalised in Coq. Furthermore, some relevant formal properties of the formalised functionality are discussed. Subsequently, a kernel module is defined, utilising the modified variants of CertiCoq and VeriFFI to compile a working device driver. It is furthermore shown that it is possible to compile the synthesised code with CompCert, thereby extending the guarantee of correctness to the assembly layer. This is followed by a performance evaluation that compares a naive formalisation of the PC speaker functionality with the original PC Speaker driver pointing out the weaknesses in the formalisation and possible improvements. The part closes with a summary of the results, their implications and open questions being raised. The last part lists all used sources, separated into scientific literature, documentations or reference manuals and artifacts, i.e. source code. N2 - Die vorliegende Dissertation präsentiert einen Ansatz zur Nutzung von Quellcode, der aus der Coq-Formalisierung eines Gerätetreibers generiert wurde, für bestehende (Mikrokernel-)Betriebssysteme, im Speziellen den Linux-Kernel. Im ersten Teil erfolgt eine Beschreibung der relevanten technischen Aspekte sowie des aktuellen Forschungsstandes. Dabei liegt der Fokus auf der Synthese von funktionalem Code durch das Coq Extraction Plugin und von Clight Code durch das CertiCoq Plugin. Des Weiteren wird dargelegt, dass die Implementierung von CertiCoq im Gegensatz zu der des Coq Extraction Plugin verifiziert ist, wodurch sich eine Korrektheitsgarantie für den generierten Clight Code ableiten lässt. Darüber hinaus werden die Unterschiede zwischen User Space und Kernel Space Software in Bezug auf Linux-Treiber erörtert. Unter Berücksichtigung der technischen Einschränkungen wird dargelegt, dass der durch das Coq Extraction Plugin generierte Code ohne gravierende Anpassungen der Laufzeitumgebung nicht als Teil eines Kernel Space Treibers nutzbar ist. Die nachfolgenden Teile der Dissertation behandeln den Beitrag dieser Arbeit. Im zweiten Teil wird dargelegt, wie das Coq Extraction Plugin derart erweitert werden kann, dass typsichere Aufrufe zwischen den Sprachen OCaml und C generiert werden können. Dies verhindert spezifische Kompilationsfehler aufgrund von Typfehlern. Des Weiteren wird aufgezeigt, dass der durch CertiCoq generierte Code ebenfalls nicht im Kernel Space genutzt werden kann, da die Laufzeitumgebung technische Einschränkungen verletzt. Daher werden die notwendigen Anpassungen an der vergleichsweise kleinen Laufzeitumgebung sowie an VeriFFI vorgestellt und deren Korrektheit begründet. Anschließend werden mögliche Erweiterungen beider Plugins sowie die Möglichkeit der Behandlung von fehlschlagenden Aufrufen der Garbage Collection von CertiCoq im Kernel Space erörtert. Im dritten Teil wird als Machbarkeitsstudie im ersten Schritt der Event-Handler des Linux PC Speaker Treibers beschrieben und eine naive Coq-Formalisierung sowie wichtige formale Eigenschaften dargelegt. Dann wird beschrieben, wie ein Kernel-Modul und dessen Kompilation definiert werden muss, um einen lauffähigen Linux Kernel Treiber zu erhalten. Des Weiteren wird erläutert, wie die generierten Teile dieses Treibers mit dem verifizierten Kompiler CompCert übersetzt werden können, wodurch auch eine Korrektheit für den resultierenden Assembler-Code gilt. Im Anschluss erfolgt eine Evaluierung der Performance des aus der naiven Coq-Formalisierung generierten Codes im Vergleich zum originalen PC-Speaker Treiber. Dabei werden die Schwächen der Formalisierung sowie mögliche Verbesserungen diskutiert. Der Teil wird mit einer Zusammenfassung der Ergebnisse sowie der daraus resultierenden offenen Fragen abgeschlossen. Der letzte Teil gibt eine Übersicht über genutzte Quellen und Hilfsmittel, unterteilt in wissenschaftliche Literatur, Dokumentationen sowie Software-Artefakte. KW - Linux device drivers KW - Coq KW - CertiCoq KW - synthesis KW - compilation KW - Geräte-Treiber KW - Linux KW - Coq KW - CertiCoq KW - Synthese KW - Kompilation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-642558 ER - TY - THES A1 - Montulet, Orianne T1 - Functional characterization of putative interactors of the Cellulose Synthase Complex T1 - Funktionelle Charakterisierung von mutmaßlichen Interaktoren des Cellulose-Synthase-Komplexes N2 - The plant cell wall plays several crucial roles during plant development with its integrity acting as key signalling component for growth regulation during biotic and abiotic stresses. Cellulose microfibrils, the principal load-bearing components is the major component of the primary cell wall, whose synthesis is mediated by microtubule-associated CELLULOSE SYNTHASE (CESA) COMPLEXES (CSC). Previous studies have shown that CSC interacting proteins COMPANION OF CELLULOSE SYNTHASE (CC) facilitate sustained cellulose synthesis during salt stress by promoting repolymerization of cortical microtubules. However, our understanding of cellulose synthesis during salt stress remains incomplete. In this study, a pull-down of CC1 protein led to the identification of a novel interactor, termed LEA-like. Phylogenetic analysis revealed that LEA-like belongs to the LATE EMBRYOGENESIS ABUNDANT (LEA) protein family, specifically to the LEA_2 subgroup, showing a close relationship with the CC proteins. Roots of the double mutants lea-like and its closest homolog emb3135 exhibited hypersensitivity when grown on cellulose synthesis inhibitors. Further analysis of higher-order mutants of lea-like, emb3135, and cesa6 demonstrated a genetic interaction between them indicating a significant role in cellulose synthesis. Live-cell imaging revealed that both LEA-like and EMB3135 migrated with the CSC at the plasma membrane along microtubule tracks in control and oryzalin-treated conditions which destabilize microtubules, suggesting a tight interaction. Investigation of fluorescently labeled lines of different domains of the LEA-like protein revealed that the N-terminal cytosolic domain of LEA-like colocalizes with microtubules, suggesting a physical association between the two. Considering the established role of LEA proteins in abiotic stress tolerance, we performed phenotypic analysis of the mutant under various stresses. Growth of double mutants of lea-like and emb3135 on NaCl containing media resulted in swelling of root cell indicating a putative role in salt stress tolerance. Supportive of this the quadruple mutant, lacking LEA-like, EMB3135, CC1, and CC2 proteins, exhibited a severe root growth defect on NaCl media compared to control conditions. Live-cell imaging revealed that under salt stress, the LEA-like protein forms aggregates in the plasma membrane. In conclusion, this study has unveiled two novel interactors of the CSC that act with the CC proteins that regulate plant growth in response to salt stress providing new insights into the intricate regulation of cellulose synthesis, particularly under such conditions. N2 - Die pflanzliche Zellwand spielt während der Pflanzenentwicklung mehrere entscheidende Rollen, wobei ihre Integrität als zentrale Signalkomponente für die Wachstumsregulierung bei biotischem und abiotischem Stress fungiert. Zellulose-Mikrofibrillen, die wichtigsten tragenden Komponenten, sind der Hauptbestandteil der primären Zellwand, deren Synthese durch Mikrotubuli assoziierte CELLULOSE SYNTHASE (CESA) Komplexe (CSC) vermittelt wird. Frühere Studien haben gezeigt, dass die mit den CSC interagierenden Proteinen COMPANION OF CELLULOSE SYNTHASE (CC) die anhaltende Zellulosesynthese bei Salzstress erleichtern, indem sie die Repolymerisation der kortikalen Mikrotubuli fördern. Unser Verständnis der Zellulosesynthese bei Salzstress ist jedoch noch unvollständig. In dieser Studie führte ein Pull-down des CC1-Proteins zur Identifizierung eines neuen Interaktors, der als LEA-like bezeichnet wird. Eine phylogenetische Analyse ergab, dass LEA-like zur Late Embryogenesis Abundant (LEA)-Proteinfamilie gehört, insbesondere zur LEA_2-Untergruppe, die eine enge Beziehung zu den CC-Proteinen aufweist. Die Wurzeln der Doppelmutanten lea-like und seines engsten Homologen emb3135 zeigten eine Überempfindlichkeit, wenn sie auf Zellulose-Synthese-Inhibitoren wuchsen. Weitere Analysen von Mutanten höherer Ordnung von lea-like, emb3135 und cesa6 zeigten eine genetische Interaktion zwischen ihnen, die auf eine bedeutende Rolle bei der Zellulosesynthese hinweist. Die Bildgebung in lebenden Zellen zeigte, dass sowohl LEA-like als auch EMB3135 mit dem CSC an der Plasmamembran entlang von Mikrotubuli-Spuren wandern, und zwar sowohl unter Kontrollbedingungen als auch unter Oryzalin-Behandlung, die die Mikrotubuli destabilisiert, was auf eine enge Interaktion hindeutet. Die Untersuchung von fluoreszenzmarkierten Linien verschiedener Domänen des LEA-like-Proteins ergab, dass die N-terminale zytosolische Domäne von LEA-like mit Mikrotubuli kolokalisiert, was auf eine physische Verbindung zwischen den beiden hindeutet. In Anbetracht der bekannten Rolle der LEA-Proteine bei der abiotischen Stresstoleranz haben wir eine phänotypische Analyse der Mutante unter verschiedenen Stressbedingungen durchgeführt. Das Wachstum von Doppelmutanten von lea-like und emb3135 auf NaCl-haltigen Medien führte zu einem Anschwellen der Wurzelzellen, was auf eine mutmaßliche Rolle bei der Salzstresstoleranz hindeutet. Die Vierfachmutante, der die Proteine LEA-like, EMB3135, CC1 und CC2 fehlen, wies im Vergleich zu den Kontrollbedingungen auf NaCl-Medien einen schweren Wachstumsdefekt der Wurzeln auf. Die Bildgebung in lebenden Zellen zeigte, dass das LEA-like-Protein unter Salzstress Aggregate in der Plasmamembran bildet. Zusammenfassend lässt sich sagen, dass diese Studie zwei neue Interaktoren des CSC aufgedeckt hat, die mit den CC-Proteinen zusammenwirken und das Pflanzenwachstum als Reaktion auf Salzstress regulieren. KW - cell wall KW - cellulose KW - salt stress KW - cellulose synthase complex KW - Arabidopsis KW - Zellwand KW - zellulose, Salzstress KW - Cellulose-Synthese-Complex KW - Arabidopsis Y1 - 2024 ER - TY - THES A1 - Apodiakou, Anastasia T1 - Analysis of the regulation of SDI genes, unravelling the role of the SLIM1 transcription factor, and the SNRK3.15 kinase in Arabidopsis under sulfur deprivation Y1 - 2024 ER - TY - THES A1 - Seerangan, Kumar T1 - Actin-based regulation of cell and tissue scale morphogenesis in developing leaves T1 - Aktin-basierte Regulierung der Zell- und Gewebeskalenmorphogenese in sich entwickelnden Blättern N2 - Leaves exhibit cells with varying degrees of shape complexity along the proximodistal axis. Heterogeneities in growth directions within individual cells bring about such complexity in cell shape. Highly complex and interconnected gene regulatory networks and signaling pathways have been identified to govern these processes. In addition, the organization of cytoskeletal networks and cell wall mechanical properties greatly influences the regulation of cell shape. Research has shown that microtubules are involved in regulating cellulose deposition and direc-tion of cell growth. However, comprehensive analysis of the regulation of the actin cytoskele-ton in cell shape regulation has not been well studied. This thesis provides evidence that actin regulates aspects of cell growth, division, and direction-al expansion that impacts morphogenesis of developing leaves. The jigsaw puzzle piece mor-phology of epidermal pavement cells further serves as an ideal system to investigate the com-plex process of morphogenetic processes occurring at the cellular level. Here we have em-ployed live cell based imaging studies to track the development of pavement cells in actin com-promised conditions. Genetic perturbation of two predominantly expressed vegetative actin genes ACTIN2 and ACTIN7 results in delayed emergence of the cellular protrusions in pave-ment cells. Perturbation of actin also impacted the organization of microtubule in these cells that is known to promote emergence of cellular protrusions. Further, live-cell imaging of actin or-ganization revealed a correlation with cell shape, suggesting that actin plays a role in influencing pavement cell morphogenesis. In addition, disruption of actin leads to an increase in cell size along the leaf midrib, with cells being highly anisotropic due to reduced cell division. The reduction of cell division further im-pacted the morphology of the entire leaf, with the mutant leaves being more curved. These re-sults suggests that actin plays a pivotal role in regulating morphogenesis at the cellular and tis-sue scales thereby providing valuable insights into the role of the actin cytoskeleton in plant morphogenesis. N2 - Die Blätter weisen entlang der proximodistalen Achse Zellen mit unterschiedlich komplexer Form auf. Heterogenitäten in den Wachstumsrichtungen innerhalb einzelner Zellen führen zu einer solchen Komplexität der Zellform. Es wurden hochkomplexe und miteinander verbundene Genregulationsnetze und Signalwege identifiziert, die diese Prozesse steuern. Darüber hinaus haben die Organisation der Zytoskelettnetze und die mechanischen Eigenschaften der Zellwand großen Einfluss auf die Regulierung der Zellform. Die Forschung hat gezeigt, dass Mikrotubuli an der Regulierung der Zelluloseablagerung und der Richtung des Zellwachstums beteiligt sind. Eine umfassende Analyse der Regulierung des Aktin-Zytoskeletts bei der Regulierung der Zellform ist jedoch noch nicht ausreichend untersucht worden. Diese Arbeit liefert Beweise dafür, dass Aktin Aspekte des Zellwachstums, der Zellteilung und der gerichteten Expansion reguliert, die die Morphogenese der sich entwickelnden Blätter beeinflussen. Die puzzleartige Morphologie der epidermalen Zellen ist ein ideales System, um den komplexen Prozess der morphogenetischen Prozesse auf zellulärer Ebene zu untersuchen. Hier haben wir Bildgebungsstudien an lebenden Zellen durchgeführt, um die Entwicklung von Epidermiszellen unter Bedingungen zu verfolgen, bei denen das Aktin beeinträchtigt ist. Eine genetische Störung der beiden vorwiegend vegetativ exprimierten Aktin-Gene ACTIN2 und ACTIN7 führt zu einer verzögerten Entstehung der zellulären Wandausstülpungen in Epidermiszellen. Die Störung des Aktins wirkte sich auch auf die Organisation der Mikrotubuli in diesen Zellen aus, von denen bekannt ist, dass sie das Entstehen von Zellwandausstülpungen fördern. Darüber hinaus ergab die Live-Zell-Darstellung der Aktin-Organisation eine Korrelation mit der Zellform, was darauf hindeutet, dass Aktin eine Rolle bei der Morphogenese der Epidermiszellen spielt. Darüber hinaus führt die Unterbrechung von Aktin zu einer Zunahme der Zellgröße entlang der Blattmittelrippe, wobei die Zellen aufgrund der verringerten Zellteilung stark anisotrop sind. Die Verringerung der Zellteilung wirkte sich auch auf die Morphologie des gesamten Blattes aus, wobei die mutierten Blätter stärker gekrümmt waren. Diese Ergebnisse deuten darauf hin, dass Aktin eine zentrale Rolle bei der Regulierung der Morphogenese auf zellulärer und geweblicher Ebene spielt, was wertvolle Einblicke in die Rolle des Aktin-Zytoskeletts bei der Morphogenese von Pflanzen ermöglicht. KW - leaf KW - pavement cell KW - actin/microtubules KW - spatio-temporal regulation KW - Blatt KW - Pflasterzelle KW - Aktin/Mikrotubuli KW - räumlich-zeitliche Regulierung Y1 - 2023 ER - TY - THES A1 - Hagemann, Justus T1 - On the molecular evolution of sengis (Macroscelidea) N2 - This thesis focuses on the molecular evolution of Macroscelidea, commonly referred to as sengis. Sengis are a mammalian order belonging to the Afrotherians, one of the four major clades of placental mammals. Sengis currently consist of twenty extant species, all of which are endemic to the African continent. They can be separated in two families, the soft-furred sengis (Macroscelididae) and the giant sengis (Rhynchocyonidae). While giant sengis can be exclusively found in forest habitats, the different soft-furred sengi species dwell in a broad range of habitats, from tropical rain-forests to rocky deserts. Our knowledge on the evolutionary history of sengis is largely incomplete. The high level of superficial morphological resemblance among different sengi species (especially the soft-furred sengis) has for example led to misinterpretations of phylogenetic relationships, based on morphological characters. With the rise of DNA based taxonomic inferences, multiple new genera were defined and new species described. Yet, no full taxon molecular phylogeny exists, hampering the answering of basic taxonomic questions. This lack of knowledge can be to some extent attributed to the limited availability of fresh-tissue samples for DNA extraction. The broad African distribution, partly in political unstable regions and low population densities complicate contemporary sampling approaches. Furthermore, the DNA information available usually covers only short stretches of the mitochondrial genome and thus a single genetic locus with limited informational content. Developments in DNA extraction and library protocols nowadays offer the opportunity to access DNA from museum specimens, collected over the past centuries and stored in natural history museums throughout the world. Thus, the difficulties in fresh-sample acquisition for molecular biological studies can be overcome by the application of museomics, the research field which emerged from those laboratory developments. This thesis uses fresh-tissue samples as well as a vast collection museum specimens to investigate multiple aspects about the macroscelidean evolutionary history. Chapter 4 of this thesis focuses on the phylogenetic relationships of all currently known sengi species. By accessing DNA information from museum specimens in combination of fresh tissue samples and publicly available genetic resources it produces the first full taxon molecular phylogeny of sengis. It confirms the monophyly of the genus Elephantulus and discovers multiple deeply divergent lineages within different species, highlighting the need for species specific approaches. The study furthermore focuses on the evolutionary time frame of sengis by evaluating the impact of commonly varied parameters on tree dating. The results of the study show, that the mitochondrial information used in previous studies to temporal calibrate the Macroscelidean phylogeny led to an overestimation of node ages within sengis. Especially soft-furred sengis are thus much younger than previously assumed. The refined knowledge of nodes ages within sengis offer the opportunity to link e.g. speciation events to environmental changes. Chapter 5 focuses on the genus Petrodromus with its single representative Petrodromus tetradactylus. It again exploits the opportunities of museomics and gathers a comprehensive, multi-locus genetic dataset of P. tetradactylus individuals, distributed across most the known range of this species. It reveals multiple deeply divergent lineages within Petrodromus, whereby some could possibly be associated to previously described sub-species, at least one was formerly unknown. It underscores the necessity for a revision of the genus Petrodromus through the integration of both molecular and morphological evidence. The study, furthermore identifies changing forest distributions through climatic oscillations as main factor shaping the genetic structure of Petrodromus. Chapter 6 uses fresh tissue samples to extent the genomic resources of sengis by thirteen new nuclear genomes, of which two were de-novo assembled. An extensive dataset of more than 8000 protein coding one-to-one orthologs allows to further refine and confirm the temporal time frame of sengi evolution found in Chapter 4. This study moreover investigates the role of gene-flow and incomplete lineage sorting (ILS) in sengi evolution. In addition it identifies clade specific genes of possible outstanding evolutionary importance and links them to potential phenotypic traits affected. A closer investigation of olfactory receptor proteins reveals clade specific differences. A comparison of the demographic past of sengis to other small African mammals does not reveal a sengi specific pattern. N2 - Diese Dissertation untersucht die molekulare Evolution von Macroscelidea, auch als Sengis oder Rüsselspringer bezeichnet. Sengis sind eine Ordnung der Afrotheria, einer der vier Hauptkladen der plazentalen Säugetiere. Aktuell gibt es zwanzig beschriebene Sengiarten, die alle ausschließlich auf dem afrikanischen Kontinent vorkommen. Sengis können in zwei Familien unterteilt werden: die Elephantenspitzmäuse zusammen mit den Rüsselratten bilden die Macroscelididae und die Rüsselhündchen die Rhynchocyonidae. Während Rhynchocyonidae ausschließlich in Waldhabitaten zu finden sind, bewohnen verschiedene Macroscelididaearten ein breites Spektrum von Lebensräumen, von tropischen Regenwäldern bis zu felsigen Wüsten. Unser Wissen über die evolutionäre Geschichte der Sengis ist äußerst unvollständig. Der hohe Grad an morphologischer Ähnlichkeit zwischen verschiedenen Sengiarten (insbesondere innerhalb der Macroscelididae) hat beispielsweise zu Fehlinterpretationen phylogenetischer Beziehungen auf der Grundlage morphologischer Merkmale geführt. Mit dem Aufkommen DNA-basierter taxonomischer Forschung wurden mehrere neue Gattungen definiert und neue Arten beschrieben. Dennoch existiert derzeit keine vollständige molekulare Phylogenie, was die Beantwortung grundlegender taxonomischer Fragen und tiefergehende evolutionsbiologische Analysen erschwert. Dieser Mangel an Wissen kann zum Teil auf die begrenzte Verfügbarkeit von frischen Gewebeproben für die DNA-Extraktion zurückgeführt werden. Die weite Verbreitung in Afrika, teilweise in politisch instabilen Regionen und geringe Populationssdichten von Sengis erschweren das Sammeln von frischem Probenmaterial, was für die Extraktion von DNA genutzt werden kann. Darüber hinaus deckt die bis jetzt verfügbare DNA-Information über Sengis häufig nur kurze Abschnitte des mitochondrialen Genoms ab und damit einen einzelnen genetischen Lokus mit begrenztem Informationsgehalt. Fortentwicklungen von DNA-Extraktions-Protokollen und Library-Protokollen bieten heutzutage die Möglichkeit, auf DNA von Museumsexemplaren zuzugreifen, die über die letzten Jahrhunderte gesammelt und in Naturkundemuseen weltweit aufbewahrt werden. Somit können die Schwierigkeiten bei der Beschaffung von Frischproben für molekularbiologische Studien überwunden werden. Diese Dissertation verwendet sowohl Frischgewebeproben als auch eine umfangreiche Sammlung von Museumssproben, um verschiedene Aspekte der evolutionären Geschichte der Sengis molekularbiologisch zu untersuchen. Kapitel 4 dieser Dissertation konzentriert sich auf die phylogenetischen Beziehungen aller derzeit bekannten Sengiarten. Durch das Generieren von DNA-Information aus Museumsexemplaren in Kombination mit Frischgewebeproben und öffentlich verfügbaren genetischen Ressourcen wird die erste vollständige molekulare Phylogenie aller Rüsselspringer erzeugt. Die Studie bestätigt die Monophylie der Gattung Elephantulus und entdeckt mehrere tief divergente Linien innerhalb verschiedener Arten, was die Notwendigkeit speziesbezogener Ansätze verdeutlicht. Die Studie konzentriert sich außerdem auf den Zeitrahmen der Sengi-Evolution, indem sie die Auswirkungen häufig variierter Parameter auf die Datierung von Stammbäumen untersucht. Die Ergebnisse zeigen, dass die mitochondriale Information, die in früheren Studien zur zeitlichen Kalibrierung der Macroscelidean-Phylogenie verwendet wurde, zu einer Überschätzung des Alters von Arttrennungen innerhalb der Rüsselspringer geführt hat. Insbesondere die Macroscelididae sind daher viel jünger als zuvor angenommen. Das präzisere Wissen über das evolutionäre Alter von Rüsselspringern bietet die Möglichkeit, beispielsweise Artaufspaltungen mit Umweltveränderungen zu verknüpfen. Kapitel 5 konzentriert sich auf die Gattung Petrodromus mit ihrem einzigen Vertreter Petrodromus tetradactylus. Es nutzt erneut die Museomics und sammelt einen umfassenden, genetischen Datensatz von P. tetradactylus-Individuen, die über den größten Teil des bekannten Verbreitungsgebiets dieser Art verteilt sind. Es zeigt mehrere tief divergente Linien innerhalb von Petrodromus auf, wobei einige mit zuvor beschriebenen Unterarten in Verbindung gebracht werden könnten, mindestens eine aber zuvor unbekannt war. Die Ergebnisse verdeutlichen die Notwendigkeit einer taxonomischen Überarbeitung der Gattung Petrodromus durch das Zusammenführen sowohl molekularer als auch morphologischer Indizien. Die Studie identifizier außerdem sich ändernde Waldverteilungen durch klimatische Schwankungen als Hauptfaktor, der die genetische Struktur von Petrodromus formt. Kapitel 6 verwendet Frischgewebeproben, um die genomischen Ressourcen der Rüsselspringer durch dreizehn neue nukleare Genome zu erweitern, von denen zwei de-novo assembliert wurden. Ein umfangreicher Datensatz von mehr als 8000 protein-kodierenden 1:1-Orthologen ermöglicht es, den zeitlichen Rahmen der Rüsselspringerevolution, der in Kapitel 4 gefunden wurde, weiter zu verfeinern und zu bestätigen. Diese Studie untersucht außerdem die Rolle von Genfluss auf die Evolution der Rüsselspringer. Darüber hinaus identifiziert sie für bestimmte Kladen spezifische Gene von möglicherweise herausragender evolutionärer Bedeutung und verknüpft diese mit potenziell betroffenen phänotypischen Merkmalen. Eine genauere Untersuchung von Geruchsrezeptorproteinen zeigt kladespezifische Unterschiede auf. KW - sengis KW - evolution KW - molecular dating KW - biogeography KW - comparative genomics KW - Biogeographie KW - vergleichende Genomik KW - Evolution KW - molekulare Datierung KW - Sengis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641975 ER - TY - THES A1 - Rogge, Franziska T1 - Multiprofessionelle Kooperation an inklusiven Schulen im Bundesland Brandenburg: Vorkommen, Profile, Auswirkungen N2 - Die Zusammenarbeit zwischen Lehr- und anderen Fachkräften stellt in Modellen inklusiver Schul- und Unterrichtsentwicklung sowie Schuleffektivität ein wichtiges Element dar. Wenngleich Kooperation als bedeutsam postuliert wird, so belegen Studien, dass diese bisher überwiegend in autonomieerhaltenden Formen praktiziert wird. Als entwicklungsförderlich gelten jedoch v.a. komplexere Formen der Zusammenarbeit. Vor dem Hintergrund inklusiver Bildung und dem Anspruch einer bestmöglichen individuellen Entwicklung der Schüler*innen stellt die Zusammenarbeit von Lehr- und Fachkräften folglich ein sehr bedeutsames Thema dar. Es ist zu hinterfragen, wie sich die Zusammenarbeit zwischen Lehr- und Fachkräften im Primar- wie Sekundarstufenbereich an inklusiven Schulen gestaltet, welche Faktoren diese beeinflussen und welche Relevanz die unterschiedlichen Formen der Zusammenarbeit im Prozess inklusiver Schulentwicklung einnehmen. Bestehende Forschungsdesiderata aufgrei-fend, fokussiert die vorliegende Dissertation auf die realisierte Zusammenarbeit von Lehr- und Fachkräften im Primar- und Sekundarstufenbereich inklusiver Schulen, am Beispiel des Landes Brandenburg. Neben den realisierten Formen der Zusammenarbeit, stehen insbesondere die Identifikation von Kooperationsmustern von Lehr- und Fachkräften sowie von Schulen, und deren Zusammenhänge mit der Leistungsentwicklung von Schüler*innen im Kern des Forschungsinteresses. Die vorliegende Dissertation bearbeitet insgesamt sechs Forschungsfragen, welche in drei Teilstudien adressiert werden: Zunächst werden mittels deskriptiver Analysen sowie Mehrebenenmodellierungen die Ausgangslage multiprofessioneller Kooperation (erste Forschungsfrage) sowie deren Rahmenbedingungen (zweite Forschungsfrage) im Primar- wie Sekundarstufenbereich erfasst (Teilstudie 1). Lehr- und Fachkräfte kooperierten überwiegend in autonomieerhaltenden, austauschbasierten Formen. Weiterhin zeigte sich, dass insbesondere die individuelle Offenheit zur Zusammenarbeit sowie die subjektiv wahrgenommene Unterstützung durch die Schulleitung bedeutsame Faktoren für die Realisierung multiprofessioneller Kooperation darstellten. Die Fragestellungen drei und vier befassen sich mit der Identifikation von Mustern im Kooperationsverhalten (Teilstudie 2). Zum einen geht es hierbei um personenbezogene Profile von Lehr- und Fachkräften (dritte Forschungsfrage), zum anderen um schulbezogene Profile (vierte Forschungsfrage), welche mittels des personenzentrierten Ansatzes der latenten Profilanalysen unter Berücksichtigung der Mehrebenenstruktur identifiziert werden. Hinsichtlich des individuellen Kooperationsverhaltens konnten vier Profile eruiert werden, bzgl. des schulspezifischen Kooperationsverhaltens drei. Die Mehrheit der Lehr- und Fachkräfte konnte im „regularly“-Profil verortet werden, d.h. nach eigener Einschätzung kooperierten diese überdurchschnittlich häufig im Austausch miteinander und arbeitsteilig, aber auch regelmäßig kokonstruktiv. Auf Schulebene zeigte sich, dass etwa jede zweite inklusive Schule im Land Brandenburg über eine hoch ausgeprägte Kooperationskultur verfügte. Im Fokus der Teilstudie 3 wird den Fragen nachgegangen, in welchem Zusammenhang die schulspezifischen Kooperationskulturen mit der Leistungsentwicklung von Schüler*innen in der Primar- wie Sekundarstufe steht. Mittels autoregressiver Mehrebenenanalysen wird einerseits der Zusammenhang mit der Leistungsentwicklung aller Schüler*innen (fünfte Forschungsfrage) untersucht, sowie spezifisch auf die Entwicklung von Schüler*innen mit und ohne sonderpädagogischem Förderbedarf (sechste Forschungsfrage) fokussiert. Ein zentrales Ergebnis war hierbei, dass Schüler*innen mit sonderpädagogischem Förderbedarf in der Primar- wie Sekundarstufe in ihrer Leistungsentwicklung am stärksten profitierten, wenn sie an Schulen lernten, an denen sich die Lehr- und Fachkräfte sehr regelmäßig über Lernstände der Schüler*innen austauschten (Austausch), Arbeitspakete für differenzierte Lernangebote erarbeiteten und verteilten (Arbeitsteilung) und darüber hinaus gelegentlich gemeinsam Problemlösungen entwickelten (Kokonstruktion). Die Ergebnisse werden vor dem Hintergrund der postulierten Relevanz multiprofessioneller Kooperation für inklusive Schul- und Unterrichtsentwicklungsprozesse eingeordnet und diskutiert. Weiterhin werden verschiedene praktische Implikationen für die Unterstützung multiprofessioneller Zusammenarbeit im Primar- und Sekundarstufenbereich abgeleitet. N2 - Collaboration between teachers and specialists is an important element in models of inclusive school and instructional development and school effectiveness. Although collaboration is postulated to be important, studies show that it has so far mainly been practised in autonomy-preserving forms. However, more complex forms of collaboration are considered to promote development. In the context of inclusive education and the demand for the best individual development of students, collaboration between teachers and specialists is therefore a very important aspect. It is necessary to analyse the extent to which collaboration between teachers and specialists in primary and secondary schools is realised in inclusive schools, which factors influence this and what relevance the different forms of collaboration have in the process of inclusive school development. Taking up existing research desiderata, this dissertation therefore focuses on the realised collaboration between teachers and specialists in primary and secondary inclusive schools, using the example of the federal state of Brandenburg. In addition to the realised forms of collaboration, the identification of cooperation patterns of teachers and specialists, but also of schools and their connections with the performance development of pupils are at the core of the research interest. This dissertation addresses a total of six research questions, which are addressed in three sub-studies: Firstly, descriptive analyses and multi-level modelling are used to record the initial situation of multi-professional collaboration (first research question) and its framework conditions (second research question) in primary and secondary education (sub-study 1). Teachers and specialists collaborated predominantly in autonomy-preserving, exchange-based forms. It was also shown that the individual openness to collaboration and the subjectively perceived support from the school management were especially important factors for the realisation of multi-professional collaboration. Questions three and four deal with the identification of pat-terns in cooperation behaviour (sub-study 2). On the one hand, this involves personal profiles of teachers and specialists (third research question) and, on the other hand, school-related profiles (fourth research question), which are identified using the person-centred approach of latent profile analyses, taking into account the multi-level structure. Four profiles were identified with regard to individual cooperation behaviour and three with regard to school-specific cooperation behaviour. The majority of teachers and specialists could be categorised in the "regularly" profile, i.e. according to their own assessment, they collaborated with each other more frequently than average in an exchange and division of labour, but also regularly in a co-constructive manner. At school level, it was found that around every second inclusive school in the state of Brandenburg has a highly developed culture of collaboration. Sub-study 3 focuses on the questions of how school-specific cultures of collaboration are related to the performance of pupils at primary and secondary level. Using autoregressive multi-level analyses, the correlation with the performance development of all pupils (fifth research question) is examined on the one hand, and specifically focussed on the development of pupils with and without special educational needs (sixth research question). A key finding here was that pupils with special educational needs at both primary and secondary level benefited most in terms of their performance development if they learnt at schools where teachers and specialists regularly exchanged information about the pupils' learning status (exchange), developed and distributed work packages for differentiated learning opportunities (division of labour) and also occasionally developed solutions to problems together (co-construction). The results are categorised and discussed against the background of the postulated relevance of multi-professional collaboration for inclusive school and lesson development processes. Furthermore, various practical implications for supporting multi-professional collaboration in primary and secondary education are derived. KW - multiprofessionelle Kooperation KW - Primar- und Sekundarstufe KW - latente Mehrebenen-Profilanalysen KW - (autoregressive) Mehrebenenanalysen KW - Leistungsentwicklung KW - inklusive Schulen KW - multiprofessional collaboration KW - primary and secondary schools KW - multilevel latent profile analyses KW - autoregressive multi-level analyses KW - performance development KW - inclusive schools Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639190 ER - TY - THES A1 - Heinz, Markus T1 - Synthese von Monomeren auf der Basis nachwachsender Rohstoffe und ihre Polymerisation T1 - Synthesis of Monomers based on Renewable Resources and their Polymerization N2 - Die vorliegende Arbeit thematisiert die Synthese und die Polymerisation von Monomeren auf der Basis nachwachsender Rohstoffe wie zum Beispiel in Gewürzen und ätherischen Ölen enthaltenen kommerziell verfügbaren Phenylpropanoiden (Eugenol, Isoeugenol, Zimtalkohol, Anethol und Estragol) und des Terpenoids Myrtenol sowie ausgehend von der Rinde einer Birke (Betula pendula) und der Korkeiche (Quercus suber). Ausgewählte Phenylpropanoide (Eugenol, Isoeugenol und Zimtalkohol) und das Terpenoid Myrtenol wurden zunächst in den jeweiligen Laurylester überführt und anschließend das olefinische Strukturelement epoxidiert, wobei 4 neue (2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat, 2-Methoxy-4-(3-methyl-oxiran-2-yl)phenyldodecanoat, (3-Phenyloxiran-2-yl)methyldodecanoat, (7,7-Dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyldodecanoat) und 2 bereits bekannte monofunktionelle Epoxide (2-(4-Methoxybenzyl)oxiran und 2-(4-Methoxyphenyl)-3-methyloxiran) erhalten wurden, die mittels 1H-NMR-, 13C-NMR- und FT-IR-Spektroskopie sowie mit DSC untersucht wurden. Die Photo-DSC Untersuchung der Epoxidmonomere in einer kationischen Photopolymerisation bei 40 °C ergab die maximale Polymerisationsgeschwindigkeit (Rpmax: 0,005 s-1 bis 0,038 s-1) sowie die Zeit (tmax: 13 s bis 26 s) bis zum Erreichen des Rpmax-Wertes und führte zu flüssigen Oligomeren, deren zahlenmittlerer Polymerisationsgrad mit 3 bis 6 mittels GPC bestimmt wurde. Die Umsetzung von 2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat mit Methacrylsäure ergab ein Isomerengemisch (2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat), das mittels Photo-DSC in einer freien radikalischen Photopolymerisation untersucht wurde (Rpmax: 0,105 s-1 und tmax: 5 s), die zu festen in Chloroform unlöslichen Polymeren führte. Aus Korkpulver und gemahlener Birkenrinde wurden selektiv 2 kristalline ω-Hydroxyfettsäuren (9,10-Epoxy-18-hydroxyoctadecansäure und 22-Hydroxydocosansäure) isoliert. Die kationische Photopolymerisation der 9,10-Epoxy-18-hydroxyoctadecansäure ergab einen nahezu farblosen transparenten und bei Raumtemperatur elastischen Film, welcher ein Anwendungspotential für Oberflächenbeschichtungen hat. Aus der Reaktion von 9,10-Epoxy-18-hydroxyoctadecansäure mit Methacrylsäure wurde ein bei Raumtemperatur flüssiges Gemisch aus zwei Konstitutionsisomeren (9,18-Dihydroxy-10-(methacryloyloxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure) erhalten (Tg: -60 °C). Die radikalische Photopolymerisation dieser Konstitutionsisomere wurde ebenfalls mittels Photo-DSC untersucht (Rpmax: 0,098 s-1 und tmax: 3,8 s). Die Reaktion von 22-Hydroxydocosansäure mit Methacryloylchlorid ergab die kristalline 22-(Methacryloyloxy)docosansäure, welche ebenfalls in einer radikalischen Photopolymerisation mittels Photo-DSC untersucht wurde (Rpmax: 0,023 s-1 und tmax: 9,6 s). Die mittels AIBN in Dimethylsulfoxid initiierte Homopolymerisation der 22-(Methacryloyloxy)docosansäure und der Isomerengemische bestehend aus 2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat sowie aus 9,18-Dihydroxy-10-(methacryloy-loxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure ergab feste lösliche Polymere, die mittels 1H-NMR- und FT-IR-Spektroskopie, GPC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Pn = 94) und DSC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Tg: 52 °C; Poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecansäure / 9-(methacryloyloxy)-10,18-dihydroxyoctadecansäure): Tg: 10 °C; Poly(22-(methacryloyloxy)docosansäure): Tm: 74,1 °C, wobei der Schmelzpunkt mit dem des Photopolymers (Tm = 76,8 °C) vergleichbar ist) charakterisiert wurden. Das bereits bekannte Monomer 4-(4-Methacryloyloxyphenyl)butan-2-on wurde ausgehend von 4-(4-Hydroxyphenyl)butan-2-on hergestellt, welches aus Birkenrinde gewonnen werden kann, und unter identischen Bedingungen für einen Vergleich mit den neuen Monomeren polymerisiert. Die freie radikalische Polymerisation führte zu Poly(4-(4-methacryloyloxyphenyl)butan-2-on) (Pn: 214 und Tg: 83 °C). Neben der Homopolymerisation wurde eine statistische Copolymerisation des Isomerengemisches 2-Methoxy-4-(2-hydroxy-3-(methacryl-oyloxy)propyl)phenyldodecanoat / 2-Methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)-phenyldodecanoat mit 4-(4-Methacryloyloxyphenyl)butan-2-on untersucht, wobei ein äquimolarer Einsatz der Ausgangsmonomere zu einem Anstieg der Ausbeute, der Molmassenverteilung und der Dispersität des Copolymers (Tg: 44 °C) führte. Die unter Verwendung von Diethylcarbonat als „grünes“ Lösungsmittel mittels AIBN initiierten freien radikalischen Homopolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on und von Laurylmethacrylat ergaben vergleichbare Polymerisationsgrade der Homopolymere (Pn: 150), welche jedoch aufgrund ihrer Strukturunterschiede deutlich unterschiedliche Glasübergangstemperaturen hatten (Poly(4-(4-methacryloyloxyphenyl)butan-2-on): Tg: 70 °C, Poly(laurylmethacrylat) Tg: -49 °C. Eine statistische Copolymerisation äquimolarer Stoffmengen der beiden Monomere in Diethylcarbonat führte bei einer Polymerisationszeit von 60 Minuten zu einem leicht bevorzugten Einbau des 4-(4-Methacryloyloxyphenyl)butan-2-on in das Copolymer (Tg: 17 °C). Copolymerisationsdiagramme für die freien radikalischen Copolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on mit n-Butylmethacrylat beziehungsweise 2-(Dimethylamino)ethylmethacrylat (t: 20 min bis 60 min; Molenbrüche (X) für 4-(4-Methacryloyloxyphenyl)butan-2-on: 0,2; 0,4; 0,6 und 0,8) zeigten ein nahezu ideales azeotropes Copolymerisationsverhalten, obwohl ein leicht bevorzugter Einbau von 4-(4-Methacryloyloxyphenyl)butan-2-on in das jeweilige Copolymer beobachtet wurde. Dabei korreliert ein Anstieg der Ausbeute und der Glasübergangstemperatur der erhaltenen Copolymere mit einem zunehmenden Gehalt an 4-(4-Methacryloyloxyphenyl)butan-2-on im Reaktionsgemisch. Die unter Einsatz der modifizierten Gibbs-DiMarzio-Gleichung berechneten Glasübergangstemperaturen der Copolymere stimmten mit den gemessenen Werten gut überein. Das ist eine gute Ausgangsbasis für die Bestimmung der Glasübergangstemperatur eines Copolymers mit einer beliebigen Zusammensetzung. N2 - The subject of this work is the synthesis and polymerization of monomers based on renewable material e. g. commercially available phenylpropanoides (eugenol, iso-eugenol, cinnamyl alcohol, anethol, and estragol) containing in spices and essential oils, the terpenoid myrtenol, as well as material derived from the bark of a birch (Betula pendula) and cork oak (Quercus suber). Selected phenylpropanoides (eugenol, iso-eugenol and cinnamyl alcohol) and the terpenoid myrtenol were first transferred to the lauryl ester followed by epoxidation of the olefinic structure to yield 4 new (2-methoxy-4-(oxiran-2-ylmethyl)-phenyl dodecanoate, 2-methoxy-4-(3-methyloxiran-2-yl)phenyl dodecanoate, (3-phenyloxiran-2-yl)methyl dodecanoate, (7,7-dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyl dodecanoate) and 2 already known monofunctional epoxides (2-(4-methoxybenzyl)oxirane and 2-(4-methoxy-phenyl)-3-methyloxirane), which were investigated using 1H-NMR-, 13C-NMR- and FT-IR- spectroscopy, and DSC. Photo-DSC investigation of the cationic polymerization of the epoxy monomers at 40 °C revealed the maximum polymerization rate (Rpmax: 0,005 s-1 to 0,038 s-1) and the time (tmax: 13 s to 26 s) to obtain the Rpmax value. Liquid oligomers were obtained with a number average degree of polymerization between 3 and 6, as determined by GPC. The reaction of 2-methoxy-4-(oxiran-2-ylmethyl)phenyl dodecanoate with methacrylic acid resulted in a mixture of isomers (2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)-phenyl dodecanoate and 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyl dodecanoate). Free radical photopolymerization of this isomeric mixture, studied by photo-DSC (Rpmax: 0,105 s-1 and tmax: 5 s), resulted in solid polymers that were insoluble in chloroform. Two crystalline ω-hydroxy fatty acids (9,10-epoxy-18-hydroxyoctadecanoic acid and 22-hydroxydocosanoic acid) were selectively isolated from cork powder and powdered birch bark. The cationic photopolymerization of 9,10-epoxy-18-hydroxyoctadecanoic acid resulted in a nearly colorless transparent film that was elastic at room temperature. Therefore, it has an application potential in the manufacture of coatings. The reaction of 9,10-epoxy-18-hydroxyoctadecanoic acid with methacrylic acid resulted in a mixture of two constitutional isomers (9,18-dihydroxy-10-(methacryloyloxy)octadecanoic acid and 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid), which is liquid at room temperature (Tg: -60 °C). The radical photopolymerization of these constitutional isomers was also studied by photo-DSC (Rpmax: 0,098 s-1 and tmax: 3,8 s). The reaction of 22-hydroxydocosanoic acid with methacryloyl chloride yielded crystalline 22-(methacryloyloxy)docosanoic acid, which was studied by photo-DSC in a radical photopolymerization (Rpmax: 0,023 s-1 and tmax: 9,6 s). The homopolymerization of both 22-(methacryloyloxy)docosanoic acid and the isomeric mixtures consisting of 2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate and 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyl dodecanoat as well as 9,18-dihydroxy-10-(methacryloyloxy)octadecanoic acid and 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid resulted in solid soluble polymers, which were characterized by 1H-NMR- and FT-IR-spectroscopy, GPC (poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxy-propyl)phenyl dodecanoate): Pn = 94), and DSC (poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxy-propyl)phenyl dodecanoate): Tg: 52 °C; poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecanoic acid / 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid): Tg: 10 °C; poly(22-(methacryloyloxy)docosanoic acid): Tm: 74,1 °C, this melting temperature is comparable to that of the photopolymer (Tm = 76,8 °C)). The already known monomer 4-(4-methacryloyloxyphenyl)butane-2-one was synthesized from 4-(4-hydroxyphenyl)butan-2-one obtained from birch bark and polymerized under identical conditions for comparison with the new monomers. The free radical polymerization resulted in poly(4-(4-methacryloyloxyphenyl)butan-2-one) (Pn: 214 and Tg: 83 °C). Besides the homopolymerization, a random copolymerization of the 2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate / 2-methoxy-4-(2-(methacryloyl-oxy)-3-hydroxypropyl)phenyl dodecanoate isomer mixture with 4-(4-methacryloyloxyphenyl)butan-2-one was also investigated, which resulted in an increase in the yield, molecular weight distribution and dispersity of the copolymer (Tg: 44 °C) at a stoichiometric ratio of the monomers. The application of diethyl carbonate as „green“ solvent in the free radical homopolymerization of both 4-(4-methacryloyloxyphenyl)butan-2-one and lauryl methacrylate initiated with AIBN resulted in a comparable degree of polymerization of the homopolymers obtained (Pn: 150). However, due to the structural differences of the monomer segments, different glass transition temperatures were obtained for poly(4-(4-methacryloyloxyphenyl)butan-2-one) (Tg: 70 °C) and poly(lauryl methacrylate) (Tg: -49 °C). A random copolymerization of a stoichiometric ratio of the monomers in diethyl carbonate resulted in a slightly preferential incorporation of the 4-(4-methacryloyloxyphenyl)butan-2-one in the copolymer (Tg: 17 °C) after a polymerization time of 60 min. Copolymerization diagrams for free radical copolymerizations of 4-(4-methacryloyloxyphenyl)butan-2-one with either n-butyl methacrylate or 2-(dimethylamino)ethyl methacrylate (t: 20 min to 60 min; molar fraction (X) for 4-(4-methacryloyloxyphenyl)butan-2-one: 0,2; 0,4; 0,6 and 0,8) showed an almost ideal azeotropic copolymerization behavior, although a slightly preferential incorporation of the 4-(4-methacryloyloxyphenyl)butan-2-one was observed in the copolymers. An increase in both yield and glass transition temperature of the copolymers obtained correlated with an increasing content on 4-(4-methacryloyloxyphenyl)butan-2-one in the reaction mixture. Good agreement was found between the glass transition temperatures calculated using the modified Gibbs-DiMarzio equation and the measured values for the copolymers. This is a good basis for determining the glass transition temperature of a copolymer of any composition. KW - photoinitiierte kationische Polymerisation KW - Epoxide KW - epoxidierte Phenylpropanoide KW - epoxidierte Terpene KW - Copolymerisationsdiagramme KW - freie radikalische Polymerisation KW - Glasübergangstemperaturen KW - Methacrylate KW - Molmassen KW - statistische Copolymere KW - 9,10-Epoxy-18-hydroxyoctadecansäure KW - biobasierte Methacrylate KW - biobasierte Monomere KW - nachwachsende Rohstoffe KW - 22-Hydroxydocosansäure KW - photoinitiierte Polymerisation KW - Polymerisation KW - Betula pendula KW - Quercus suber KW - Birke KW - Korkeiche KW - Biomasse KW - Birkenrinde KW - grüne Chemie KW - Polymere KW - photoinitiierte freie radikalische Polymerisation KW - 22-hydroxydocosanoic acid KW - 9,10-epoxy-18-hydroxyoctadecanoic acid KW - Betula pendula KW - biomass KW - birch KW - birch bark KW - copolymerization diagrams KW - Epoxides KW - Glass transition temperatures KW - Cork oak KW - Methacrylates KW - Molar masses KW - polymers KW - polymerization KW - Quercus suber KW - bio-based methacrylates KW - bio-based monomers KW - epoxidized phenylpropanoids KW - epoxidized terpenes KW - free radical polymerization KW - green chemistry KW - renewable raw materials KW - photoinitiated polymerization KW - photoinitiated free radical KW - photoinitiated cationic polymerization KW - random copolymers KW - photopolymerization KW - Baumrinde KW - Rinde KW - tree bark KW - bark KW - Photopolymerisation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-637943 ER - TY - THES A1 - Pfalz, Gregor T1 - Advancing knowledge of Arctic lake system dynamics: A data-driven perspective on spatiotemporal patterns T1 - Fortschritte im Verständnis der Dynamik arktischer Seesysteme: Eine datengetriebene Perspektive auf raumzeitliche Muster N2 - Ecosystems play a pivotal role in addressing climate change but are also highly susceptible to drastic environmental changes. Investigating their historical dynamics can enhance our understanding of how they might respond to unprecedented future environmental shifts. With Arctic lakes currently under substantial pressure from climate change, lessons from the past can guide our understanding of potential disruptions to these lakes. However, individual lake systems are multifaceted and complex. Traditional isolated lake studies often fail to provide a global perspective because localized nuances—like individual lake parameters, catchment areas, and lake histories—can overshadow broader conclusions. In light of these complexities, a more nuanced approach is essential to analyze lake systems in a global context. A key to addressing this challenge lies in the data-driven analysis of sedimentological records from various northern lake systems. This dissertation emphasizes lake systems in the northern Eurasian region, particularly in Russia (n=59). For this doctoral thesis, we collected sedimentological data from various sources, which required a standardized framework for further analysis. Therefore, we designed a conceptual model for integrating and standardizing heterogeneous multi-proxy data into a relational database management system (PostgreSQL). Creating a database from the collected data enabled comparative numerical analyses between spatially separated lakes as well as between different proxies. When analyzing numerous lakes, establishing a common frame of reference was crucial. We achieved this by converting proxy values from depth dependency to age dependency. This required consistent age calculations across all lakes and proxies using one age-depth modeling software. Recognizing the broader implications and potential pitfalls of this, we developed the LANDO approach ("Linked Age and Depth Modelling"). LANDO is an innovative integration of multiple age-depth modeling software into a singular, cohesive platform (Jupyter Notebook). Beyond its ability to aggregate data from five renowned age-depth modeling software, LANDO uniquely empowers users to filter out implausible model outcomes using robust geoscientific data. Our method is not only novel but also significantly enhances the accuracy and reliability of lake analyses. Considering the preceding steps, this doctoral thesis further examines the relationship between carbon in sediments and temperature over the last 21,000 years. Initially, we hypothesized a positive correlation between carbon accumulation in lakes and modelled paleotemperature. Our homogenized dataset from heterogeneous lakes confirmed this association, even if the highest temperatures throughout our observation period do not correlate with the highest carbon values. We assume that rapid warming events contribute more to high accumulation, while sustained warming leads to carbon outgassing. Considering the current high concentration of carbon in the atmosphere and rising temperatures, ongoing climate change could cause northern lake systems to contribute to a further increase in atmospheric carbon (positive feedback loop). While our findings underscore the reliability of both our standardized data and the LANDO method, expanding our dataset might offer even greater assurance in our conclusions. N2 - Ökosysteme spielen eine zentrale Rolle bei der Bewältigung des Klimawandels, gelten jedoch auch als äußerst anfällig für drastische Umweltveränderungen. Die Erforschung ihrer historischen Dynamiken kann unser Verständnis darüber verbessern, wie sich zukünftige Veränderungen angesichts beispielloser Umweltveränderungen auf sie auswirken können. Angesichts des enormen Stresses, dem arktische Seen durch den Klimawandel ausgesetzt sind, können konkrete Fälle aus der Vergangenheit helfen, mögliche Schwankungen im Ökosystem des Sees besser zu verstehen und zu deuten. Einzelne Seesysteme unterliegen jedoch einer inhärenten Komplexität und vielschichtigen Beschaffenheit. Klassische Einzelanalysen von Seen liefern oft keine globale Perspektive, da lokale Besonderheiten – wie individuelle Seeparameter, Einzugsgebiete und Seehistorien – allgemeinere Schlussfolgerungen überlagern können. Eine differenzierte Herangehensweise ist hierbei erforderlich, um Seesysteme im globalen Kontext angemessen zu analysieren. Ein Schlüssel zur Bewältigung dieser Herausforderung ist die datenwissenschaftliche Analyse von sedimentologischen Daten aus mehreren nördlichen Seesystemen. Diese Dissertation fokussiert sich dabei auf das Gebiet des nördlichen Eurasiens mit einem besonderen Fokus auf Seesystem in Russland (n=59). Die gesammelten sedimentologischen Daten für diese Doktorarbeit mussten hierfür zunächst standardisiert und homogenisiert werden. Hierfür wurde ein konzeptuelles Modell für die Integration und Standardisierung von heterogenen Multi-Proxy-Daten in ein relationales Datenbankverwaltungssystem (PostgreSQL) entworfen. Die Erstellung einer Datenbank aus der gesammelten Datenkollektion ermöglichte die numerische, vergleichende Analyse zwischen räumlich getrennten Seen als auch zwischen verschiedenen Proxys. Eine Analyse von mehreren Seen erforderte zudem eine gemeinsame Analyseebene, welche wir durch die Umwandlung von einer Tiefenabhängigkeit zu Altersabhängigkeit der Proxywerte erreichten. Diese bedurfte aber, dass die zugehörigen Alter von Proxywerte von allen Seen mit demselben Verfahren einer Alterstiefenmodellsoftware berechnet werden müssen. Angesichts der weitreichenden Implikationen und potenziellen Fallstricke entwickelten wir den LANDO-Ansatz („Linked Age and Depth Modelling“). LANDO stellt eine innovative Integration mehrerer Alters-Tiefen-Modellierungssoftware in eine einheitliche, kohärente Plattform (Jupyter Notebook) dar. Neben seiner Fähigkeit, Daten von fünf renommierten Alters-Tiefen-Modellierungssoftware zu aggregieren, ermöglicht LANDO es den Nutzern auf einzigartige Weise, unbegründete Modellergebnisse anhand robuster geowissenschaftlicher Daten herauszufiltern. Unsere Methode ist nicht nur neuartig, sondern steigert auch signifikant die Genauigkeit und Zuverlässigkeit von Seeanalysen. Schlussendlich unter Berücksichtigung der vorangegangenen Schritte betrachtet die Doktorarbeit den Zusammenhang zwischen Kohlenstoff in Sedimenten und Temperatur über die letzten 21 000 Jahre. Zunächst nehmen wir an, dass es eine positive Korrelation zwischen Kohlenstoffakkumulation in Seen und modellierter Paläo-Temperatur gibt. Diese kann dank des homogenisierten Datensatzes von heterogenen Seen bestätigt werden, wenn auch die höchsten Temperaturen über unseren Betrachtungszeitraum nicht korrelieren mit den höchsten Kohlenstoffwerten. Wir gehen davon aus, dass schnelle Erwärmungsereignisse eher zu einer hohen Akkumulation beitragen, während bestehende Erwärmung eher zu einer Ausgasung von Kohlenstoff führt. In Anbetracht der aktuellen hohen Konzentration von Kohlenstoff in der Atmosphäre und der steigenden Temperaturen, können bei einem weiterführenden Klimawandel nördliche Seesysteme zu einem weiteren Anstieg von atmosphärischem Kohlenstoff führen (positive Feedbackschleife). Obwohl die bemerkenswerten Ergebnisse zeigen, dass unser Ansatz aus standardisierten Daten und LANDO zuverlässig ist, könnte eine größere Datenmenge das Vertrauen in die Ergebnisse noch weiter stärken. KW - Arcitc KW - lake systems KW - paleotemperature KW - carbon KW - climate data science KW - Paläolimnologie KW - Eurasien KW - Paläoklimatologie KW - Seesedimente KW - Klimadatenwissenschaften KW - Kohlenstoff Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636554 ER - TY - THES A1 - Damseaux, Adrien T1 - Improving permafrost dynamics in land surface models: insights from dual sensitivity experiments T1 - Verbesserung der Permafrostdynamik in Landoberflächenmodellen: Erkenntnisse aus doppelten Sensitivitätsexperimenten N2 - The thawing of permafrost and the subsequent release of greenhouse gases constitute one of the most significant and uncertain positive feedback loops in the context of climate change, making predictions regarding changes in permafrost coverage of paramount importance. To address these critical questions, climate scientists have developed Land Surface Models (LSMs) that encompass a multitude of physical soil processes. This thesis is committed to advancing our understanding and refining precise representations of permafrost dynamics within LSMs, with a specific focus on the accurate modeling of heat fluxes, an essential component for simulating permafrost physics. The first research question overviews fundamental model prerequisites for the representation of permafrost soils within land surface modeling. It includes a first-of-its-kind comparison between LSMs in CMIP6 to reveal their differences and shortcomings in key permafrost physics parameters. Overall, each of these LSMs represents a unique approach to simulating soil processes and their interactions with the climate system. Choosing the most appropriate model for a particular application depends on factors such as the spatial and temporal scale of the simulation, the specific research question, and available computational resources. The second research question evaluates the performance of the state-of-the-art Community Land Model (CLM5) in simulating Arctic permafrost regions. Our approach overcomes traditional evaluation limitations by individually addressing depth, seasonality, and regional variations, providing a comprehensive assessment of permafrost and soil temperature dynamics. I compare CLM5's results with three extensive datasets: (1) soil temperatures from 295 borehole stations, (2) active layer thickness (ALT) data from the Circumpolar Active Layer Monitoring Network (CALM), and (3) soil temperatures, ALT, and permafrost extent from the ESA Climate Change Initiative (ESA-CCI). The results show that CLM5 aligns well with ESA-CCI and CALM for permafrost extent and ALT but reveals a significant global cold temperature bias, notably over Siberia. These results echo a persistent challenge identified in numerous studies: the existence of a systematic 'cold bias' in soil temperature over permafrost regions. To address this challenge, the following research questions propose dual sensitivity experiments. The third research question represents the first study to apply a Plant Functional Type (PFT)-based approach to derive soil texture and soil organic matter (SOM), departing from the conventional use of coarse-resolution global data in LSMs. This novel method results in a more uniform distribution of soil organic matter density (OMD) across the domain, characterized by reduced OMD values in most regions. However, changes in soil texture exhibit a more intricate spatial pattern. Comparing the results to observations reveals a significant reduction in the cold bias observed in the control run. This method shows noticeable improvements in permafrost extent, but at the cost of an overestimation in ALT. These findings emphasize the model's high sensitivity to variations in soil texture and SOM content, highlighting the crucial role of soil composition in governing heat transfer processes and shaping the seasonal variation of soil temperatures in permafrost regions. Expanding upon a site experiment conducted in Trail Valley Creek by \citet{dutch_impact_2022}, the fourth research question extends the application of the snow scheme proposed by \citet{sturm_thermal_1997} to cover the entire Arctic domain. By employing a snow scheme better suited to the snow density profile observed over permafrost regions, this thesis seeks to assess its influence on simulated soil temperatures. Comparing this method to observational datasets reveals a significant reduction in the cold bias that was present in the control run. In most regions, the Sturm run exhibits a substantial decrease in the cold bias. However, there is a distinctive overshoot with a warm bias observed in mountainous areas. The Sturm experiment effectively addressed the overestimation of permafrost extent in the control run, albeit resulting in a substantial reduction in permafrost extent over mountainous areas. ALT results remain relatively consistent compared to the control run. These outcomes align with our initial hypothesis, which anticipated that the reduced snow insulation in the Sturm run would lead to higher winter soil temperatures and a more accurate representation of permafrost physics. In summary, this thesis demonstrates significant advancements in understanding permafrost dynamics and its integration into LSMs. It has meticulously unraveled the intricacies involved in the interplay between heat transfer, soil properties, and snow dynamics in permafrost regions. These insights offer novel perspectives on model representation and performance. N2 - Das Auftauen von Permafrost und die anschließende Freisetzung von Treibhausgasen stellen eine der bedeutendsten und unsichersten positiven Rückkopplungsschleifen im Kontext des Klimawandels dar, was Vorhersagen über Veränderungen der Permafrostverbreitung von größter Bedeutung macht. Um diese kritischen Fragen zu adressieren, haben Klimawissenschaftler Landoberflächenmodelle (LSMs) entwickelt, die eine Vielzahl physikalischer Bodenprozesse umfassen. Diese Dissertation widmet sich der Vertiefung unseres Verständnisses und der Verfeinerung präziser Darstellungen der Permafrostdynamik innerhalb von LSMs, mit einem besonderen Fokus auf die genaue Modellierung von Wärmeflüssen, einem wesentlichen Bestandteil der Simulation von Permafrostphysik. Die erste Forschungsfrage gibt einen Überblick über grundlegende Modellanforderungen für die Darstellung von Permafrostböden innerhalb der Landoberflächenmodellierung. Sie beinhaltet einen erstmaligen Vergleich zwischen LSMs im Rahmen von CMIP6, um deren Unterschiede und Schwächen in den Schlüsselparametern der Permafrostphysik aufzuzeigen. Insgesamt repräsentiert jedes dieser LSMs einen einzigartigen Ansatz zur Simulation von Bodenprozessen und deren Wechselwirkungen mit dem Klimasystem. Die Wahl des am besten geeigneten Modells für eine bestimmte Anwendung hängt von Faktoren wie dem räumlichen und zeitlichen Maßstab der Simulation, der spezifischen Forschungsfrage und den verfügbaren Rechenressourcen ab. Die zweite Forschungsfrage bewertet die Leistungsfähigkeit des hochmodernen Community Land Model (CLM5) bei der Simulation arktischer Permafrostregionen. Unser Ansatz überwindet traditionelle Evaluationsbeschränkungen, indem er Tiefe, Saisonalität und regionale Variationen einzeln berücksichtigt und eine umfassende Bewertung der Permafrost- und Bodentemperaturdynamik liefert. Ich vergleiche die Ergebnisse von CLM5 mit drei umfangreichen Datensätzen: (1) Bodentemperaturen von 295 Bohrlochstationen, (2) Daten zur aktiven Schichtdicke (ALT) aus dem Circumpolar Active Layer Monitoring Network (CALM) und (3) Bodentemperaturen, ALT und Permafrostausdehnung aus der ESA Climate Change Initiative (ESA-CCI). Die Ergebnisse zeigen, dass CLM5 gut mit ESA-CCI und CALM für Permafrostausdehnung und ALT übereinstimmt, jedoch eine signifikante globale kalte Temperaturabweichung aufweist, insbesondere über Sibirien. Diese Ergebnisse spiegeln eine anhaltende Herausforderung wider, die in zahlreichen Studien identifiziert wurde: das Vorhandensein einer systematischen "kalten Abweichung" bei Bodentemperaturen in Permafrostregionen. Um diese Herausforderung anzugehen, schlagen die folgenden Forschungsfragen duale Sensitivitätsexperimente vor. Die dritte Forschungsfrage stellt die erste Studie dar, die einen pflanzenfunktionstypbasierten Ansatz (PFT) zur Ableitung von Bodentextur und organischer Bodensubstanz (SOM) anwendet und sich von der herkömmlichen Verwendung grob aufgelöster globaler Daten in LSMs abwendet. Diese neuartige Methode führt zu einer gleichmäßigeren Verteilung der Dichte organischer Bodensubstanz (OMD) im gesamten Bereich, gekennzeichnet durch geringere OMD-Werte in den meisten Regionen. Veränderungen in der Bodentextur zeigen jedoch ein komplexeres räumliches Muster. Der Vergleich der Ergebnisse mit Beobachtungen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf beobachtet wurde. Diese Methode zeigt bemerkenswerte Verbesserungen in der Permafrostausdehnung, jedoch auf Kosten einer Überschätzung der ALT. Diese Ergebnisse unterstreichen die hohe Empfindlichkeit des Modells gegenüber Variationen in der Bodentextur und dem SOM-Gehalt und heben die entscheidende Rolle der Bodenbeschaffenheit bei der Steuerung der Wärmeübertragungsprozesse und der saisonalen Variation der Bodentemperaturen in Permafrostregionen hervor. Aufbauend auf einem Standortexperiment im Trail Valley Creek von Dutch et al. (2022) erweitert die vierte Forschungsfrage die Anwendung des von Sturm et al. (1997) vorgeschlagenen Schneeschemas auf das gesamte arktische Gebiet. Durch die Anwendung eines Schneeschemas, das besser zu dem in Permafrostregionen beobachteten Schneedichteprofil passt, versucht diese Dissertation, dessen Einfluss auf die simulierten Bodentemperaturen zu bewerten. Der Vergleich dieser Methode mit Beobachtungsdatensätzen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf vorhanden war. In den meisten Regionen weist der Sturm-Lauf eine erhebliche Verringerung der kalten Abweichung auf. Es gibt jedoch eine deutliche Überschreitung mit einer warmen Abweichung in Bergregionen. Das Sturm-Experiment hat die Überschätzung der Permafrostausdehnung im Kontrolllauf wirksam angegangen, was jedoch zu einer erheblichen Reduzierung der Permafrostausdehnung in Bergregionen führte. Die ALT-Ergebnisse bleiben im Vergleich zum Kontrolllauf relativ konsistent. Diese Ergebnisse entsprechen unserer ursprünglichen Hypothese, die erwartete, dass die reduzierte Schneedecke im Sturm-Lauf zu höheren Winterbodentemperaturen und einer genaueren Darstellung der Permafrostphysik führen würde. Zusammenfassend zeigt diese Dissertation bedeutende Fortschritte im Verständnis der Permafrostdynamik und deren Integration in LSMs. Sie hat die Komplexität der Wechselwirkungen zwischen Wärmeübertragung, Bodeneigenschaften und Schneedynamik in Permafrostregionen sorgfältig entschlüsselt. Diese Erkenntnisse bieten neue Perspektiven auf die Modellierung und Leistung von Modellen. KW - snow thermal conductivity KW - soil organic matter KW - model validation KW - Modellvalidierung KW - Wärmeleitfähigkeit von Schnee KW - organische Bodensubstanz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639450 ER - TY - THES A1 - Benz, Eleanor T1 - The advisory function of the Inter-American Court of Human Rights T2 - Beiträge zum ausländischen öffentlichen Recht und Völkerrecht N2 - How do the rights of same-sex couples have to be ensured by states, and which kind of environmental obligations are induced by the right to life and to personal integrity? Questions as diverse and far-reaching as these are regularly dealt with by the Inter-American Court of Human Rights in its advisory function. This book is the first comprehensive, non-Spanish-written treatise on the advisory function of this Court. It analyzes the scope of the Court's advisory jurisdiction and its procedural practice in comparison with that of other international courts. Moreover, the legal effects of the Court’s advisory opinions and the question when the Court should better reject a request for an advisory opinion are examined. N2 - Wie müssen die Rechte gleichgeschlechtlicher Paare sichergestellt werden und welche umweltrechtlichen Verpflichtungen folgen aus dem Recht auf Leben und auf körperliche Unversehrtheit? Mit so unterschiedlichen und weitreichenden Fragen wie diesen befasst sich der Interamerikanische Gerichtshof für Menschenrechte regelmäßig im Rahmen seiner Gutachtenfunktion. Das Buch stellt die erste umfassende, nicht-spanischsprachige Abhandlung dieser Gutachtenfunktion dar. Es analysiert den Umfang der Gutachtenjurisdiktion und die Verfahrenspraxis des Gerichtshofs im Vergleich mit der anderer internationaler Gerichtshöfe. Außerdem wird die rechtliche Wirkung der Gutachten und die Frage, wann der Gerichtshof Gutachtenanfragen ablehnen sollte, untersucht. KW - right to life Y1 - 2024 U6 - https://doi.org/10.5771/9783748919803 SN - 978-3-7489-1980-3 SN - 978-3-7560-1443-9 VL - 329 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Duchrau, Georg T1 - Möglichkeiten und Grenzen des erweiterten Cross Parity Codes Y1 - 2024 ER - TY - THES A1 - Koyan, Philipp T1 - 3D attribute analysis and classification to interpret ground-penetrating radar (GPR) data collected across sedimentary environments: Synthetic studies and field examples T1 - 3D Attributanalyse und -klassifizierung zur Interpretation von Georadar-Daten in sedimentären Umgebungen: Synthetische Studien und Feldbeispiele N2 - Die Untersuchung des oberflächennahen Untergrundes erfolgt heutzutage bei Frage- stellungen aus den Bereichen des Bauwesens, der Archäologie oder der Geologie und Hydrologie oft mittels zerstörungsfreier beziehungsweise zerstörungsarmer Methoden der angewandten Geophysik. Ein Bereich, der eine immer zentralere Rolle in Forschung und Ingenieurwesen einnimmt, ist die Untersuchung von sedimentären Umgebungen, zum Beispiel zur Charakterisierung oberflächennaher Grundwassersysteme. Ein in diesem Kontext häufig eingesetztes Verfahren ist das des Georadars (oftmals GPR - aus dem Englischen ground-penetrating radar). Dabei werden kurze elektromagnetische Impulse von einer Antenne in den Untergrund ausgesendet, welche dort wiederum an Kontrasten der elektromagnetischen Eigenschaften (wie zum Beispiel an der Grundwasseroberfläche) reflektiert, gebrochen oder gestreut werden. Eine Empfangsantenne zeichnet diese Signale in Form derer Amplituden und Laufzeiten auf. Eine Analyse dieser aufgezeichneten Signale ermöglicht Aussagen über den Untergrund, beispielsweise über die Tiefenlage der Grundwasseroberfläche oder die Lagerung und Charakteristika oberflächennaher Sedimentschichten. Dank des hohen Auflösungsvermögens der GPR-Methode sowie stetiger technologischer Entwicklungen erfolgt heutzutage die Aufzeichnung von GPR- Daten immer häufiger in 3D. Trotz des hohen zeitlichen und technischen Aufwandes für die Datenakquisition und -bearbeitung werden die resultierenden 3D-Datensätze, welche den Untergrund hochauflösend abbilden, typischerweise von Hand interpretiert. Dies ist in der Regel ein äußerst zeitaufwendiger Analyseschritt. Daher werden oft repräsentative 2D-Schnitte aus dem 3D-Datensatz gewählt, in denen markante Reflektionsstrukuren markiert werden. Aus diesen Strukturen werden dann sich ähnelnde Bereiche im Untergrund als so genannte Radar-Fazies zusammengefasst. Die anhand von 2D-Schnitten erlangten Resultate werden dann als repräsentativ für die gesamte untersuchte Fläche angesehen. In dieser Form durchgeführte Interpretationen sind folglich oft unvollständig sowie zudem in hohem Maße von der Expertise der Interpretierenden abhängig und daher in der Regel nicht reproduzierbar. Eine vielversprechende Alternative beziehungsweise Ergänzung zur manuellen In- terpretation ist die Verwendung von so genannten GPR-Attributen. Dabei werden nicht die aufgezeichneten Daten selbst, sondern daraus abgeleitete Größen, welche die markanten Reflexionsstrukturen in 3D charakterisieren, zur Interpretation herangezogen. In dieser Arbeit wird anhand verschiedener Feld- und Modelldatensätze untersucht, welche Attribute sich dafür insbesondere eignen. Zudem zeigt diese Arbeit, wie ausgewählte Attribute mittels spezieller Bearbeitungs- und Klassifizierungsmethoden zur Erstellung von 3D-Faziesmodellen genutzt werden können. Dank der Möglichkeit der Erstellung so genannter attributbasierter 3D-GPR-Faziesmodelle können zukünftige Interpretationen zu gewissen Teilen automatisiert und somit effizienter durchgeführt werden. Weiterhin beschreiben die so erhaltenen Resultate den untersuchten Untergrund in reproduzierbarer Art und Weise sowie umfänglicher als es bisher mittels manueller Interpretationsmethoden typischerweise möglich war. N2 - Today, near-surface investigations are frequently conducted using non-destructive or minimally invasive methods of applied geophysics, particularly in the fields of civil engineering, archaeology, geology, and hydrology. One field that plays an increasingly central role in research and engineering is the examination of sedimentary environments, for example, for characterizing near-surface groundwater systems. A commonly employed method in this context is ground-penetrating radar (GPR). In this technique, short electromagnetic pulses are emitted into the subsurface by an antenna, which are then reflected, refracted, or scattered at contrasts in electromagnetic properties (such as the water table). A receiving antenna records these signals in terms of their amplitudes and travel times. Analysis of the recorded signals allows for inferences about the subsurface, such as the depth of the groundwater table or the composition and characteristics of near-surface sediment layers. Due to the high resolution of the GPR method and continuous technological advancements, GPR data acquisition is increasingly performed in three-dimensional (3D) fashion today. Despite the considerable temporal and technical efforts involved in data acquisition and processing, the resulting 3D data sets (providing high-resolution images of the subsurface) are typically interpreted manually. This is generally an extremely time-consuming analysis step. Therefore, representative 2D sections highlighting distinctive reflection structures are often selected from the 3D data set. Regions showing similar structures are then grouped into so-called radar facies. The results obtained from 2D sections are considered representative of the entire investigated area. Interpretations conducted in this manner are often incomplete and highly dependent on the expertise of the interpreters, making them generally non-reproducible. A promising alternative or complement to manual interpretation is the use of GPR attributes. Instead of using the recorded data directly, derived quantities characterizing distinctive reflection structures in 3D are applied for interpretation. Using various field and synthetic data sets, this thesis investigates which attributes are particularly suitable for this purpose. Additionally, the study demonstrates how selected attributes can be utilized through specific processing and classification methods to create 3D facies models. The ability to generate attribute-based 3D GPR facies models allows for partially automated and more efficient interpretations in the future. Furthermore, the results obtained in this manner describe the subsurface in a reproducible and more comprehensive manner than what has typically been achievable through manual interpretation methods. KW - ground-penetrating radar KW - sedimentary environments KW - 3D KW - applied geophysics KW - near-surface geophysics KW - Georadar KW - sedimentäre Systeme KW - angewandte Geophysik KW - oberflächennahe Geophysik KW - Attribute KW - attributes KW - geophysics KW - Geophysik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639488 ER - TY - THES A1 - Mahncke-Zare, Naghme T1 - Legitimiertes Unrecht T1 - Legitimized injustice BT - die Urteile des Obersten Gerichts zu Fällen der „Republikflucht“ und ihr Einfluss auf die Rechtspraxis der DDR 1949-1975 BT - the verdicts of the Supreme Court in cases of "desertion from the Republic" and their influence on legal practice in the GDR 1949-1975 N2 - Das Oberste Gericht der DDR war integraler Bestandteil der sozialistischen Staatsführung und unterlag strengen Denk- und Organisationsstrukturen. Es war eng in die politische Agenda der SED eingebunden und genoss keinerlei Unabhängigkeit. Die Auslegung des DDR-Rechts durch das Gericht orientierte sich ausschließlich an den innen- und außenpolitischen Interessen der SED. Dies galt auch für die Rechtsprechung in Fällen der Republikflucht und ihrer gesetzlichen Vorläufer. Die höchste Gerichtsinstanz im Staat war aktiv an der Gestaltung und Umsetzung der Strafjustiz gegen Republikflüchtige beteiligt, was wesentlich zur Festigung der Herrschaftsgewalt der SED beitrug. Die vorliegende Untersuchung analysiert Urteile des Obersten Gerichts im historisch-politischen Kontext und zeigt auf, dass die Urteilspraxis ausschließlich im Interesse parteipolitischer Ziele handelte und weder dem Volk noch der eigentlichen Rechtsfindung verpflichtet war. Des Weiteren wird der maßgebliche Beitrag des Obersten Gerichts an der schrittweisen Kriminalisierung der Bürger der DDR beleuchtet. Dies wirft ein kritisches Licht auf die Rolle des Rechtssystems bei der Sicherung von Rechtsstaatlichkeit und Menschenrechten in autoritären Regimen. N2 - The Supreme Court of the German Democratic Republic (GDR) was an integral part of the socialist state leadership and was subject to strict thought and organizational structures. It was closely integrated into the political agenda of the Socialist Unity Party of Germany (SED) and enjoyed no independence. The court's interpretation of GDR law was oriented exclusively towards the domestic and foreign policy interests of the SED, including the jurisdiction in cases of “Republikflucht” and its legal precursors. The highest court instance in the state was actively involved in the design and implementation of criminal justice against fugitives from the republic, which contributed significantly to the consolidation of the SED's power to rule. This study analyses judgments of the Supreme Court in a historical-political context and shows that the sentencing practice acted exclusively in the interests of party political goals and was neither committed to the people nor to the actual finding of justice. Moreover, the pivotal role of the Supreme Court in the gradual criminalization of citizens in the GDR is underscored. This sheds light on the critical role of the legal system in safeguarding the rule of law and human rights in authoritarian regimes. KW - DDR-Recht KW - Oberstes Gericht KW - SED-Herrschaft KW - Republiklflucht KW - Unrechtsjustiz KW - GDR law KW - supreme court of the GDR KW - SED regime KW - travel ban KW - human rights violation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635499 ER - TY - THES A1 - Lorson, Annalena T1 - Understanding early stage evolution of digital innovation units in manufacturing companies T1 - Verständnis der frühphasigen Entwicklung digitaler Innovationseinheiten in Fertigungsunternehmen N2 - The dynamic landscape of digital transformation entails an impact on industrial-age manufacturing companies that goes beyond product offerings, changing operational paradigms, and requiring an organization-wide metamorphosis. An initiative to address the given challenges is the creation of Digital Innovation Units (DIUs) – departments or distinct legal entities that use new structures and practices to develop digital products, services, and business models and support or drive incumbents’ digital transformation. With more than 300 units in German-speaking countries alone and an increasing number of scientific publications, DIUs have become a widespread phenomenon in both research and practice. This dissertation examines the evolution process of DIUs in the manufacturing industry during their first three years of operation, through an extensive longitudinal single-case study and several cross-case syntheses of seven DIUs. Building on the lenses of organizational change and development, time, and socio-technical systems, this research provides insights into the fundamentals, temporal dynamics, socio-technical interactions, and relational dynamics of a DIU’s evolution process. Thus, the dissertation promotes a dynamic understanding of DIUs and adds a two-dimensional perspective to the often one-dimensional view of these units and their interactions with the main organization throughout the startup and growth phases of a DIU. Furthermore, the dissertation constructs a phase model that depicts the early stages of DIU evolution based on these findings and by incorporating literature from information systems research. As a result, it illustrates the progressive intensification of collaboration between the DIU and the main organization. After being implemented, the DIU sparks initial collaboration and instigates change within (parts of) the main organization. Over time, it adapts to the corporate environment to some extent, responding to changing circumstances in order to contribute to long-term transformation. Temporally, the DIU drives the early phases of cooperation and adaptation in particular, while the main organization triggers the first major evolutionary step and realignment of the DIU. Overall, the thesis identifies DIUs as malleable organizational structures that are crucial for digital transformation. Moreover, it provides guidance for practitioners on the process of building a new DIU from scratch or optimizing an existing one. N2 - Die digitale Transformation produzierender Unternehmen geht über die bloße Veränderung des Produktangebots hinaus; sie durchdringt operative Paradigmen und erfordert eine umfassende, unternehmensweite Metamorphose. Eine Initiative, den damit verbundenen Herausforderungen zu begegnen, ist der Aufbau einer Digital Innovation Unit (DIU) (zu deutsch: digitale Innovationseinheit) – eine Abteilung oder separate rechtliche Einheit, die neue organisationale Strukturen und Arbeitspraktiken nutzt, um digitale Produkte, Dienstleistungen und Geschäftsmodelle zu entwickeln und die digitale Transformation von etabliertenUnternehmen zu unterstützen oder voranzutreiben. Mit mehr als 300 Einheitenallein im deutschsprachigen Raum und einer wachsenden Zahl wissenschaftlicher Publikationen sind DIUs sowohl in der Forschung als auch in der Praxis ein weit verbreitetes Phänomen. Auf Basis einer umfassenden Längsschnittstudie und mehrerer Querschnittsanalysen von sieben Fertigungsunternehmen und ihren DIUs untersucht diese Dissertation den Entwicklungsprozess von DIUs in den ersten drei Betriebsjahren. Gestützt auf theoretische Perspektiven zu organisatorischem Wandel, Zeit und sozio-technischen Systemen bietet sie Einblicke in die Grundlagen, die zeitlichen Dynamiken, die sozio-technischen Interaktionen und die Beziehungsdynamiken des Entwicklungsprozesses von DIUs. Die Dissertation erweitert somit das dynamische Verständnis von DIUs und fügt der oft eindimensionalen Sichtweise auf diese Einheiten und ihre Interaktionen mit der Hauptorganisation eine zweidimensionale Perspektive entlang der Gründungs- und Wachstumsphasen einer DIU hinzu. Darüber hinaus konstruiert die Dissertation ein Phasenmodell, das die frühen Phasen der DIU-Entwicklung auf der Grundlage dieser Erkenntnisse und unter Einbeziehung von Literatur aus der Wirtschaftsinformatikforschung abbildet. Es veranschaulicht die schrittweise Intensivierung der Zusammenarbeit zwischen der DIU und der Hauptorganisation. Nach ihrer Implementierung initiiert die DIU die anfängliche Zusammenarbeit und stößt Veränderungen innerhalb (von Teilen) der Hauptorganisation an. Im Laufe der Zeit passt sich die DIU bis zu einem gewissen Grad dem Unternehmensumfeld an und reagiert auf sich verändernde Umstände, um zu einer langfristigen Veränderung beizutragen. Zeitlich gesehen treibt die DIU vor allem die frühen Phasen der Zusammenarbeit und Anpassung voran, während die Hauptorganisation den ersten großen Entwicklungsschritt und die Neuausrichtung der DIU auslöst. Insgesamt identifiziert die Dissertation DIUs als anpassungsfähige Organisationsstrukturen, die für die digitale Transformation entscheidend sind. Darüber hinaus bietet sie Praktikern einen Leitfaden für den Aufbau einer neuen oder die Optimierung einer bestehenden DIU. KW - digital transformation KW - digital innovation units KW - evolution of digital innovation units KW - manufacturing companies KW - digitale Transformation KW - digitale Innovationseinheit KW - Entwicklung digitaler Innovationseinheiten KW - Fertigungsunternehmen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639141 ER - TY - THES A1 - Sharma, Shubham T1 - Integrated approaches to earthquake forecasting T1 - Integrierte Ansätze zur Vorhersage von Erdbeben BT - insights from Coulomb stress, seismotectonics, and aftershock sequences BT - Erkenntnisse aus Coulomb-Stress, Seismotektonik und Nachbebenfolgen N2 - A comprehensive study on seismic hazard and earthquake triggering is crucial for effective mitigation of earthquake risks. The destructive nature of earthquakes motivates researchers to work on forecasting despite the apparent randomness of the earthquake occurrences. Understanding their underlying mechanisms and patterns is vital, given their potential for widespread devastation and loss of life. This thesis combines methodologies, including Coulomb stress calculations and aftershock analysis, to shed light on earthquake complexities, ultimately enhancing seismic hazard assessment. The Coulomb failure stress (CFS) criterion is widely used to predict the spatial distributions of aftershocks following large earthquakes. However, uncertainties associated with CFS calculations arise from non-unique slip inversions and unknown fault networks, particularly due to the choice of the assumed aftershocks (receiver) mechanisms. Recent studies have proposed alternative stress quantities and deep neural network approaches as superior to CFS with predefined receiver mechanisms. To challenge these propositions, I utilized 289 slip inversions from the SRCMOD database to calculate more realistic CFS values for a layered-half space and variable receiver mechanisms. The analysis also investigates the impact of magnitude cutoff, grid size variation, and aftershock duration on the ranking of stress metrics using receiver operating characteristic (ROC) analysis. Results reveal the performance of stress metrics significantly improves after accounting for receiver variability and for larger aftershocks and shorter time periods, without altering the relative ranking of the different stress metrics. To corroborate Coulomb stress calculations with the findings of earthquake source studies in more detail, I studied the source properties of the 2005 Kashmir earthquake and its aftershocks, aiming to unravel the seismotectonics of the NW Himalayan syntaxis. I simultaneously relocated the mainshock and its largest aftershocks using phase data, followed by a comprehensive analysis of Coulomb stress changes on the aftershock planes. By computing the Coulomb failure stress changes on the aftershock faults, I found that all large aftershocks lie in regions of positive stress change, indicating triggering by either co-seismic or post-seismic slip on the mainshock fault. Finally, I investigated the relationship between mainshock-induced stress changes and associated seismicity parameters, in particular those of the frequency-magnitude (Gutenberg-Richter) distribution and the temporal aftershock decay (Omori-Utsu law). For that purpose, I used my global data set of 127 mainshock-aftershock sequences with the calculated Coulomb Stress (ΔCFS) and the alternative receiver-independent stress metrics in the vicinity of the mainshocks and analyzed the aftershocks properties depend on the stress values. Surprisingly, the results show a clear positive correlation between the Gutenberg-Richter b-value and induced stress, contrary to expectations from laboratory experiments. This observation highlights the significance of structural heterogeneity and strength variations in seismicity patterns. Furthermore, the study demonstrates that aftershock productivity increases nonlinearly with stress, while the Omori-Utsu parameters c and p systematically decrease with increasing stress changes. These partly unexpected findings have significant implications for future estimations of aftershock hazard. The findings in this thesis provides valuable insights into earthquake triggering mechanisms by examining the relationship between stress changes and aftershock occurrence. The results contribute to improved understanding of earthquake behavior and can aid in the development of more accurate probabilistic-seismic hazard forecasts and risk reduction strategies. N2 - Ein umfassendes Verständnis der seismischen Gefahr und Erdbebenauslösung ist wichtig für eine Minderung von Erdbebenrisiken. Die zerstörerische Natur von Erdbeben motiviert Forscher dazu, trotz der scheinbaren Zufälligkeit der Erdbebenereignisse an Vorhersagen zu arbeiten. Das Verständnis der den Beben zugrunde liegenden Mechanismen und Muster ist angesichts ihres Potenzials für weitreichende Verwüstung und den Verlust von Menschenleben von entscheidender Bedeutung. Diese Arbeit kombiniert Methoden, einschließlich der Berechnung der Coulombschen Spannung und der Analyse von Nachbeben, um die Komplexitäten von Erdbeben besser zu verstehen und letztendlich die Bewertung der seismischen Gefahr zu verbessern. Das Coulomb Spannungskriterium (CFS) wird oft verwendet, um die räumliche Verteilung von Nachbeben nach großen Erdbeben vorherzusagen. Jedoch ergeben sich Unsicherheiten bei der Berechnung von CFS aus nicht eindeutigen slip-inversion und der unbekannten Störungsnetzwerken, insbesondere aufgrund der Unsicherheit bezüglich der Nachbebenmechanismen (Empfänger). Neueste Studien deuten darauf hin dass alternative Spannungsgrößen und Deep-Learning-Ansätze gegenüber CFS mit vordefinierten Empfängermechanismen. Um diese Ergebnisse zu hinterfragen, habe ich 289 Slip-inversion uberlegensind aus der SRCMOD-Datenbank verwendet, um realistischere CFS-Werte für einen geschichteten Halbraum und variable Empfängermechanismen zu berechnen. Dabei habe ich auch den Einfluss von Magnitudenschwellenwerten, Gittergrößenvariationen und der Nachbeben-Dauer auf die vorhersagemöglichkeiten der Spannungsmetriken unter Verwendung der ROC-Analyse (Receiver Operating Characteristic) untersucht. Die Ergebnisse zeigen, dass die berudzsidtizung von variablen Empfangermechanism und größere Nachbeben und kürzere Zeiträume die vorhersagekraft steigern, wobei die relative Rangfolge der verschiedenen Spannungsmetriken nicht geändert wird. Um die Coulomb Spannungsberechnungen genauer mit den Ergebnissen von Erdbebenstudien abzugleichen, habe ich die Quelleneigenschaften des Erdbebens von Kaschmir aus dem Jahr 2005 und seiner Nachbeben mit dem ziel, die Seismotektonik des NW-Himalaya Syntaxis zu entschlüsseln, detailliert untersucht. Ich habe gleichzeitig das Hauptbeben und seine größten Nachbeben unter Verwendung von seismischen Phaseneinsetzen relokalisiert und anschließend eine umfassende Analyse der Coulomb Spannungsänderungen auf den Bruchflächen der Nachbeben durchgeführt. Durch die Berechnung der Coulomb Spannungsänderungen an den während der Nachbeben aktivierten Störungen konnte ich herausfinden, dass alle großen Nachbeben in Regionen mit positiven Spannungsänderungen liegen, was auf eine Auslösung durch entweder ko-seismische oder post-seismische Verschiebungen des Hauptbebens hinweist. Schließlich habe ich die Beziehung zwischen den durch Hauptbeben verursachten Spannungsänderungen und den damit verbundenen seismischen Parametern untersucht, insbesondere denen der Häufigkeits-Magnituden (Gutenberg-Richter) Verteilung und des zeitlichen Nachbebenabklingens (Omori-Utsu-Gesetz). Zu diesem Zweck habe ich meinen globalen Datensatz von 127 Hauptbeben-Nachbeben-Sequenzen mit den in der Umgebung der Hauptbeben berechneten Coulomb Spannungen ($\Delta$CFS) zusammen mit den alternativen, empfänger-unabhängigen Spannungsmetriken, verwendet und die Eigenschaften in Abhängigkeit der Spannungswerte analysiert. Überraschenderweise zeigen die Ergebnisse eine klar positive Korrelation zwischen dem $b$-Wert der Gutenberg-Richter-Verteilung und der induzierten Spannung, was im Kontrast zu den Erwartungen aus Laborexperimenten steht. Diese Beobachtung unterstreicht die Bedeutung struktureller Heterogenitäten und Festigkeitsvariationen in seismischen Mustern. Darüber hinaus zeigt die Studie, dass die Anzahl von Nachbeben nichtlinear mit der Spannung zunimmt, während die Omori-Utsu-Parameter $c$ und $p$ systematisch mit zunehmenden Spannungsänderungen abnehmen. Diese teilweise unerwarteten Ergebnisse haben bedeutende Auswirkungen auf zukünftige Abschätzungen der Nachbebengefahr. Die Ergebnisse dieser Arbeit liefern wertvolle Einblicke in die Mechanismen der Erdbebenauslösung, indem sie die Beziehung zwischen Spannungsänderungen und dem Auftreten von Nachbeben untersuchen. Die Ergebnisse tragen zu einem besseren Verständnis des Verhaltens von Erdbeben bei und können bei der Entwicklung genauerer probabilistischer, seismischer Gefahreneinschätzungen und Risikominderungsstrategien helfen. KW - earthquake KW - forecasting KW - hazards KW - seismology KW - Erdbeben KW - Vorhersage KW - Gefahren KW - Seismologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636125 ER - TY - THES A1 - Mostafa, Amr T1 - DNA origami nanoforks: A platform for cytochrome c single molecule surface enhanced Raman spectroscopy N2 - This thesis presents a comprehensive exploration of the application of DNA origami nanofork antennas (DONAs) in the field of spectroscopy, with a particular focus on the structural analysis of Cytochrome C (CytC) at the single-molecule level. The research encapsulates the design, optimization, and application of DONAs in enhancing the sensitivity and specificity of Raman spectroscopy, thereby offering new insights into protein structures and interactions. The initial phase of the study involved the meticulous optimization of DNA origami structures. This process was pivotal in developing nanoscale tools that could significantly enhance the capabilities of Raman spectroscopy. The optimized DNA origami nanoforks, in both dimer and aggregate forms, demonstrated an enhanced ability to detect and analyze molecular vibrations, contributing to a more nuanced understanding of protein dynamics. A key aspect of this research was the comparative analysis between the dimer and aggregate forms of DONAs. This comparison revealed that while both configurations effectively identified oxidation and spin states of CytC, the aggregate form offered a broader range of detectable molecular states due to its prolonged signal emission and increased number of molecules. This extended duration of signal emission in the aggregates was attributed to the collective hotspot area, enhancing overall signal stability and sensitivity. Furthermore, the study delved into the analysis of the Amide III band using the DONA system. Observations included a transient shift in the Amide III band's frequency, suggesting dynamic alterations in the secondary structure of CytC. These shifts, indicative of transitions between different protein structures, were crucial in understanding the protein’s functional mechanisms and interactions. The research presented in this thesis not only contributes significantly to the field of spectroscopy but also illustrates the potential of interdisciplinary approaches in biosensing. The use of DNA origami-based systems in spectroscopy has opened new avenues for research, offering a detailed and comprehensive understanding of protein structures and interactions. The insights gained from this research are expected to have lasting implications in scientific fields ranging from drug development to the study of complex biochemical pathways. This thesis thus stands as a testament to the power of integrating nanotechnology, biochemistry, and spectroscopic techniques in addressing complex scientific questions. N2 - Diese Dissertation präsentiert eine umfassende Untersuchung der Anwendung von DNA-Origami-Nanogabelantennen (DONAs) im Bereich der Spektroskopie, mit einem besonderen Fokus auf der strukturellen Analyse von Cytochrom C (CytC) auf Einzelmolekülebene. Die Forschung umfasst das Design, die Optimierung und die Anwendung von DONAs zur Steigerung der Sensitivität und Spezifität der Raman-Spektroskopie und bietet somit neue Einblicke in Proteinstrukturen und -interaktionen. Die erste Phase der Studie beinhaltete die sorgfältige Optimierung von DNA-Origami-Strukturen. Dieser Prozess war entscheidend für die Entwicklung von Nanowerkzeugen, die die Fähigkeiten der Raman-Spektroskopie erheblich verbessern könnten. Die optimierten DNA-Origami-Nanogabeln, sowohl in Dimer- als auch in Aggregatform, zeigten eine verbesserte Fähigkeit, molekulare Schwingungen zu detektieren und zu analysieren, was zu einem nuancierteren Verständnis der Proteindynamik beitrug. Ein Schlüsselaspekt dieser Forschung war die vergleichende Analyse zwischen den Dimer- und Aggregatformen von DONAs. Dieser Vergleich zeigte, dass beide Konfigurationen effektiv Oxidations- und Spin-Zustände von CytC identifizieren konnten, wobei die Aggregatform aufgrund ihrer längeren Signalemission und der erhöhten Anzahl von Molekülen ein breiteres Spektrum an detektierbaren molekularen Zuständen bot. Die verlängerte Dauer der Signalemission in den Aggregaten wurde auf den kollektiven Hotspot-Bereich zurückgeführt, der die Gesamtsignalstabilität und -empfindlichkeit erhöhte. Darüber hinaus ging die Studie auf die Analyse der Amid-III-Bande unter Verwendung des DONA-Systems ein. Zu den Beobachtungen gehörte eine vorübergehende Verschiebung der Frequenz der Amid-III-Bande, was auf dynamische Veränderungen in der Sekundärstruktur von CytC hindeutete. Diese Verschiebungen, die auf Übergänge zwischen verschiedenen Proteinstrukturen hindeuteten, waren entscheidend für das Verständnis der funktionellen Mechanismen und Interaktionen des Proteins. Die in dieser Dissertation präsentierte Forschung leistet nicht nur einen bedeutenden Beitrag zum Gebiet der Spektroskopie, sondern veranschaulicht auch das Potenzial interdisziplinärer Ansätze in der Biosensorik. Der Einsatz von DNA-Origami-basierten Systemen in der Spektroskopie hat neue Wege für die Forschung eröffnet und bietet ein detailliertes und umfassendes Verständnis von Proteinstrukturen und -interaktionen. Die aus dieser Forschung gewonnenen Erkenntnisse werden voraussichtlich langfristige Auswirkungen auf wissenschaftliche Bereiche haben, die von der Arzneimittelentwicklung bis hin zur Untersuchung komplexer biochemischer Prozesse reichen. Diese Dissertation steht somit als Zeugnis für die Kraft der Integration von Nanotechnologie, Biochemie und spektroskopischen Techniken bei der Beantwortung komplexer wissenschaftlicher Fragen. KW - DNA origami KW - DNA origami nanoantennas (DONA) KW - SERS KW - Cytochrome C Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635482 ER - TY - THES A1 - Huegle, Johannes T1 - Causal discovery in practice: Non-parametric conditional independence testing and tooling for causal discovery T1 - Kausale Entdeckung in der Praxis: Nichtparametrische bedingte Unabhängigkeitstests und Werkzeuge für die Kausalentdeckung N2 - Knowledge about causal structures is crucial for decision support in various domains. For example, in discrete manufacturing, identifying the root causes of failures and quality deviations that interrupt the highly automated production process requires causal structural knowledge. However, in practice, root cause analysis is usually built upon individual expert knowledge about associative relationships. But, "correlation does not imply causation", and misinterpreting associations often leads to incorrect conclusions. Recent developments in methods for causal discovery from observational data have opened the opportunity for a data-driven examination. Despite its potential for data-driven decision support, omnipresent challenges impede causal discovery in real-world scenarios. In this thesis, we make a threefold contribution to improving causal discovery in practice. (1) The growing interest in causal discovery has led to a broad spectrum of methods with specific assumptions on the data and various implementations. Hence, application in practice requires careful consideration of existing methods, which becomes laborious when dealing with various parameters, assumptions, and implementations in different programming languages. Additionally, evaluation is challenging due to the lack of ground truth in practice and limited benchmark data that reflect real-world data characteristics. To address these issues, we present a platform-independent modular pipeline for causal discovery and a ground truth framework for synthetic data generation that provides comprehensive evaluation opportunities, e.g., to examine the accuracy of causal discovery methods in case of inappropriate assumptions. (2) Applying constraint-based methods for causal discovery requires selecting a conditional independence (CI) test, which is particularly challenging in mixed discrete-continuous data omnipresent in many real-world scenarios. In this context, inappropriate assumptions on the data or the commonly applied discretization of continuous variables reduce the accuracy of CI decisions, leading to incorrect causal structures. Therefore, we contribute a non-parametric CI test leveraging k-nearest neighbors methods and prove its statistical validity and power in mixed discrete-continuous data, as well as the asymptotic consistency when used in constraint-based causal discovery. An extensive evaluation of synthetic and real-world data shows that the proposed CI test outperforms state-of-the-art approaches in the accuracy of CI testing and causal discovery, particularly in settings with low sample sizes. (3) To show the applicability and opportunities of causal discovery in practice, we examine our contributions in real-world discrete manufacturing use cases. For example, we showcase how causal structural knowledge helps to understand unforeseen production downtimes or adds decision support in case of failures and quality deviations in automotive body shop assembly lines. N2 - Kenntnisse über die Strukturen zugrundeliegender kausaler Mechanismen sind eine Voraussetzung für die Entscheidungsunterstützung in verschiedenen Bereichen. In der Fertigungsindustrie beispielsweise erfordert die Fehler-Ursachen-Analyse von Störungen und Qualitätsabweichungen, die den hochautomatisierten Produktionsprozess unterbrechen, kausales Strukturwissen. In Praxis stützt sich die Fehler-Ursachen-Analyse in der Regel jedoch auf individuellem Expertenwissen über assoziative Zusammenhänge. Aber "Korrelation impliziert nicht Kausalität", und die Fehlinterpretation assoziativer Zusammenhänge führt häufig zu falschen Schlussfolgerungen. Neueste Entwicklungen von Methoden des kausalen Strukturlernens haben die Möglichkeit einer datenbasierten Betrachtung eröffnet. Trotz seines Potenzials zur datenbasierten Entscheidungsunterstützung wird das kausale Strukturlernen in der Praxis jedoch durch allgegenwärtige Herausforderungen erschwert. In dieser Dissertation leisten wir einen dreifachen Beitrag zur Verbesserung des kausalen Strukturlernens in der Praxis. (1) Das wachsende Interesse an kausalem Strukturlernen hat zu einer Vielzahl von Methoden mit spezifischen statistischen Annahmen über die Daten und verschiedenen Implementierungen geführt. Daher erfordert die Anwendung in der Praxis eine sorgfältige Prüfung der vorhandenen Methoden, was eine Herausforderung darstellt, wenn verschiedene Parameter, Annahmen und Implementierungen in unterschiedlichen Programmiersprachen betrachtet werden. Hierbei wird die Evaluierung von Methoden des kausalen Strukturlernens zusätzlich durch das Fehlen von "Ground Truth" in der Praxis und begrenzten Benchmark-Daten, welche die Eigenschaften realer Datencharakteristiken widerspiegeln, erschwert. Um diese Probleme zu adressieren, stellen wir eine plattformunabhängige modulare Pipeline für kausales Strukturlernen und ein Tool zur Generierung synthetischer Daten vor, die umfassende Evaluierungsmöglichkeiten bieten, z.B. um Ungenauigkeiten von Methoden des Lernens kausaler Strukturen bei falschen Annahmen an die Daten aufzuzeigen. (2) Die Anwendung von constraint-basierten Methoden des kausalen Strukturlernens erfordert die Wahl eines bedingten Unabhängigkeitstests (CI-Test), was insbesondere bei gemischten diskreten und kontinuierlichen Daten, die in vielen realen Szenarien allgegenwärtig sind, die Anwendung erschwert. Beispielsweise führen falsche Annahmen der CI-Tests oder die Diskretisierung kontinuierlicher Variablen zu einer Verschlechterung der Korrektheit der Testentscheidungen, was in fehlerhaften kausalen Strukturen resultiert. Um diese Probleme zu adressieren, stellen wir einen nicht-parametrischen CI-Test vor, der auf Nächste-Nachbar-Methoden basiert, und beweisen dessen statistische Validität und Trennschärfe bei gemischten diskreten und kontinuierlichen Daten, sowie dessen asymptotische Konsistenz in constraint-basiertem kausalem Strukturlernen. Eine umfangreiche Evaluation auf synthetischen und realen Daten zeigt, dass der vorgeschlagene CI-Test bestehende Verfahren hinsichtlich der Korrektheit der Testentscheidung und gelernter kausaler Strukturen übertrifft, insbesondere bei geringen Stichprobengrößen. (3) Um die Anwendbarkeit und Möglichkeiten kausalen Strukturlernens in der Praxis aufzuzeigen, untersuchen wir unsere Beiträge in realen Anwendungsfällen aus der Fertigungsindustrie. Wir zeigen an mehreren Beispielen aus der automobilen Karosseriefertigungen wie kausales Strukturwissen helfen kann, unvorhergesehene Produktionsausfälle zu verstehen oder eine Entscheidungsunterstützung bei Störungen und Qualitätsabweichungen zu geben. KW - causal discovery KW - causal structure learning KW - causal AI KW - non-parametric conditional independence testing KW - manufacturing KW - causal reasoning KW - mixed data KW - kausale KI KW - kausale Entdeckung KW - kausale Schlussfolgerung KW - kausales Strukturlernen KW - Fertigung KW - gemischte Daten KW - nicht-parametrische bedingte Unabhängigkeitstests Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635820 ER - TY - THES A1 - Dörries, Timo Julian T1 - Anomalous transport and non-Gaussian dynamics in mobile-immobile models N2 - The mobile-immobile model (MIM) has been established in geoscience in the context of contaminant transport in groundwater. Here the tracer particles effectively immobilise, e.g., due to diffusion into dead-end pores or sorption. The main idea of the MIM is to split the total particle density into a mobile and an immobile density. Individual tracers switch between the mobile and immobile state following a two-state telegraph process, i.e., the residence times in each state are distributed exponentially. In geoscience the focus lies on the breakthrough curve (BTC), which is the concentration at a fixed location over time. We apply the MIM to biological experiments with a special focus on anomalous scaling regimes of the mean squared displacement (MSD) and non-Gaussian displacement distributions. As an exemplary system, we have analysed the motion of tau proteins, that diffuse freely inside axons of neurons. Their free diffusion thereby corresponds to the mobile state of the MIM. Tau proteins stochastically bind to microtubules, which effectively immobilises the tau proteins until they unbind and continue diffusing. Long immobilisation durations compared to the mobile durations give rise to distinct non-Gaussian Laplace shaped distributions. It is accompanied by a plateau in the MSD for initially mobile tracer particles at relevant intermediate timescales. An equilibrium fraction of initially mobile tracers gives rise to non-Gaussian displacements at intermediate timescales, while the MSD remains linear at all times. In another setting bio molecules diffuse in a biosensor and transiently bind to specific receptors, where advection becomes relevant in the mobile state. The plateau in the MSD observed for the advection-free setting and long immobilisation durations persists also for the case with advection. We find a new clear regime of anomalous diffusion with non-Gaussian distributions and a cubic scaling of the MSD. This regime emerges for initially mobile and for initially immobile tracers. For an equilibrium fraction of initially mobile tracers we observe an intermittent ballistic scaling of the MSD. The long-time effective diffusion coefficient is enhanced by advection, which we physically explain with the variance of mobile durations. Finally, we generalize the MIM to incorporate arbitrary immobilisation time distributions and focus on a Mittag-Leffler immobilisation time distribution with power-law tail ~ t^(-1-mu) with 0