TY - THES A1 - Adam, Jan P. T1 - Top-Management-Support und die Digitalisierung von Verwaltungsleistungen T1 - Top management support and the digitalization of administrative services BT - Analyse zu den Effekten begrenzter Rationalität auf die Umsetzung von OZG-Leistungen und die Rolle des Verwaltungsmanagements BT - an analysis of the effects of bounded rationality on the implementation of OZG services and the role of administrative management N2 - Digitalization is a key component of current administrative reforms. Despite its high importance and long-standing efforts, the balance of administrative digitalization in Germany remains ambivalent. This study investigates the influencing factors on the implementation of digitalization projects in public administration, with a special focus on the role of top management support. This study focuses on three successful digitalization projects from the German Online Access Act (OZG) and analyzes, using problem-centered expert interviews, the influencing factors on the implementation of OZG projects and the role of management in this process. The analysis is theoretically grounded and based on the approach of bounded rationality and the economic theory of bureaucracy. The results suggest that the identified influencing factors affect the reusability and maturity level of administrative services differently and can be interpreted as consequences of bounded rationality in the human problem-solving process. Managers influence the bounded rationality of operational actors by implementing appropriate strategies in the support of their implementation tasks. This includes providing resources, contributing their expertise, making information accessible, changing decision-making pathways, and contributing to conflict resolution. The study provides valuable insights into actual management practices and derives recommendations for the implementation of public digitalization projects and the management of public administrations. This study makes an important contribution to understanding the influence of management in digitalization. It also underscores the need for further research in this area to better understand the practices and challenges of administrative digitalization and to effectively address them. N2 - Die Digitalisierung ist ein wesentlicher Bestandteil aktueller Verwaltungsreformen. Trotz der hohen Bedeutung und langjähriger Bemühungen bleibt die Bilanz der Verwaltungsdigitalisierung in Deutschland ambivalent. Diese Studie konzentriert sich auf drei erfolgreiche Digitalisierungsvorhaben aus dem Onlinezugangsgesetz (OZG) und analysiert mittels problemzentrierter Expertenbefragung Einflussfaktoren auf die Umsetzung von OZG-Vorhaben und den Einfluss des Managements in diesem Prozess. Die Analyse erfolgt theoriegeleitet basierend auf dem Ansatz der begrenzten Rationalität und der ökonomischen Theorie der Bürokratie. Die Ergebnisse zeigen, dass anzunehmen ist, dass die identifizierten Einflussfaktoren unterschiedlich auf Nachnutzbarkeit und Reifegrad von Verwaltungsleistungen wirken und als Folgen begrenzter Rationalität im menschlichen Problemlösungsprozess interpretiert werden können. Managerinnen unterstützen die operativen Akteure bei der Umsetzung, indem sie deren begrenzte Rationalität mit geeigneten Strategien adressieren. Dazu können sie Ressourcen bereitstellen, mit ihrer Expertise unterstützen, Informationen zugänglich machen, Entscheidungswege verändern sowie zur Konfliktlösung beitragen. Die Studie bietet wertvolle Einblicke in die tatsächliche Managementpraxis und leitet daraus Empfehlungen für die Umsetzung öffentlicher Digitalisierungsvorhaben sowie für die Steuerung öffentlicher Verwaltungen ab. Diese Studie liefert einen wichtigen Beitrag zum Verständnis des Einflusses des Managements in der Verwaltungsdigitalisierung. Die Studie unterstreicht außerdem die Notwendigkeit weiterer Forschung in diesem Bereich, um die Praktiken und Herausforderungen der Verwaltungsdigitalisierung besser zu verstehen und effektiv zu adressieren. KW - Verwaltungsdigitalisierung KW - Top-Management-Support KW - öffentliche Verwaltung KW - E-Government KW - begrenzte Rationalität KW - Digitalisierung KW - OZG-Umsetzung KW - Verwaltungsreformen KW - administrative digitalization KW - top management support KW - public administration KW - eGovernment KW - digitalization projects KW - bounded rationality KW - OZG implementation KW - management practices Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647132 ER - TY - THES A1 - Adelt, Anne T1 - The Relativized Minimality approach to comprehension of German relative clauses in aphasia N2 - It is a well-attested finding in head-initial languages that individuals with aphasia (IWA) have greater difficulties in comprehending object-extracted relative clauses (ORCs) as compared to subject-extracted relative clauses (SRCs). Adopting the linguistically based approach of Relativized Minimality (RM; Rizzi, 1990, 2004), the subject-object asymmetry is attributed to the occurrence of a Minimality effect in ORCs due to reduced processing capacities in IWA (Garraffa & Grillo, 2008; Grillo, 2008, 2009). For ORCs, it is claimed that the embedded subject intervenes in the syntactic dependency between the moved object and its trace, resulting in greater processing demands. In contrast, no such intervener is present in SRCs. Based on the theoretical framework of RM and findings from language acquisition (Belletti et al., 2012; Friedmann et al., 2009), it is assumed that Minimality effects are alleviated when the moved object and the intervening subject differ in terms of relevant syntactic features. For German, the language under investigation, the RM approach predicts that number (i.e., singular vs. plural) and the lexical restriction [+NP] feature (i.e., lexically restricted determiner phrases vs. lexically unrestricted pronouns) are considered relevant in the computation of Minimality. Greater degrees of featural distinctiveness are predicted to result in more facilitated processing of ORCs, because IWA can more easily distinguish between the moved object and the intervener. This cumulative dissertation aims to provide empirical evidence on the validity of the RM approach in accounting for comprehension patterns during relative clause (RC) processing in German-speaking IWA. For that purpose, I conducted two studies including visual-world eye-tracking experiments embedded within an auditory referent-identification task to study the offline and online processing of German RCs. More specifically, target sentences were created to evaluate (a) whether IWA demonstrate a subject-object asymmetry, (b) whether dissimilarity in the number and/or the [+NP] features facilitates ORC processing, and (c) whether sentence processing in IWA benefits from greater degrees of featural distinctiveness. Furthermore, by comparing RCs disambiguated through case marking (at the relative pronoun or the following noun phrase) and number marking (inflection of the sentence-final verb), it was possible to consider the role of the relative position of the disambiguation point. The RM approach predicts that dissimilarity in case should not affect the occurrence of Minimality effects. However, the case cue to sentence interpretation appears earlier within RCs than the number cue, which may result in lower processing costs in case-disambiguated RCs compared to number-disambiguated RCs. In study I, target sentences varied with respect to word order (SRC vs. ORC) and dissimilarity in the [+NP] feature (lexically restricted determiner phrase vs. pronouns as embedded element). Moreover, by comparing the impact of these manipulations in case- and number-disambiguated RCs, the effect of dissimilarity in the number feature was explored. IWA demonstrated a subject-object asymmetry, indicating the occurrence of a Minimality effect in ORCs. However, dissimilarity neither in the number feature nor in the [+NP] feature alone facilitated ORC processing. Instead, only ORCs involving distinct specifications of both the number and the [+NP] features were well comprehended by IWA. In study II, only temporarily ambiguous ORCs disambiguated through case or number marking were investigated, while controlling for varying points of disambiguation. There was a slight processing advantage of case marking as cue to sentence interpretation as compared to number marking. Taken together, these findings suggest that the RM approach can only partially capture empirical data from German IWA. In processing complex syntactic structures, IWA are susceptible to the occurrence of the intervening subject in ORCs. The new findings reported in the thesis show that structural dissimilarity can modulate sentence comprehension in aphasia. Interestingly, IWA can override Minimality effects in ORCs and derive correct sentence meaning if the featural specifications of the constituents are maximally different, because they can more easily distinguish the moved object and the intervening subject given their reduced processing capacities. This dissertation presents new scientific knowledge that highlights how the syntactic theory of RM helps to uncover selective effects of morpho-syntactic features on sentence comprehension in aphasia, emphasizing the close link between assumptions from theoretical syntax and empirical research. N2 - Personen mit Aphasie (PmA) verstehen Objektrelativsätze (ORS) häufig schlechter als Subjektrelativsätze (SRS). Im linguistisch basierten Ansatz der relativierten Minimalitätstheorie (RM; Rizzi, 1990, 2004) wird diese sog. Subjekt-Objekt-Asymmetrie dadurch erklärt, dass bei PmA aufgrund reduzierter Verarbeitungskapazitäten ein sog. Minimalitätseffekt in ORS auftritt (Garraffa & Grillo, 2008; Grillo, 2008, 2009), der die Verarbeitung erschwert. Dieser entsteht dadurch, dass das eingebettete Subjekt in der syntaktischen Abhängigkeit zwischen dem bewegten Objekt und seiner Spur interveniert. Im Gegensatz dazu gibt es in SRS kein intervenierendes Element. Anhand von Ergebnissen aus psycholinguistischen Studien (Belletti et al., 2012; Friedmann et al., 2009) wird zudem angenommen, dass der Minimalitätseffekt in ORS reduziert wird, wenn sich das bewegte Objekt und das intervenierende Subjekt hinsichtlich ihrer syntaktischen Merkmale unterscheiden. Für das Deutsche wird von der RM vorhergesagt, dass die Merkmale Numerus (Singular vs. Plural) und [+NP] (volle Nominalphrasen vs. Pronomen) für das Auftreten des Minimalitätseffekts relevant sind. Je stärker sich die Konstituenten hinsichtlich relevanter syntaktischer Merkmale unterscheiden, desto stärker wird die Verarbeitung von ORS fazilitiert, weil PmA leichter zwischen dem bewegten Objekt und dem intervenierenden Subjekt unterscheiden können. In dieser kumulativen Dissertation wird überprüft, ob mithilfe der RM Leistungsmuster bei der Verarbeitung von Relativsätzen in deutsch-sprechenden PmA erklärt werden können. Zu diesem Zweck wurden zwei Studien durchgeführt, in denen das Visual-World-Eyetracking-Paradigma mit einer auditiven Referenten-Identifikationsaufgabe kombiniert wurde, um die Offline- und Online-Verarbeitung von Relativsätzen zu untersuchen. Dabei wurde überprüft, (a) ob bei PmA eine Subjekt-Objekt-Asymmetrie auftritt, (b) ob die Verarbeitung von ORS durch die unterschiedliche Markierung des Objekts und des Subjekts hinsichtlich der Merkmale Numerus und/oder [+NP] fazilitiert wird und (c) ob die Satzverarbeitung weiter fazilitiert wird, wenn sich die Argumente in mehreren Merkmalen unterscheiden. Darüber hinaus wurden kasus-markierte (Desambiguierung durch Kasus am Relativpronomen oder am Determinierer der nachfolgenden Nominalphrase) oder numerus-markierte Relativsätze (Desambiguierung durch Flexion des satzfinalen Verbs) verglichen. Dadurch wurde untersucht, ob der Zeitpunkt der Disambiguierung einen Einfluss auf die Verarbeitung von Relativsätzen hat. Laut der RM sollte der Minimalitätseffekt nicht durch Kasus als morpho-syntaktisches Merkmal beeinflusst werden. Dennoch werden kasus-markierte Sätze früher desambiguiert als numerus-markierte Sätze, weshalb ein Verarbeitungsvorteil für kasus-markierte Relativsätze zu erwarten ist. In Studie I wurden die Zielsätze hinsichtlich der Wortstellung (SRS vs. ORS) und des [+NP]-Merkmals variiert (volle Nominalphrase vs. Pronomen als eingebettetes Element). Darüber hinaus wurde der Einfluss dieser Manipulationen in kasus- und numerus-markierten Relativsätzen untersucht. Dadurch wurde beeinflusst, inwiefern sich die Konstituenten in relevanten morpho-syntaktischen Merkmalen unterscheiden. Die PmA zeigten eine Subjekt-Objekt-Asymmetrie, was durch das Auftreten eines Minimalitätseffekts in ORS erklärt werden kann. Im Gegensatz zu den Vorhersagen der RM konnte in ORS kein fazilitierender Effekt festgestellt werden, wenn sich die Konstituenten nur im Merkmal Numerus oder [+NP] unterschieden. Stattdessen verbesserten sich die Verstehensleistungen für solche ORS, in denen sich das bewegte Objekt und das eingebettete Subjekt hinsichtlich beider Merkmale Numerus und [+NP] unterschieden. In Studie II wurden kasus- und numerus-markierte ORS untersucht, wobei verschiedene Zeitpunkte der Disambiguierung berücksichtigt wurden. Hierbei zeigte sich ein leichter Verarbeitungsvorteil für kasus-markierte verglichen mit numerus-markierten ORS. Zusammenfassend können mithilfe der RM nicht alle empirischen Daten von deutschsprachigen PmA erklärt werden. Die Verarbeitung von Relativsätzen wird durch das Auftreten des intervenierenden Subjekts in ORS beeinflusst. Die in der Dissertation berichteten Ergebnisse zeigen, dass die Satzverarbeitung bei Aphasie durch strukturelle Unterschiede zwischen den Konstituenten beeinflusst werden kann. Insbesondere kann der Minimalitätseffekt in ORS überwunden werden, wenn sich die Konstituenten hinsichtlich der morpho-syntaktischen Merkmale maximal unterscheiden. In diesem Fall können PmA das bewegte Objekt und das intervenierende Subjekt trotz ihrer reduzierten Verarbeitungskapazitäten voneinander unterscheiden. Das heißt, dass mithilfe der RM aufgezeigt werden kann, wie morpho-syntaktische Merkmale die Satzverarbeitung von PmA selektiv beeinflussen können. Dies betont die enge Verknüpfung zwischen Annahmen aus der theoretischen Syntax und empirischer Forschung. KW - aphasia KW - Aphasie KW - relative clauses KW - Relativsätze KW - Relativized Minimality KW - relativierte Minimalitätstheorie KW - morpho-syntactic features KW - morpho-syntaktische Merkmale KW - sentence processing KW - Satzverarbeitung KW - eye tracking KW - Eye-tracking KW - case KW - Kasus KW - number KW - Numerus Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-623312 ER - TY - THES A1 - Alawashra, Mahmoud T1 - Plasma instabilities of TeV pair beams induced by blazars T1 - Plasma Instabilitäten von TeV-Paar Strahlen durch Blazare induziert N2 - Relativistic pair beams produced in the cosmic voids by TeV gamma rays from blazars are expected to produce a detectable GeV-scale cascade emission missing in the observations. The suppression of this secondary cascade implies either the deflection of the pair beam by intergalactic magnetic fields (IGMFs) or an energy loss of the beam due to the electrostatic beam-plasma instability. IGMF of femto-Gauss strength is sufficient to significantly deflect the pair beams reducing the flux of secondary cascade below the observational limits. A similar flux reduction may result in the absence of the IGMF from the beam energy loss by the instability before the inverse Compton cooling. This dissertation consists of two studies about the instability role in the evolution of blazar-induced beams. Firstly, we investigated the effect of sub-fG level IGMF on the beam energy loss by the instability. Considering IGMF with correlation lengths smaller than a few kpc, we found that such fields increase the transverse momentum of the pair beam particles, dramatically reducing the linear growth rate of the electrostatic instability and hence the energy-loss rate of the pair beam. Our results show that the IGMF eliminates beam plasma instability as an effective energy-loss agent at a field strength three orders of magnitude below that needed to suppress the secondary cascade emission by magnetic deflection. For intermediate-strength IGMF, we do not know a viable process to explain the observed absence of GeV-scale cascade emission and hence can be excluded. Secondly, we probed how the beam-plasma instability feeds back on the beam, using a realistic two-dimensional beam distribution. We found that the instability broadens the beam opening angles significantly without any significant energy loss, thus confirming a recent feedback study on a simplified one-dimensional beam distribution. However, narrowing diffusion feedback of the beam particles with Lorentz factors less than 1e6 might become relevant even though initially it is negligible. Finally, when considering the continuous creation of TeV pairs, we found that the beam distribution and the wave spectrum reach a new quasi-steady state, in which the scattering of beam particles persists and the beam opening angle may increase by a factor of hundreds. This new intrinsic scattering of the cascade can result in time delays of around ten years, thus potentially mimicking the IGMF deflection. Understanding the implications on the GeV cascade emission requires accounting for inverse Compton cooling and simulating the beam-plasma system at different points in the IGM. N2 - Relativistische Teilchenstrahlen, erzeugt in den Weiten des Weltraums durch TeV- Gammastrahlen von Blazaren, sollen eine Art von Emission im GeV-Bereich erzeugen. Diese Emission wurde jedoch bisher nicht beobachtet. Der Grund für diese fehlende Emission könnte eine von zwei Ursachen sein: Entweder werden die Teilchenstrahlen von den Magnetfeldern im Weltraum (den sogenannten intergalaktischen Magnetfeldern oder IGMFs) umgeleitet, oder die Strahlen verlieren ihre Energie aufgrund einer Art von Instabilität namens Strahlungs-Plasma-Instabilität. Wenn die IGMFs extrem schwach sind (im Femto-Gauss-Bereich gemessen), können sie dennoch eine große Wirkung auf die Teilchenstrahlen haben, indem sie diese von ihrem Kurs abbringen und die Menge der fehlenden Emission verringern. Andererseits kann die Strahlungs-Plasma-Instabilität die Energieverluste der Strahlen verursachen, wenn es keine IGMFs gibt. Diese Forschung besteht aus zwei Studien. In der ersten Studie haben Wissenschaftler erforscht, wie schwache IGMFs den Energieverlust der Strahlen aufgrund von Instabilität beeinflussen. Sie stellten fest, dass diese schwachen Felder den Impuls der Teilchenstrahlen erheblich verändern können, was den Energieverlust aufgrund der Instabilität erheblich verlangsamt. Dies bedeutet, dass selbst extrem schwache IGMFs die Strahlungs Plasma-Instabilität unwirksam machen können, wenn es darum geht, Energieverluste zu verursachen. In der zweiten Studie haben sie untersucht, wie die Strahlungs-Plasma-Instabilität die Teilchenstrahlen beeinflusst. Sie entdeckten, dass die Instabilität den Winkel der Strahlen erweitert, ohne signifikante Energieverluste zu verursachen. Im Laufe der Zeit könnten jedoch Partikel mit niedrigeren Energien anfangen, Energie zu verlieren. Wenn man die kontinuierliche Erzeugung von hochenergetischen Teilchen berücksichtigt, stellten sie fest, dass die Verteilung der Strahlen und das Wellenspektrum schließlich einen stabilen Zustand erreichen, in dem die Partikel weiterhin gestreut werden und der Strahlenwinkel sich erheblich vergrößern kann. Diese intrinsische Streuung der Emission kann Zeitspannen verursachen, die es so aussehen lassen, als ob die IGMFs die Emission umlenken. Um die Auswirkungen auf die fehlende GeV-Emission vollständig zu verstehen, müssen Wissenschaftler Faktoren wie inverse-Compton-Kühlung berücksichtigen und die Wechselwirkung zwischen den Teilchenstrahlen und dem umgebenden Plasma an verschiedenen Stellen im Weltraum simulieren. KW - gamma rays: general KW - instabilities KW - blazar KW - relativistic processes KW - waves KW - Blazar KW - Gammastrahlen: allgemein KW - Instabilitäten KW - relativistische Prozesse KW - Wellen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630131 ER - TY - THES A1 - Alhosseini Almodarresi Yasin, Seyed Ali T1 - Classification, prediction and evaluation of graph neural networks on online social media platforms T1 - Klassifizierung, Vorhersage und Bewertung graphischer neuronaler Netze auf Online-Social-Media-Plattformen N2 - The vast amount of data generated on social media platforms have made them a valuable source of information for businesses, governments and researchers. Social media data can provide insights into user behavior, preferences, and opinions. In this work, we address two important challenges in social media analytics. Predicting user engagement with online content has become a critical task for content creators to increase user engagement and reach larger audiences. Traditional user engagement prediction approaches rely solely on features derived from the user and content. However, a new class of deep learning methods based on graphs captures not only the content features but also the graph structure of social media networks. This thesis proposes a novel Graph Neural Network (GNN) approach to predict user interaction with tweets. The proposed approach combines the features of users, tweets and their engagement graphs. The tweet text features are extracted using pre-trained embeddings from language models, and a GNN layer is used to embed the user in a vector space. The GNN model then combines the features and graph structure to predict user engagement. The proposed approach achieves an accuracy value of 94.22% in classifying user interactions, including likes, retweets, replies, and quotes. Another major challenge in social media analysis is detecting and classifying social bot accounts. Social bots are automated accounts used to manipulate public opinion by spreading misinformation or generating fake interactions. Detecting social bots is critical to prevent their negative impact on public opinion and trust in social media. In this thesis, we classify social bots on Twitter by applying Graph Neural Networks. The proposed approach uses a combination of both the features of a node and an aggregation of the features of a node’s neighborhood to classify social bot accounts. Our final results indicate a 6% improvement in the area under the curve score in the final predictions through the utilization of GNN. Overall, our work highlights the importance of social media data and the potential of new methods such as GNNs to predict user engagement and detect social bots. These methods have important implications for improving the quality and reliability of information on social media platforms and mitigating the negative impact of social bots on public opinion and discourse. N2 - Die riesige Menge an Daten, die auf Social-Media-Plattformen generiert wird, hat sie zu einer wertvollen Informationsquelle für Unternehmen, Regierungen und Forscher gemacht. Daten aus sozialen Medien können Einblicke in das Verhalten, die Vorlieben und die Meinungen der Nutzer geben. In dieser Arbeit befassen wir uns mit zwei wichtigen Herausforderungen im Bereich der Social-Media-Analytik. Die Vorhersage des Nutzerinteresses an Online-Inhalten ist zu einer wichtigen Aufgabe für die Ersteller von Inhalten geworden, um das Nutzerengagement zu steigern und ein größeres Publikum zu erreichen. Herkömmliche Ansätze zur Vorhersage des Nutzerengagements stützen sich ausschließlich auf Merkmale, die aus dem Nutzer und dem Inhalt abgeleitet werden. Eine neue Klasse von Deep-Learning-Methoden, die auf Graphen basieren, erfasst jedoch nicht nur die Inhaltsmerkmale, sondern auch die Graphenstruktur von Social-Media-Netzwerken. In dieser Arbeit wird ein neuartiger Graph Neural Network (GNN)-Ansatz zur Vorhersage der Nutzerinteraktion mit Tweets vorgeschlagen. Der vorgeschlagene Ansatz kombiniert die Merkmale von Nutzern, Tweets und deren Engagement-Graphen. Die Textmerkmale der Tweets werden mit Hilfe von vortrainierten Einbettungen aus Sprachmodellen extrahiert, und eine GNN-Schicht wird zur Einbettung des Nutzers in einen Vektorraum verwendet. Das GNN-Modell kombiniert dann die Merkmale und die Graphenstruktur, um das Nutzerengagement vorherzusagen. Der vorgeschlagene Ansatz erreicht eine Genauigkeit von 94,22% bei der Klassifizierung von Benutzerinteraktionen, einschließlich Likes, Retweets, Antworten und Zitaten. Eine weitere große Herausforderung bei der Analyse sozialer Medien ist die Erkennung und Klassifizierung von Social-Bot-Konten. Social Bots sind automatisierte Konten, die dazu dienen, die öffentliche Meinung zu manipulieren, indem sie Fehlinformationen verbreiten oder gefälschte Interaktionen erzeugen. Die Erkennung von Social Bots ist entscheidend, um ihre negativen Auswirkungen auf die öffentliche Meinung und das Vertrauen in soziale Medien zu verhindern. In dieser Arbeit klassifizieren wir Social Bots auf Twitter mit Hilfe von Graph Neural Networks. Der vorgeschlagene Ansatz verwendet eine Kombination aus den Merkmalen eines Knotens und einer Aggregation der Merkmale der Nachbarschaft eines Knotens, um Social-Bot-Konten zu klassifizieren. Unsere Endergebnisse zeigen eine 6%ige Verbesserung der Fläche unter der Kurve bei den endgültigen Vorhersagen durch die Verwendung von GNN. Insgesamt unterstreicht unsere Arbeit die Bedeutung von Social-Media-Daten und das Potenzial neuer Methoden wie GNNs zur Vorhersage des Nutzer-Engagements und zur Erkennung von Social Bots. Diese Methoden haben wichtige Auswirkungen auf die Verbesserung der Qualität und Zuverlässigkeit von Informationen auf Social-Media-Plattformen und die Abschwächung der negativen Auswirkungen von Social Bots auf die öffentliche Meinung und den Diskurs. KW - graph neural networks KW - social bot detection KW - user engagement KW - graphische neuronale Netze KW - Social Bots erkennen KW - Nutzer-Engagement Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626421 ER - TY - THES A1 - Antonoglou, Nikolaos T1 - GNSS-based remote sensing: Innovative observation of key hydrological parameters in the Central Andes T1 - GNSS-basierte Fernerkundung: Innovative Beobachtung der wichtigsten hydrologischen Parameter in den zentralen Anden N2 - The Central Andean region is characterized by diverse climate zones with sharp transitions between them. In this work, the area of interest is the South-Central Andes in northwestern Argentina that borders with Bolivia and Chile. The focus is the observation of soil moisture and water vapour with Global Navigation Satellite System (GNSS) remote-sensing methodologies. Because of the rapid temporal and spatial variations of water vapour and moisture circulations, monitoring this part of the hydrological cycle is crucial for understanding the mechanisms that control the local climate. Moreover, GNSS-based techniques have previously shown high potential and are appropriate for further investigation. This study includes both logistic-organization effort and data analysis. As for the prior, three GNSS ground stations were installed in remote locations in northwestern Argentina to acquire observations, where there was no availability of third-party data. The methodological development for the observation of the climate variables of soil moisture and water vapour is independent and relies on different approaches. The soil-moisture estimation with GNSS reflectometry is an approximation that has demonstrated promising results, but it has yet to be operationally employed. Thus, a more advanced algorithm that exploits more observations from multiple satellite constellations was developed using data from two pilot stations in Germany. Additionally, this algorithm was slightly modified and used in a sea-level measurement campaign. Although the objective of this application is not related to monitoring hydrological parameters, its methodology is based on the same principles and helps to evaluate the core algorithm. On the other hand, water-vapour monitoring with GNSS observations is a well-established technique that is utilized operationally. Hence, the scope of this study is conducting a meteorological analysis by examining the along-the-zenith air-moisture levels and introducing indices related to the azimuthal gradient. The results of the experiments indicate higher-quality soil moisture observations with the new algorithm. Furthermore, the analysis using the stations in northwestern Argentina illustrates the limits of this technology because of varying soil conditions and shows future research directions. The water-vapour analysis points out the strong influence of the topography on atmospheric moisture circulation and rainfall generation. Moreover, the GNSS time series allows for the identification of seasonal signatures, and the azimuthal-gradient indices permit the detection of main circulation pathways. N2 - Die Zentralanden sind eine Region, in der verschiedene Klimazonen nur durch kurze Übergänge gekennzeichnet sind. Der geographische Schwerpunkt dieser Arbeit liegt in den südlichen Zentralanden im Grenzgebiet zwischen Argentinien, Bolivien und Chile, und der wissenschaftliche Schwerpunkt ist in der Überwachung der Bodenfeuchtigkeit und des Wasserdampfs mit Fernerkundungsmethoden des Globales Navigationssatellitensystem (Global Navigation Satellite System - GNSS) angesiedelt. Wegen der raschen zeitlichen und räumlichen Schwankungen des Wasserdampfs und den damit häufig verbundenen Niederschlägen und der Feuchtigkeitszirkulation ist die Beobachtung dieses Teils des hydrologischen Zyklus von entscheidender Bedeutung für das Verständnis des lokalen Klimas. Darüber hinaus haben GNSS-gestützte Techniken in anderen Studien bereits ein hohes Potenzial gezeigt, erfordern aber in einigen Bereichen weitere Untersuchungen. Diese Studie umfasst sowohl logistischen Aufwand als auch Datenanalyse. Dazu wurden drei GNSS-Bodenstationen in abgelegenen Orten im Nordwesten Argentiniens installiert, um Beobachtungen zu sammeln, da dort keine externen Daten verfügbar waren. Die methodische Entwicklung für die Beobachtung der Klimavariablen Bodenfeuchtigkeit und Wasserdampfs ist unabhängig voneinander. Die Messung der Bodenfeuchte mit Hilfe der GNSS-Reflektometrie ist eine Annäherung, die vielversprechende Ergebnisse erbracht hat, aber bisher noch nicht operationell eingesetzt wurde. Daher wurde ein fortschrittlicherer Algorithmus entwickelt, der Beobachtungen von mehreren Satellitenkonstellationen nutzt und unter anderem Daten von zwei Pilotstationen in Deutschland verwendet. Außerdem wurde dieser Algorithmus leicht modifiziert und in einer Meeresspiegelmesskampagne eingesetzt. Obwohl diese Andwendung nicht direkt mit der Überwachung hydrologischer Parameter zusammenhängt, basiert die Methodik auf denselben Prinzipien und hilft bei der Bewertung des entwickelten Algorithmus. Auf der anderen Seite ist die Überwachung des Wasserdampfs mit GNSS-Beobachtungen eine anerkannte Technik, die in der Praxis bereits seit mehreren Jahren eingesetzt wird. Diese Studie befasst sich daher mit der Durchführung einer meteorologischen Analyse der Luftfeuchtigkeitswerte entlang des Zenits und der Entwicklung von klimatischen Indizes, die sich auf den azimutalen Gradienten beziehen. Die Ergebnisse der Experimente zeigen, dass die Qualität der Bodenfeuchtebeobachtungen mit dem neuen Algorithmus vielversprechend und besser sind. Darüber hinaus zeigt die Analyse anhand der Stationen im nordwesten Argentiniens die Grenzen dieser Technologie aufgrund der sehr unterschiedlichen Bodenbedingungen auf und gibt mögliche zukünftige Forschungsrichtung an. Die Wasserdampfanalyse verdeutlicht den Einfluss der Topographie auf die Luftfeuchtigkeit und der Regenmenge. Außerdem ermöglichen die GNSS-Zeitreihen die Identifizierung der jahreszeitlichen Signaturen, und Messungen der azimutal Gradienten erlauben die Erkennung der wichtigsten Zirkulationswege. KW - remote sensing KW - GNSS KW - GPS KW - water vapour KW - soil moisture KW - Central Andes KW - zentrale Anden KW - globales Navigationssatellitensystem KW - globales Positionsbestimmungssystem KW - Fernerkundung KW - Bodenfeuchtigkeit KW - Wasserdampf Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628256 ER - TY - THES A1 - Aral, Tuğçe T1 - Socialization and development of racial knowledge among youth in inequitable societies T1 - Sozialisierung und Entwicklung von rassifiziertem Wissen bei Jugendlichen in ungerechten Gesellschaften BT - An ecological approach BT - Ein ökologischer Ansatz N2 - Background: Societies worldwide have become more diverse yet continue to be inequitable. Understanding how youth growing up in these societies are socialized and consequently develop racial knowledge has important implications not only for their well-being but also for building more just societies. Importantly, there is a lack of research on these topics in Germany and Europe in general. Aim and Method: The overarching aim of the dissertation is to investigate 1) where and how ethnic-racial socialization (ERS) happens in inequitable societies and 2) how it relates to youth’s development of racial knowledge, which comprises racial beliefs (e.g., prejudice, attitudes), behaviors (e.g., actions preserving or disrupting inequities), and identities (e.g., inclusive, cultural). Guided by developmental, cultural, and ecological theories of socialization and development, I first explored how family, as a crucial socialization context, contributes to the preservation or disruption of racism and xenophobia in inequitable societies through its influence on children’s racial beliefs and behaviors. I conducted a literature review and developed a conceptual model bridging research on ethnic-racial socialization and intergroup relations (Study 1). After documenting the lack of research on socialization and development of racial knowledge within and beyond family contexts outside of the U.S., I conducted a qualitative study to explore ERS in Germany through the lens of racially marginalized youth (Study 2). Then, I conducted two quantitative studies to explore the separate and interacting relations of multiple (i.e., family, school) socialization contexts for the development of racial beliefs and behaviors (Study 3), and identities (Studies 3, 4) in Germany. Participants of Study 2 were 26 young adults (aged between 19 and 32) of Turkish, Kurdish, East, and Southeast Asian heritage living across different cities in Germany. Study 3 was conducted with 503 eighth graders of immigrant and non-immigrant descent (Mage = 13.67) in Berlin, Study 4 included 311 early to mid-adolescents of immigrant descent (Mage= 13.85) in North Rhine-Westphalia with diverse cultural backgrounds. Results and Conclusion: The findings revealed that privileged or marginalized positions of families in relation to their ethnic-racial and religious background in society entail differential experiences and thus are an important determining factor for the content/process of socialization and development of youth’s racial knowledge. Until recently, ERS research mostly focused on investigating how racially marginalized families have been the sources of support for their children in resisting racism and how racially privileged families contribute to transmission of information upholding racism (Study 1). ERS for racially marginalized youth in Germany centered heritage culture, discrimination, and resistance strategies to racism, yet resistance strategies transmitted to youth mostly help to survive racism (e.g., working hard) by upholding it instead of liberating themselves from racism by disrupting it (e.g., self-advocacy, Study 2). Furthermore, when families and schools foster heritage and intercultural learning, both contexts may separately promote stronger identification with heritage culture and German identities, and more prosocial intentions towards disadvantaged groups (i.e., refugees) among youth (Studies 3, 4). However, equal treatment in the school context led to mixed results: equal treatment was either unrelated to inclusive identity, or positively related to German and negatively related to heritage culture identities (Studies 3, 4). Additionally, youth receiving messages highlighting strained and preferential intergroup relations at home while attending schools promoting assimilation may develop a stronger heritage culture identity (Study 4). In conclusion, ERS happened across various social contexts (i.e., family, community centers, school, neighborhood, peer). ERS promoting heritage and intercultural learning, at least in one social context (family or school), might foster youth’s racial knowledge manifesting in stronger belonging to multiple cultures and in prosocial intentions toward disadvantaged groups. However, there is a need for ERS targeting increasing awareness of discrimination across social contexts of youth and teaching youth resistance strategies for liberation from racism. N2 - Hintergrund: Gesellschaften auf der ganzen Welt sind vielfältiger geworden, doch sie sind nach wie vor ungleich. Zu verstehen, wie Jugendliche, die in diesen Gesellschaften aufwachsen, sozialisiert werden und folglich rassifiziertes Wissen entwickeln, hat nicht nur wichtige Implikationen für ihr Wohlbefinden, sondern auch für den Aufbau gerechterer Gesellschaften. In Deutschland und in Europa im Allgemeinen besteht jedoch bislang ein Mangel an Forschung zu diesen Themen. Ziel und Methode: Das übergreifende Ziel der Dissertation ist es, 1) zu untersuchen, wo und wie ethnic-racial socialisation (ERS) in ungerechten Gesellschaften stattfindet und 2) wie ERS mit der Entwicklung von rassifiziertem Wissen bei Jugendlichen zusammenhängt. Rassifiziertes Wissen umfasst rassifizierte Überzeugungen (z.B. Vorurteile, Einstellungen), Verhaltensweisen (z.B. Handlungen, die Ungleichheiten aufrechterhalten oder bekämpfen) und Identitäten (z.B. inklusiv, kulturell). Auf der Grundlage entwicklungspsychologischer, kultureller und ökologischer Sozialisations- und Entwicklungstheorien untersuchte ich zunächst, wie die Familie als entscheidender Sozialisationskontext durch ihren Einfluss auf rassifizierte Überzeugungen und Verhaltensweisen der Kinder zur Aufrechterhaltung oder Bekämpfung von Rassismus und Fremdenfeindlichkeit in ungleichen Gesellschaften beiträgt. Ich führte eine Literaturrecherche durch und entwickelte ein konzeptuelles Modell, das Forschung zu ERS und zu Intergruppenbeziehungen verbindet (Studie 1). Nachdem ich den Mangel an Forschung zu Sozialisation und zur Entwicklung von rassistischem Wissen innerhalb und außerhalb des familiären Kontexts außerhalb der USA dokumentiert hatte, führte ich eine qualitative Studie durch, um ERS in Deutschland durch die Brille rassistisch markierter Jugendlicher zu untersuchen (Studie 2). Anschließend führte ich zwei quantitative Studien durch, um die separaten und interagierenden Zusammenhänge zwischen verschiedenen Sozialisationskontexten (z. B. Familie, Schule) und der Entwicklung rassifizierte Überzeugungen und Verhaltensweisen (Studie 3) und Identitäten (Studien 3, 4) in Deutschland zu untersuchen. Teilnehmer*innen der Studie 2 waren 26 junge Erwachsene (im Alter zwischen 19 und 32 Jahren) türkischer, kurdischer, ost- und südostasiatischer Herkunft, die in verschiedenen Städten in Deutschland leben. Studie 3 wurde mit 503 Achtklässler*innen mit und ohne Migrationshintergrund (Mage = 13,67) in Berlin durchgeführt. Studie 4 umfasste 311 Jugendliche im frühen bis mittleren Jugendalter mit Migrationshintergrund und unterschiedlichen kulturellen Hintergründen (Mage= 13,85) in Nordrhein-Westfalen. Ergebnisse und Schlussfolgerungen: Die Ergebnisse zeigen, dass privilegierte oder marginalisierte Positionen von Familien in Bezug auf ihren ethnisch, „rassistischen“ und religiösen Hintergrund in der Gesellschaft unterschiedliche Erfahrungen mit sich bringen. Somit sind sie ein wichtiger Bestimmungsfaktor für den Inhalt und Prozess der Sozialisation und die Entwicklung des rassifizierten Wissens von Jugendlichen. Bis vor kurzem konzentrierte sich die ERS-Forschung vor allem auf die Untersuchung der Frage, wie rassistisch markierte Familien ihre Kinder beim Widerstand gegen Rassismus unterstützen und wie nicht-rassistisch markierte Familien Informationen vermitteln, die Rassismus aufrechterhalten (Studie 1). ERS bei rassistisch markierten Jugendlichen in Deutschland fokussierte auf die Herkunftskultur, Diskriminierung und Widerstand gegen Rassismus. Jedoch zielten die an die Jugendlichen weitergegebenen Widerstandsstrategien meistens darauf ab, den Rassismus zu überleben (z.B. hart zu arbeiten), und sie ihn aufrechterhalten, anstatt sich vom Rassismus zu befreien, indem sie ihn bekämpfen (z. B. Selbstbehauptung, Studie 2). Wenn Familien und Schulen das herkunftskulturelle und interkulturelle Lernen fördern, können beide Kontexte getrennt voneinander eine stärkere herkunftskulturelle und deutsche Identität sowie mehr prosoziale Absichten gegenüber benachteiligten Gruppen (z. B. Geflüchtete) unter Jugendlichen fördern (Studien 3, 4). Die Gleichbehandlung im schulischen Kontext führte jedoch zu widersprüchlichen Ergebnissen: Die Gleichbehandlung stand entweder in keinem Zusammenhang mit der inklusiven Identität oder war positiv mit der deutschen und negativ mit der herkunftskulturellen Identität verbunden (Studien 3, 4). Darüber hinaus können Jugendliche, die zu Hause Botschaften erhalten, die angespannte und präferenzielle Intergruppenbeziehungen hervorheben, während sie Schulen besuchen, die Assimilation fördern, eine stärkere herkunftskulturelle Identität entwickeln (Studie 4). Zusammenfassend lässt sich sagen, dass ERS in verschiedenen sozialen Kontexten stattfand (d. h. Familie, Gemeindezentren, Schule, Nachbarschaft, Gleichaltrige). ERS, welche herkunftskulturelles und interkulturelles Lernen zumindest in einem sozialen Kontext (Familie oder Schule) unterstützt, könnte das rassifizierte Wissen der Jugendlichen fördern, das sich in prosozialen Absichten gegenüber benachteiligten Gruppen und einer stärkeren Zugehörigkeit zu mehreren Kulturen manifestiert. Es besteht jedoch ein Bedarf an ERS, die darauf abzielt, das Bewusstsein für Diskriminierung bei Jugendlichen über soziale Kontexte hinweg zu schärfen und Jugendlichen Widerstandsstrategien zur Befreiung von Rassismus zu vermitteln. KW - ethnic-racial socialization KW - racial knowledge KW - ecological approach KW - youth KW - quantitative and qualitative methods KW - rassifiziertes Wissen KW - ökologischer Ansatz KW - Jugend KW - quantitative und qualitative Methoden Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648559 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Aue, Lars T1 - Cyclone impacts on sea ice in the Atlantic Arctic Ocean T1 - Auswirkungen von Zyklonen auf das Meereis im Atlantischen Arktischen Ozean N2 - The Arctic is the hot spot of the ongoing, global climate change. Over the last decades, near-surface temperatures in the Arctic have been rising almost four times faster than on global average. This amplified warming of the Arctic and the associated rapid changes of its environment are largely influenced by interactions between individual components of the Arctic climate system. On daily to weekly time scales, storms can have major impacts on the Arctic sea-ice cover and are thus an important part of these interactions within the Arctic climate. The sea-ice impacts of storms are related to high wind speeds, which enhance the drift and deformation of sea ice, as well as to changes in the surface energy budget in association with air mass advection, which impact the seasonal sea-ice growth and melt. The occurrence of storms in the Arctic is typically associated with the passage of transient cyclones. Even though the above described mechanisms how storms/cyclones impact the Arctic sea ice are in principal known, there is a lack of statistical quantification of these effects. In accordance with that, the overarching objective of this thesis is to statistically quantify cyclone impacts on sea-ice concentration (SIC) in the Atlantic Arctic Ocean over the last four decades. In order to further advance the understanding of the related mechanisms, an additional objective is to separate dynamic and thermodynamic cyclone impacts on sea ice and assess their relative importance. Finally, this thesis aims to quantify recent changes in cyclone impacts on SIC. These research objectives are tackled utilizing various data sets, including atmospheric and oceanic reanalysis data as well as a coupled model simulation and a cyclone tracking algorithm. Results from this thesis demonstrate that cyclones are significantly impacting SIC in the Atlantic Arctic Ocean from autumn to spring, while there are mostly no significant impacts in summer. The strength and the sign (SIC decreasing or SIC increasing) of the cyclone impacts strongly depends on the considered daily time scale and the region of the Atlantic Arctic Ocean. Specifically, an initial decrease in SIC (day -3 to day 0 relative to the cyclone) is found in the Greenland, Barents and Kara Seas, while SIC increases following cyclones (day 0 to day 5 relative to the cyclone) are mostly limited to the Barents and Kara Seas. For the cold season, this results in a pronounced regional difference between overall (day -3 to day 5 relative to the cyclone) SIC-decreasing cyclone impacts in the Greenland Sea and overall SIC-increasing cyclone impacts in the Barents and Kara Seas. A cyclone case study based on a coupled model simulation indicates that both dynamic and thermodynamic mechanisms contribute to cyclone impacts on sea ice in winter. A typical pattern consisting of an initial dominance of dynamic sea-ice changes followed by enhanced thermodynamic ice growth after the cyclone passage was found. This enhanced ice growth after the cyclone passage most likely also explains the (statistical) overall SIC-increasing effects of cyclones in the Barents and Kara Seas in the cold season. Significant changes in cyclone impacts on SIC over the last four decades have emerged throughout the year. These recent changes are strongly varying from region to region and month to month. The strongest trends in cyclone impacts on SIC are found in autumn in the Barents and Kara Seas. Here, the magnitude of destructive cyclone impacts on SIC has approximately doubled over the last four decades. The SIC-increasing effects following the cyclone passage have particularly weakened in the Barents Sea in autumn. As a consequence, previously existing overall SIC-increasing cyclone impacts in this region in autumn have recently disappeared. Generally, results from this thesis show that changes in the state of the sea-ice cover (decrease in mean sea-ice concentration and thickness) and near-surface air temperature are most important for changed cyclone impacts on SIC, while changes in cyclone properties (i.e. intensity) do not play a significant role. N2 - Die Arktis ist der Hotspot des globalen Klimawandels. In den letzten Jahrzehnten sind die oberflächennahen Temperaturen in der Arktis fast viermal so schnell gestiegen wie im globalen Durchschnitt. Diese verstärkte Erwärmung der Arktis und die damit verbundenen raschen Umweltveränderungen werden u.a. durch Wechselwirkungen zwischen den einzelnen Komponenten des arktischen Klimasystems angetrieben. Auf täglichen bis wöchentlichen Zeitskalen können Stürme große Einflüsse auf das arktische Meereis haben und sind somit ein wichtiger Teil dieser Wechselwirkungen innerhalb des arktischen Klimas. Der Einfluss der Stürme auf das Meereis resultiert aus den hohen Windgeschwindigkeiten, welche die Drift und Verformung des Meereises verstärken, sowie aus Änderungen in der Oberflächenenergiebilanz im Zusammenhang mit der Advektion von Luftmassen, was das Wachstum und Schmelzen des Meereises beeinflusst. Das Auftreten von Stürmen in der Arktis ist oft mit dem Durchzug von Zyklonen verbunden. Obwohl die oben beschriebenen Mechanismen, wie sich Stürme/Zyklone auf das arktische Meereis auswirken, im Prinzip bekannt sind, fehlt es an einer statistischen Quantifizierung dieser Effekte. Dementsprechend ist das übergeordnete Ziel dieser Arbeit eine statistische Quantifizierung der Auswirkungen von Zyklonen auf die Meereiskonzentration (engl. Sea Ice Concentration, SIC) im atlantischen Arktischen Ozeans über die letzten vier Jahrzehnte. Um ein Verständnis für die zugrunde liegenden Mechanismen zu erlangen, besteht ein weiteres Ziel darin, die dynamischen und thermodynamischen Auswirkungen von Zyklonen auf das Meereis zu trennen und ihre relative Bedeutung zu analysieren. Zuletzt zielt diese Arbeit darauf ab, aktuelle Veränderungen der Zykloneneinflüsse auf das Meereis zu quantifizieren. Zum Erreichen dieser Forschungsziele werden verschiedene Datensätze genutzt, darunter atmosphärische und ozeanische Reanalysedaten sowie eine gekoppelte Modellsimulation und ein Algorithmus zur automatischen Identifikation von Zyklonen. Die Ergebnisse dieser Arbeit zeigen, dass Zyklone die SIC im atlantischen Arktischen Ozean von Herbst bis Frühjahr signifikant beeinflussen, während es im Sommer meist keine signifikanten Auswirkungen gibt. Die Stärke und das Vorzeichen (abnehmende oder zunehmende SIC) der Auswirkungen der Zyklone hängt stark von der betrachteten täglichen Zeitskala und der Region des Arktischen Ozeans ab. So ist ein anfänglicher Rückgang der SIC (Tag -3 bis Tag 0 relativ zum Zyklonendurchgang) in der Grönland-, der Barents- und der Karasee festzustellen, während ein SIC-Anstieg nach dem Zyklonendurchgang (Tag 0 bis Tag 5 relativ zum Zyklonendurchgang) hauptsächlich auf die Barents- und die Karasee beschränkt ist. Für die kalte Jahreszeit ergibt sich daraus ein ausgeprägter regionaler Unterschied zwischen insgesamt (Tag -3 bis Tag 5 relativ zum Zyklon) SIC-verringernden Zyklonenauswirkungen in der Grönlandsee und insgesamt SIC-erhöhenden Zyklonenauswirkungen in der Barents- und Karasee. Die Analyse spezifischer Zyklonenfälle basierend auf einer gekoppelten Modellsimulation zeigt, dass sowohl dynamische als auch thermodynamische Mechanismen zu den Auswirkungen von Zyklonen auf das Meereis im Winter beitragen. Hierbei wurde ein typisches Muster bestehend aus einer anfänglichen Dominanz dynamischer Meereisveränderungen gefolgt von verstärktem thermodynamischem Eiswachstum nach der Zyklonenpassage gefunden. Dieses verstärkte Eiswachstum nach der Zyklonenpassage erklärt u.a. auch die (statistischen) insgesamt SIC-erhöhenden Effekte von Zyklonen in der Barents- und Karasee im Winter. Signifikante Änderungen in den Auswirkungen von Zyklonen auf die SIC über die letzten vier Dekaden sind das ganze Jahr über zu finden. Diese Veränderungen variieren stark von Region zu Region und von Monat zu Monat. Die stärksten Trends in den Auswirkungen von Zyklonen auf die SIC sind im Herbst in der Barents- und Karasee zu beobachten. Hier hat sich die Stärke der zerstörerischen Auswirkungen von Zyklonen auf die SIC in den letzten vier Jahrzehnten ungefähr verdoppelt. Die SIC-erhöhenden Effekte nach der Zyklonenpassage haben sich in der Barentssee im Herbst besonders abgeschwächt. Dadurch sind zuvor existierende, insgesamt SIC-erhöhende Zyklonenauswirkungen in dieser Region und Jahreszeit zuletzt verschwunden. Generell zeigen die Ergebnisse dieser Arbeit, dass Änderungen im Zustand des Meereises (Abnahme der mittleren Meereiskonzentration und -dicke) sowie in der Lufttemperatur die veränderten Auswirkungen der Zyklonen auf die SIC antreiben, während Veränderungen in den Eigenschaften der Zyklonen (z.B. ihre Intensität) keine wesentliche Rolle spielen. KW - Arctic KW - atmosphere KW - sea ice KW - cyclones KW - meteorology KW - Arktis KW - Atmosphäre KW - Meereis KW - Zyklone KW - Meteorologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634458 SP - VIII, 131 ER - TY - THES A1 - Bauer, Stephan T1 - Efraim Frisch und Albrecht Mendelssohn Bartholdy BT - Stationen und Kontexte einer intellektuellen Doppelbiografie (1900–1939) N2 - Efraim Frisch (1873–1942) und Albrecht Mendelssohn Bartholdy (1874–1936) waren im klassischen Zeitalter der Intellektuellen (neben anderem) Zeitschriftenentrepeneure und Gründer der kleinen Zeitschriften Der Neue Merkur (1914–1916/1919–1925) und Europäische Gespräche (1923–1933). Sie stehen (nicht nur mit ihren Zeitschriften) für einen der wiederholt in der Moderne unternommenen Versuche, die in der Aufklärung erschlossenen Ressourcen – demokratischer Republikanismus und universelle und gleiche Rechte für alle Menschen – im Vertrauen auf ihre globale Umsetzbarkeit zu aktivieren. In der Zeit der Weimarer Republik gehörten sie zu den Republikanern, „die Weimar als Symbol ernst nahmen und zäh und mutig bemüht waren, dem Ideal konkreten Inhalt zu verleihen“ (Peter Gay). Ihr bislang unüberliefert gebliebenes Beispiel fügt sich ein in die Demokratiegeschichte der europäischen Moderne, in die Geschichte internationaler Gesellschaftsbeziehungen und die Geschichte der Selbstbehauptung intellektueller Autonomie. Die zäsurenübergreifend den Zeitraum von 1900 bis ca. 1940 untersuchende Studie ermöglicht wesentliche Einblicke in die Biografien Frischs und Mendelssohn Bartholdys, in die deutsch-französische/europäisch-transatlantische Welt der kleinen (literarisch-politischen) Zeitschriften des frühen 20. Jahrhunderts sowie in das medien-intellektuelle Feld des späten Kaiserreiches und der Weimarer Republik in seiner humanistisch-demokratisch-republikanischen Tendenz. Darüber hinaus beinhaltet sie neue Erkenntnisse zur Geschichte der ‚Heidelberger Vereinigung‘ – der Arbeitsgemeinschaft für eine Politik des Rechts – um Prinz Max von Baden, zur deutschen Friedensdelegation in Versailles 1919 und ihrem Hamburger Nachleben, zum Handbuch der Politik sowie zur ersten amtlichen Aktenpublikation des Auswärtigen Amtes – der Großen Politik der Europäischen Kabinette 1871–1914. Schließlich zu den Bemühungen der ‚Internationalists‘ der 1920er Jahre, eine effektive Ächtung des Angriffskrieges herbeizuführen. N2 - Based on their estates this work examines the life stories of Efraim Frisch (1873, Stryj, Galicia/1942, Ascona) and Albrecht Mendelssohn Bartholdy (1874, Karlsruhe/1936, Oxford). The focus of the study is on their intellectual careers, which are examined across periods from 1900 to around 1939. Of central importance is the literary-political journal Der Neue Merkur (1914–1916/1919–1925), which was published by Frisch, the Hamburg Institute for Foreign Policy directed by Mendelssohn Bartholdy and its organ, the Europäische Gespräche (1923–1933), as well the bilingual magazine for intellectual understanding (Hamburg-) Amerika-Post (1929–1933). This work provides new insights, for example, on the intellectual assertion of autonomy in the 1920s, on the history of democracy in Germany in the early 20th century and on the history of liberal internationalism as a political project, furthermore on the history of the 'Heidelberger Vereinigung' around Prince Max von Baden, on the publication of the Große Politik der Europäischen Kabinette 1871–1914 (the first official file edition of the Foreign Office), on the civil society efforts to reach understanding after the First World War and on the global networking of political science research institutes in the 1920s and early 1930s. The relevance of the example of Efraim Frisch and Albrecht Mendelssohn Bartholdy lays in their hopeful advocacy for the Weimar Republic and their involvement in European/transatlantic intellectual relations after the First World War. KW - Weimarer Republik KW - Intellektuelle KW - Intellectual History KW - Biografie KW - Demokratiegeschichte KW - Geschichte der internationalen Gesellschaftsbeziehungen KW - Geschichte des 20. Jahrhunderts Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-629846 SN - 978-3-86956-577-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Baumgart, Lene T1 - Die Ambivalenz der Digitalisierung T1 - The ambivalence of digitalization BT - Potenziale und Probleme digitaler Transformationen in Organisationen BT - potentials and problems of digital transformations in organizations N2 - Ausgehend von der Beobachtung, dass die aktuelle Digitalisierungsforschung die Ambivalenz der Digitalisierung zwar erkennt, aber nicht zum Gegenstand ihrer Analysen macht, fokussiert die vorliegende kumulative Dissertation auf die ambivalente Dichotomie aus Potenzialen und Problemen, die mit digitalen Transformationen von Organisationen einhergeht. Entlang von sechs Publikationen wird mit einem systemtheoretischen Blick auf Organisationen die spannungsvolle Dichotomie hinsichtlich dreier ambivalenter Verhältnisse aufgezeigt: Erstens wird in Bezug auf das Verhältnis von Digitalisierung und Postbürokratie deutlich, dass digitale Transformationen das Potenzial aufweisen, postbürokratische Arbeitsweisen zu erleichtern. Parallel ergibt sich das Problem, dass auf Konsens basierende postbürokratische Strukturen Digitalisierungsinitiativen erschweren, da diese auf eine Vielzahl von Entscheidungen angewiesen sind. Zweitens zeigt sich mit Blick auf das ambivalente Verhältnis von Digitalisierung und Vernetzung, dass einerseits organisationsweite Kooperation ermöglicht wird, während sich andererseits die Gefahr digitaler Widerspruchskommunikation auftut. Beim dritten Verhältnis zwischen Digitalisierung und Gender deutet sich das mit neuen digitalen Technologien einhergehende Potenzial für Gender Inklusion an, während zugleich das Problem einprogrammierter Gender Biases auftritt, die Diskriminierungen oftmals verschärfen. Durch die Gegenüberstellung der Potenziale und Probleme wird nicht nur die Ambivalenz organisationaler Digitalisierung analysierbar und verständlich, es stellt sich auch heraus, dass mit digitalen Transformationen einen doppelte Formalisierung einhergeht: Organisationen werden nicht nur mit den für Reformen üblichen Anpassungen der formalen Strukturen konfrontiert, sondern müssen zusätzlich formale Entscheidungen zu Technikeinführung und -beibehaltung treffen sowie formale Lösungen etablieren, um auf unvorhergesehene Potenziale und Probleme reagieren. Das Ziel der Dissertation ist es, eine analytisch generalisierte Heuristik an die Hand zu geben, mit deren Hilfe die Errungenschaften und Chancen digitaler Transformationen identifiziert werden können, während sich parallel ihr Verhältnis zu den gleichzeitig entstehenden Herausforderungen und Folgeproblemen erklären lässt. N2 - Based on the observation that current digitalization research recognizes the ambivalence of digitalization but does not make it the subject of its analyses, Lene Baumgart's dissertation focuses on the ambivalent dichotomy of potentials and problems associated with digital transformations of organizations. Along six publications, the tense dichotomy with regard to three ambivalent relationships is shown with a system-theoretical view of organizations. Firstly, in terms of the relationship between digitalization and post-bureaucracy, it becomes clear that digital transformations have the potential to facilitate post-bureaucratic ways of working. At the same time, the problem arises that post-bureaucratic structures based on consensus make digitalization initiatives more difficult, as they are dependent on a large number of decisions. Secondly, the ambivalent relationship between digitalization and networking shows that, on the one hand, organization-wide cooperation is made possible, while, on the other hand, the risk of digital contradictory communication arises. The third relationship between digitalization and gender indicates the potential for gender inclusion associated with new digital technologies, while at the same time the problem of programmed gender biases increases, which often exacerbate discrimination. The juxtaposition of potentials and problems not only makes it possible to analyse and understand the ambivalence of organizational digitalization, it also shows that digital transformations are accompanied by a double formalization: organizations are not only confronted with the usual adjustments to formal structures for reforms, but must also make formal decisions on technology introduction and retention and establish formal solutions to react to unforeseen potentials and problems. The aim of Lene Baumgart's dissertation is to provide an analytically generalized heuristic that can be used to identify the achievements and opportunities of digital transformations, while at the same time explaining their relationship to the challenges and consequential problems that arise simultaneously. KW - Digitalisierung KW - Organisationen KW - Potenziale KW - Probleme KW - digitale Transformation KW - Systemtheorie KW - Ambivalenz KW - Soziologie KW - ambivalence KW - digital transformations KW - digitalization KW - organizations KW - potentials KW - problems KW - sociology KW - systems theory Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630401 ER - TY - THES A1 - Behrmann, Helga T1 - Digital Fashion T1 - Digital Fashion BT - das virtuelle Kleid radikalisiert die Mode N2 - Das virtuelle Kleid als mediale und soziokulturelle Alltagserscheinung der Gegenwart bildet den Gegenstand der vorliegenden interdisziplinären Unter-suchung. An der Schnittstelle zwischen Menschen, Medien und Mode ist das virtuelle Kleid an unrealen Orten und in synthetischen Situationen ausschließlich auf einem Screen erfahrbar. In diesem Dispositiv lassen sich Körperkonzepte, Darstellungskonventionen, soziale Handlungsmuster und Kommunikations-strategien ausmachen, die zwar auf einer radikalen Ablösung vom textilen Material beruhen, aber dennoch nicht ohne sehr konkrete Verweise auf das textile Material auskommen. Dies führt zu neuen Ansätzen der Auseinandersetzung mit Kleidern, die nun als Visualisierung gebündelter Datenpakete zu betrachten sind. Die dynamische Entwicklung neuer Erscheinungsformen und deren nahtlose Einbindung in traditionelle Geschäftsmodelle und bestehende Modekonzepte macht eine Positionsbestimmung notwendig, insbesondere im Hinblick auf gegenwärtige Nachhaltigkeitsdiskurse um immaterielle Produkte. Für diese Studie liefern die hinter den Bildern liegenden Prozesse der ökonomischen Ausrichtung, der Herstellung, der Verwendung und der Rezeption den methodologischen Zugang für die Analyse. Mithilfe eines typologisierenden Instrumentariums wird aus der Vielzahl und Vielfalt der Darstellungen ein Set an forschungsleitenden Beispielen zusammengestellt, welche dann in einer mehrstufigen Kontextanalyse zu einer begrifflichen Fassung des virtuellen Kleides sowie zu fünf Kontexteinheiten führen. Am Beispiel des virtuellen Kleides zeichnet diese Untersuchung den technischen, gesellschaftlichen und sozialen Wandel nach und arbeitet seine Bedeutung für zukünftige Modeentwicklungen heraus. Damit leistet die Untersuchung einen Beitrag zur medien- und sozialwissenschaftlichen Modeforschung der Gegenwart. N2 - The subject of this interdisciplinary investigation is the virtual dress as a medial and socio-cultural everyday phenomenon of the present. Situated at the interface between people, media and fashion, the virtual dress can only be experienced on a screen in unreal spaces and synthetic situations. In this dispositive, body concepts, conventions of representation, social patterns of action and communication strategies can be identified that hinge on a radical detachment from the textile material but nevertheless cannot do without concrete references to the textile material. This leads to a new approach in dealing with clothes, now visualizations of bundled data packets. The dynamic development of new virtual garments and their seamless integration into established business models and existing fashion concepts makes it necessary to interrogate the phenomenon, especially concerning current discourses on the sustainability of intangible products. Within this study, the processes of economic orientation, production, use and reception behind the images provide the methodological approach for the analysis. Through typologizing instruments, a set of research-guiding examples is compiled from the multitude and variety of examples. This leads to a conceptual understanding of the virtual dress and five context units in a multi-stage context analysis. Using the example of the virtual dress, this study traces technical, societal and social change and works out its significance for future fashion developments. In this way, the study contributes to contemporary media and social science fashion research. KW - digital fashion KW - virtual fashion KW - digitale Mode KW - virtuelle Mode KW - digital twin KW - hybrid fashion KW - unreal fashion KW - immaterielle Mode KW - Bildkontextanalyse Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620269 ER - TY - THES A1 - Benson, Lawrence T1 - Efficient state management with persistent memory N2 - Efficiently managing large state is a key challenge for data management systems. Traditionally, state is split into fast but volatile state in memory for processing and persistent but slow state on secondary storage for durability. Persistent memory (PMem), as a new technology in the storage hierarchy, blurs the lines between these states by offering both byte-addressability and low latency like DRAM as well persistence like secondary storage. These characteristics have the potential to cause a major performance shift in database systems. Driven by the potential impact that PMem has on data management systems, in this thesis we explore their use of PMem. We first evaluate the performance of real PMem hardware in the form of Intel Optane in a wide range of setups. To this end, we propose PerMA-Bench, a configurable benchmark framework that allows users to evaluate the performance of customizable database-related PMem access. Based on experimental results obtained with PerMA-Bench, we discuss findings and identify general and implementation-specific aspects that influence PMem performance and should be considered in future work to improve PMem-aware designs. We then propose Viper, a hybrid PMem-DRAM key-value store. Based on PMem-aware access patterns, we show how to leverage PMem and DRAM efficiently to design a key database component. Our evaluation shows that Viper outperforms existing key-value stores by 4–18x for inserts while offering full data persistence and achieving similar or better lookup performance. Next, we show which changes must be made to integrate PMem components into larger systems. By the example of stream processing engines, we highlight limitations of current designs and propose a prototype engine that overcomes these limitations. This allows our prototype to fully leverage PMem's performance for its internal state management. Finally, in light of Optane's discontinuation, we discuss how insights from PMem research can be transferred to future multi-tier memory setups by the example of Compute Express Link (CXL). Overall, we show that PMem offers high performance for state management, bridging the gap between fast but volatile DRAM and persistent but slow secondary storage. Although Optane was discontinued, new memory technologies are continuously emerging in various forms and we outline how novel designs for them can build on insights from existing PMem research. N2 - Die effiziente Verwaltung großer Zustände ist eine zentrale Herausforderung für Datenverwaltungssysteme. Traditionell wird der Zustand in einen schnellen, aber flüchtigen Zustand im Speicher für die Verarbeitung und einen persistenten, aber langsamen Zustand im Sekundärspeicher für die Speicherung unterteilt. Persistenter Speicher (PMem), eine neue Technologie in der Speicherhierarchie, lässt die Grenzen zwischen diesen Zuständen verschwimmen, indem er sowohl Byte-Adressierbarkeit und geringe Latenz wie DRAM als auch Persistenz wie Sekundärspeicher bietet. Diese Eigenschaften haben das Potenzial, die Leistung von Datenbanksystemen grundlegend zu verändern. Aufgrund der potenziellen Auswirkungen, die PMem auf Datenverwaltungssysteme hat, untersuchen wir in dieser Arbeit ihre Verwendung von PMem. Zunächst evaluieren wir die Leistung von echter PMem-Hardware in Form von Intel Optane in einer Vielzahl von Konfigurationen. Zu diesem Zweck stellen wir PerMA-Bench vor, ein konfigurierbares Benchmark-Framework, mit dem Benutzer die Leistung von anpassbaren datenbankbezogenen PMem-Zugriffen untersuchen können. Auf der Grundlage der mit PerMA-Bench erzielten experimentellen Ergebnisse diskutieren wir unsere Erkenntnisse und identifizieren allgemeine und implementierungsspezifische Aspekte, die die PMem-Leistung beeinflussen und in zukünftigen Arbeiten berücksichtigt werden sollten, um PMem-fähige Designs zu verbessern. Anschließend präsentieren wir Viper, einen hybriden PMem-DRAM Key-Value-Store. Basierend auf PMem-bewussten Zugriffsmustern zeigen wir, wie PMem und DRAM effizient genutzt werden können, um eine wichtige Datenbankkomponente zu entwickeln. Unsere Evaluierung zeigt, dass Viper bestehende Key-Value-Stores bei Einfügungen um 4- bis 18-mal übertrifft, während er gleichzeitig vollständige Datenpersistenz bietet und ähnliche oder bessere Lookup-Leistung erzielt. Als nächstes zeigen wir, welche Änderungen vorgenommen werden müssen, um PMem-Komponenten in größere Systeme zu integrieren. Am Beispiel von Datenstromverarbeitungssystemen zeigen wir die Einschränkungen aktueller Designs auf und stellen einen Prototyp eines Systems vor, das diese Einschränkungen überwindet. Dadurch kann unser Prototyp die Leistung von PMem für die interne Zustandsverwaltung voll ausnutzen. Schließlich erörtern wir angesichts der Abkündigung von Optane, wie Erkenntnisse aus der PMem-Forschung am Beispiel von Compute Express Link (CXL) auf künftige mehrstufige Speicher-Setups übertragen werden können. Insgesamt zeigen wir, dass PMem eine hohe Leistungsfähigkeit für die Zustandsverwaltung bietet und die Lücke zwischen schnellem, aber flüchtigem DRAM und beständigem, aber langsamem Sekundärspeicher schließt. Obwohl Optane eingestellt wurde, entstehen ständig neue Speichertechnologien in verschiedenen Formen, und wir skizzieren, wie neuartige Entwürfe für sie auf den Erkenntnissen aus der bestehenden PMem-Forschung aufbauen können. KW - persistent memory KW - pmem KW - database KW - data management KW - state management KW - Datenverwaltung KW - Datenbank KW - persistenter Speicher KW - pmem KW - Zustandsverwaltung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-625637 ER - TY - THES A1 - Blaser, Berenike Lisa T1 - Premenstrual symptoms as a function of altered central autonomous nervous activity T1 - Prämenstruelle Symptome als Funktion veränderter zentralautonomer Netzwerkaktivität BT - a neurovisceral integration perspective on premenstrual syndrome BT - eine neuroviszerale Integrations-Perspektive auf das Prämenstruelle Syndrom N2 - The experience of premenstrual syndrome (PMS) affects up to 90% of individuals with an active menstrual cycle and involves a spectrum of aversive physiological and psychological symptoms in the days leading up to menstruation (Tschudin et al., 2010). Despite its high prevalence, the precise origins of PMS remain elusive, with influences ranging from hormonal fluctuations to cognitive, social, and cultural factors (Hunter, 2007; Matsumoto et al., 2013). Biologically, hormonal fluctuations, particularly in gonadal steroids, are commonly believed to be implicated in PMS, with the central factor being varying susceptibilities to the fluctuations between individuals and cycles (Rapkin & Akopians, 2012). Allopregnanolone (ALLO), a neuroactive steroid and progesterone metabolite, has emerged as a potential link to PMS symptoms (Hantsoo & Epperson, 2020). ALLO is a positive allosteric modulator of the GABAA receptor, influencing inhibitory communication (Rupprecht, 2003; Andréen et al., 2006). Different susceptibility to ALLO fluctuations throughout the cycle may lead to reduced GABAergic signal transmission during the luteal phase of the menstrual cycle. The GABAergic system's broad influence leads to a number of affected physiological systems, including a consistent reduction in vagally mediated heart rate variability (vmHRV) during the luteal phase (Schmalenberger et al., 2019). This reduction in vmHRV is more pronounced in individuals with high PMS symptoms (Baker et al., 2008; Matsumoto et al., 2007). Fear conditioning studies have shown inconsistent associations with cycle phases, suggesting a complex interplay between physiological parameters and PMS-related symptoms (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). The neurovisceral integration model posits that vmHRV reflects the capacity of the central autonomous network (CAN), which is responsible for regulatory processes on behavioral, cognitive, and autonomous levels (Thayer & Lane, 2000, 2009). Fear learning, mediated within the CAN, is suggested to be indicative of vmHRV's capacity for successful VI regulation (Battaglia & Thayer, 2022). Given the GABAergic mediation of central inhibitory functional connectivity in the CAN, which may be affected by ALLO fluctuations, this thesis proposes that fluctuating CAN activity in the luteal phase contributes to diverse aversive symptoms in PMS. A research program was designed to empirically test these propositions. Study 1 investigated fear discrimination during different menstrual cycle phases and its interaction with vmHRV, revealing nuanced effects on acoustic startle response and skin conductance response. While there was heightened fear discrimination in acoustic startle responses in participants in the luteal phase, there was an interaction between menstrual cycle phase and vmHRV in skin conductance responses. In this measure, heightened fear discrimination during the luteal phase was only visible in individuals with high resting vmHRV; those with low vmHRV showed reduced fear discrimination and higher overall responses. Despite affecting the vast majority of menstruating people, there are very limited tools available to reliably assess these symptoms in the German speaking area. Study 2 aimed at closing this gap, by translating and validating a German version of the short version of the Premenstrual Assessment Form (Allen et al., 1991), providing a reliable tool for future investigations, which closes the gap in PMS questionnaires in the German-speaking research area. Study 3 employed a diary study paradigm to explore daily associations between vmHRV and PMS symptoms. The results showed clear simultaneous fluctuations between the two constructs with a peak in PMS and a low point in vmHRV a few days before menstruation onset. The association between vmHRV and PMS was driven by psychological PMS symptoms. Based on the theoretical considerations regarding the neurovisceral perspective on PMS, another interesting construct to consider is attentional control, as it is closely related to functions of the CAN. Study 4 delved into attentional control and vmHRV differences between menstrual cycle phases, demonstrating an interaction between cycle phase and PMS symptoms. In a pilot, we found reduced vmHRV and attentional control during the luteal phase only in participants who reported strong PMS. While Studies 1-4 provided evidence for the mechanisms underlying PMS, Studies 5 and 6 investigated short- and long-term intervention protocols to ameliorate PMS symptomatology. Study 5 explored the potential of heart rate variability biofeedback (HRVB) in alleviating PMS symptoms and a number of other outcome measures. In a waitlist-control design, participants underwent a 4-week smartphone-based HRVB intervention. The results revealed positive effects on PMS, with larger effect sizes on psychological symptoms, as well as on depressive symptoms, anxiety/stress and attentional control. Finally, Study 6 examined the acute effects of HRVB on attentional control. The study found positive impact but only in highly stressed individuals. The thesis, based on this comprehensive research program, expands our understanding of PMS as an outcome of CAN fluctuations mediated by GABAA receptor reactivity. The results largely support the model. These findings not only deepen our understanding of PMS but also offer potential avenues for therapeutic interventions. The promising results of smartphone-based HRVB training suggest a non-pharmacological approach to managing PMS symptoms, although further research is needed to confirm its efficacy. In conclusion, this thesis illuminates the complex web of factors contributing to PMS, providing valuable insights into its etiological underpinnings and potential interventions. By elucidating the relationships between hormonal fluctuations, CAN activity, and psychological responses, this research contributes to more effective treatments for individuals grappling with the challenges of PMS. The findings hold promise for improving the quality of life for those affected by this prevalent and often debilitating condition. N2 - Das prämenstruelle Syndrom (PMS) betrifft bis zu 90% aller Personen mit einem aktiven Menstruationszyklus und umfasst ein Spektrum aversiver physiologischer und psychologischer Symptome in den Tagen vor der Menstruation (Tschudin et al., 2010). Trotz der hohen Prävalenz bleiben die genauen Ursachen von PMS weitgehend unklar, wobei Einflüsse von hormonellen Schwankungen bis hin zu kognitiven, sozialen und kulturellen Faktoren reichen (Hunter, 2007; Matsumoto et al., 2013). Von einer biologischen Perspektive werden hormonelle Schwankungen insbesondere in den Geschlechtshormonen häufig mit PMS in Verbindung gebracht. Dabei gelten individuelle und zyklusabhängige Anfälligkeiten gegenüber der hormonellen Schwankungen als zentraler Faktor (Rapkin & Akopians, 2012). Allopregnanolon (ALLO), ein neuroaktives Steroid und ein Progesteronmetabolit, hat sich als potenzielle Verbindung zu PMS-Symptomen herausgestellt (Hantsoo & Epperson, 2020). ALLO ist ein positiver allosterischer Modulator des GABAA-Rezeptors, der die inhibitorische Kommunikation beeinflusst (Rupprecht, 2003; Andréen et al., 2006). Eine unterschiedliche Anfälligkeit für ALLO-Schwankungen im Verlauf des Menstruationszyklus kann zu einer verminderten GABAergen Signalübertragung während der Lutealphase führen. Der breite Einfluss des GABAergen Systems führt zu einer Vielzahl von betroffenen physiologischen Systemen, einschließlich einer konstanten Reduktion der vagal vermittelten Herzfrequenzvariabilität (vmHRV) während der Lutealphase (Schmalenberger et al., 2019). Diese Reduktion der vmHRV ist bei Personen mit starken PMS-Symptomen stärker ausgeprägt (Baker et al., 2008; Matsumoto et al., 2007). Studien zur Furchtkonditionierung haben inkonsistente Assoziationen mit den Zyklusphasen gezeigt, was auf ein komplexes Zusammenspiel zwischen physiologischen Parametern und PMS-spezifischen Symptomen hindeutet (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). Das neuroviszerale Integrationsmodell postuliert, dass die vmHRV die Kapazität des zentralen autonomen Netzwerks (CAN) widerspiegelt, das für regulatorische Prozesse auf Verhaltens-, kognitiver und autonomer Ebene verantwortlich ist (Thayer & Lane, 2000, 2009). Das innerhalb des CAN vermittelte Furchtlernen wird als Indikator für die Fähigkeit der vmHRV zur erfolgreichen Regulation betrachtet (Battaglia & Thayer, 2022). Angesichts der GABAergen Vermittlung der zentralen inhibitorischen funktionellen Konnektivität im CAN, die durch ALLO-Schwankungen beeinflusst werden kann, postuliert diese Arbeit, dass eine fluktuierende CAN-Aktivität in der Lutealphase zu den vielfältigen aversiven Symptomen des PMS beiträgt. Ein Forschungsprogramm wurde konzipiert, um diese Annahmen empirisch zu überprüfen. Studie 1 untersuchte die Furchtdiskriminierung während verschiedener Menstruationszyklusphasen und deren Wechselwirkung mit vmHRV. Dabei wurden nuancierte Effekte auf den akustischen Schreckreflex und die Hautleitfähigkeitsreaktion aufgedeckt. Während eine gesteigerte Furchtdiskriminierung in akustischen Startlereaktionen bei Teilnehmenden in der Lutealphase festgestellt wurde, zeigte sich in den Hautleitfähigkeitsreaktionen eine Wechselwirkung zwischen Menstruationszyklusphase und vmHRV. In dieser Variable war eine erhöhte Furchtdiskriminierung während der Lutealphase nur bei Personen mit hoher Ruhe-vmHRV sichtbar; Personen mit niedriger vmHRV zeigten eine verringerte Furchtdiskriminierung und insgesamt stärkere Reaktionen. Trotzdem PMS die Mehrzahl aller menstruierender Personen betrifft, gibt es im deutschen Sprachraum wenige Instrumente, die die Symptomatik reliabel erfassen. Um diese Lücke zu schließen, übersetzte und validierte Studie 2 eine deutsche Version der Kurzversion der Premenstrual Assessment Form (Allen et al., 1991), wodurch ein reliables Instrument für zukünftige Untersuchungen bereitgestellt wurde. Dieses schließt eine Lücke in PMS-Fragebögen in der deutschen Forschungslandschaft. Studie 3 verwendete ein Tagebuchstudienparadigma, um tägliche Zusammenhänge zwischen vmHRV und PMS-Symptomen zu erforschen. Die Ergebnisse zeigten klare simultane Fluktuationen zwischen den beiden Konstrukten mit einem Höhepunkt in PMS und einem Tiefpunkt in vmHRV einige Tage vor Beginn der Menstruation. Die Assoziation zwischen vmHRV und PMS wurde hautsächlich durch psychologische PMS-Symptome verursacht. Basierend auf den theoretischen Überlegungen zur neuroviszeralen Perspektive auf PMS, ist ein weiteres interessantes zu betrachtende Konstrukt Aufmerksamkeitskontrolle, da diese eng mit Funktionen des CAN zusammenhängt. Studie 4 untersuchte Aufmerksamkeitskontrolle und Unterschiede in der vmHRV zwischen der Luteal- und Follikelphase des Menstruationszyklus und zeigte eine Wechselwirkung zwischen Zyklusphase und PMS-Symptomen. In einer Pilotstudie fanden wir eine reduzierte vmHRV und Aufmerksamkeitskontrolle während der Lutealphase ausschließlich bei Teilnehmenden, die starke PMS-Symptome berichteten. Während die Studien 1-4 Evidenz für die Mechanismen hinter PMS lieferten, untersuchten Studien 5 und 6 Kurz- und Langzeitinterventionsprotokolle zur Verbesserung der PMS-Symptomatik. Studie 5 untersuchte den Effekt von Herzratenvariabilitätsbiofeedback (HRVB) auf PMS-Symptome und einer Reihe anderer Outcomemaße. In einem Wartelisten-Kontroll-Design durchliefen die Teilnehmenden eine 4-wöchige Smartphone-basierte HRVB-Intervention. Die Ergebnisse zeigten positive Effekte auf PMS, mit größeren Effektstärken in psychologischen Symptomen, sowie bei depressiven Symptomen, Ängstlichkeit/Stress und Aufmerksamkeitskontrolle. Schließlich untersuchte Studie 6 die akuten Effekte von HRVB auf Aufmerksamkeitskontrolle. Die Studie zeigte positive Effekte, jedoch nur bei stark gestressten Personen. KW - premenstrual syndrome KW - prämenstruelles Syndrom KW - heart rate variability KW - Herzratenvariabilität KW - biofeedback KW - Aufmerksamkeit KW - attention Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645970 ER - TY - THES A1 - Boila, Chiara T1 - The processing of OVS and passive sentences in German monolingual and German-Italian simultaneous bilingual children T1 - Die Verarbeitung von OVS- und Passiv-Sätzen in deutschen monolingualen und deutsch-italienisch simultan-bilingualen Kindern N2 - It is a common finding that preschoolers have difficulties in identifying who is doing what to whom in non-canonical sentences, such as (object-verb-subject) OVS and passive sentences in German. This dissertation investigates how German monolingual and German-Italian simultaneous bilingual children process German OVS sentences in Study 1 and German passives in Study 2. Offline data (i.e., accuracy data) and online data (i.e., eye-gaze and pupillometry data) were analyzed to explore whether children can assign thematic roles during sentence comprehension and processing. Executive functions, language-internal and -external factors were investigated as potential predictors for children’s sentence comprehension and processing. Throughout the literature, there are contradicting findings on the relation between language and executive functions. While some results show a bilingual cognitive advantage over monolingual speakers, others suggest there is no relationship between bilingualism and executive functions. If bilingual children possess more advanced executive function abilities than monolingual children, then this might also be reflected in a better performance on linguistic tasks. In the current studies monolingual and bilingual children were tested by means of two executive function tasks: the Flanker task and the task-switching paradigm. However, these findings showed no bilingual cognitive advantages and no better performance by bilingual children in the linguistic tasks. The performance was rather comparable between bilingual and monolingual children, or even better for the monolingual group. This may be due to cross-linguistic influences and language experience (i.e., language input and output). Italian was used because it does not syntactically overlap with the structure of German OVS sentences, and it only overlapped with one of the two types of sentence condition used for the passive study - considering the subject-(finite)verb alignment. The findings showed a better performance of bilingual children in the passive sentence structure that syntactically overlapped in the two languages, providing evidence for cross-linguistic influences. Further factors for children’s sentence comprehension were considered. The parents’ education, the number of older siblings and language experience variables were derived from a language background questionnaire completed by parents. Scores of receptive vocabulary and grammar, visual and short-term memory and reasoning ability were measured by means of standardized tests. It was shown that higher German language experience by bilinguals correlates with better accuracy in German OVS sentences but not in passive sentences. Memory capacity had a positive effect on the comprehension of OVS and passive sentences in the bilingual group. Additionally, a role was played by executive function abilities in the comprehension of OVS sentences and not of passive sentences. It is suggested that executive function abilities might help children in the sentence comprehension task when the linguistic structures are not yet fully mastered. Altogether, these findings show that bilinguals’ poorer performance in the comprehension and processing of German OVS is mainly due to reduced language experience in German, and that the different performance of bilingual children with the two types of passives is mainly due to cross-linguistic influences. N2 - Es ist ein häufiger Befund, dass Vorschulkinder Schwierigkeiten haben zu erkennen ‚wer etwas mit jemandem tut‘ in nicht-kanonischen Sätzen, wie z.B. deutsche OVS- (Objekt-Verb-Subjekt) oder Passiv-Sätze. Diese Dissertation untersucht wie deutsche monolinguale und deutsch-italienische simultan-bilinguale Kinder deutsche OVS-Sätze (Studie 1) und deutsche Passiv-Sätze (Studie 2) verarbeiten. Offline-Daten (z.B. Datengenauigkeit) und Online-Daten (z.B. Blickbewegung-Daten und Pupillometrie-Daten) wurden analysiert, um herauszufinden, ob Kinder thematische Rollen während Satzverständnis und Satzverarbeitung zuteilen können. Exekutive Funktionen, interne und externe Sprachfaktoren wurden als mögliche Prädiktoren für Satzverständnis und Satzverarbeitung in Kindern untersucht. In der Literatur findet man unterschiedliche Ergebnisse über den Zusammenhang zwischen Sprache und exekutiven Funktionen. Während einige Ergebnisse kognitive Vorteile für bilinguale Sprecher zeigen, deuten andere darauf hin, dass es keinen Zusammenhang zwischen Bilingualismus und exekutiven Funktionen gibt. Wenn bilinguale Kinder fortgeschrittene exekutive Funktionen im Vergleich zu monolingualen Kindern haben, könnte sich dies auch in besseren Leistungen in linguistischen Aufgaben widerspiegeln. In diesem Forschungsprojekt wurden monolinguale und bilinguale Kinder mit zwei verschiedenen Aufgaben getestet, die die exekutiven Funktionen messen: der Flanker-Test und das Aufgabenwechsel-Paradigma. Die Ergebnisse konnten jedoch keinen bilingualen kognitiven Vorteil und keine besseren Leistungen von bilingualen Kindern in den linguistischen Aufgaben belegen. Die Leistung war vergleichbar zwischen monolingualen und bilingualen Kindern, oder sogar besser in der monolingualen Gruppe. Dies könnte an cross-linguistische Einflüssen und Spracherfahrung (z.B. Sprach-Input und -Output) liegen. Italienisch wurde gewählt, da es zum einen keine syntaktischen Überschneidungen mit der Struktur von deutschen OVS-Sätzen aufweist, und zum anderen sich nur in einer von zwei der in der Passiv-Studie genutzten Satz-Bedingungen überschneidet – im Hinblick auf die Subjekt-(finite) Verb Ausrichtung. Die Ergebnisse zeigen eine bessere Leistung von bilingualen Kindern in Passiv-Sätzen, die eine syntaktische Überschneidung in den zwei Sprachen aufweisen, und zeigen somit Hinweise für cross-linguistische Einflüsse. Weitere Einflussfaktoren auf das Satzverständnis der Kinder wurden berücksichtigt. Der Bildungsgrad der Eltern, die Anzahl von älteren Geschwistern und Spracherfahrungsvariablen wurden über den, von den Eltern beantworteten, Sprachhintergrund-Fragebogen abgeleitet. Werte zu rezeptivem Vokabular und Grammatik, Visuelles- und Kurzeitgedächtnis und Denkfähigkeit wurden durch standardisierte Tests erhoben. Es konnte gezeigt werden, dass größere Spracherfahrung im Deutschen bei bilingualen Kindern mit einer größeren Genauigkeit bei deutschen OVS-Sätzen korreliert, aber nicht bei Passiv-Sätzen. Bessere Gedächtnisleistung hatte einen positiven Effekt auf das Sprachverständnis der bilingualen Gruppe bei OVS- und Passiv-Sätzen. Zusätzlich spielten exekutive Funktionen eine Rolle beim Verständnis von OVS-Sätzen, aber nicht bei Passiv-Sätzen. Es wird angenommen, dass exekutive Funktionen Kindern in Satzverständnisaufgaben helfen könnten, wenn die linguistischen Strukturen noch nicht vollständig beherrscht werden. Zusammengenommen zeigen die vorliegenden Ergebnisse, dass die geringere Leistung von bilingualen Kindern beim Satzverständnis und Satzverarbeitung von deutschen OVS Sätzen hauptsächlich an der geringeren Spracherfahrung im Deutschen liegt und, dass die unterschiedliche Leistung von bilingualen Kindern mit den zwei Strukturen des Passivs überwiegend auf cross-linguistische Einflüsse zurückzuführen ist. KW - sentence processing KW - bilingualism KW - executive functions KW - eye-tracking KW - Bilingualismus KW - exekutive Funktionen KW - Eye-Tracking-Verfahren KW - Satzverarbeitung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-629723 ER - TY - THES A1 - Brinkmann, Charlotte T1 - Molecular characterisation of the Xanthomonas type III effector XopM T1 - Funktionelle Charakterisierung des Typ-III-Effektors XopM aus Xanthomonas N2 - Due to their sessile lifestyle, plants are constantly exposed to pathogens and possess a multi-layered immune system that prevents infection. The first layer of immunity called pattern-triggered immunity (PTI), enables plants to recognise highly conserved molecules that are present in pathogens, resulting in immunity from non-adaptive pathogens. Adapted pathogens interfere with PTI, however the second layer of plant immunity can recognise these virulence factors resulting in a constant evolutionary battle between plant and pathogen. Xanthomonas campestris pv. vesicatoria (Xcv) is the causal agent of bacterial leaf spot disease in tomato and pepper plants. Like many Gram-negative bacteria, Xcv possesses a type-III secretion system, which it uses to translocate type-III effectors (T3E) into plant cells. Xcv has over 30 T3Es that interfere with the immune response of the host and are important for successful infection. One such effector is the Xanthomonas outer protein M (XopM) that shows no similarity to any other known protein. Characterisation of XopM and its role in virulence was the focus of this work. While screening a tobacco cDNA library for potential host target proteins, the vesicle-associated membrane protein (VAMP)-associated protein 1-2 like (VAP12) was identified. The interaction between XopM and VAP12 was confirmed in the model species Nicotiana benthamiana and Arabidopsis as well as in tomato, a Xcv host. As plants possess multiple VAP proteins, it was determined that the interaction of XopM and VAP is isoform specific. It could be confirmed that the major sperm protein (MSP) domain of NtVAP12 is sufficient for binding XopM and that binding can be disrupted by substituting one amino acid (T47) within this domain. Most VAP interactors have at least one FFAT (two phenylalanines [FF] in an acidic tract) related motif, screening the amino acid sequence of XopM showed that XopM has two FFAT-related motifs. Substitution of the second residue of each FFAT motif (Y61/F91) disrupts NtVAP12 binding, suggesting that these motifs cooperatively mediate this interaction. Structural modelling using AlphaFold further confirmed that the unstructured N-terminus of XopM binds NtVAP12 at its MSP domain, which was further confirmed by the generation of truncated XopM variants. Infection of pepper leaves, with a XopM deficient Xcv strain did not result in a reduction of virulence in comparison to the Xcv wildtype, showing that the function of XopM during infection is redundant. Virus-induced gene silencing of NbVAP12 in N. benthamiana plants also did not affect Xcv virulence, which further indicated that interaction with VAP12 is also non-essential for Xcv virulence. Despite such findings, ectopic expression of wildtype XopM and XopMY61A/F91A in transgenic Arabidopsis seedlings enhanced the growth of a non-pathogenic Pseudomonas syringae pv. tomato (Pst) DC3000 strain. XopM was found to interfere with the PTI response allowing Pst growth independent of its binding to VAP. Furthermore, transiently expressed XopM could suppress reactive oxygen species (ROS; one of the earliest PTI responses) production in N. benthamiana leaves. The FFAT double mutant XopMY61A/F91A as well as the C-terminal truncation variant XopM106-519 could still suppress the ROS response while the N-terminal variant XopM1-105 did not. Suppression of ROS production is therefore independent of VAP binding. In addition, tagging the C-terminal variant of XopM with a nuclear localisation signal (NLS; NLS-XopM106-519) resulted in significantly higher ROS production than the membrane localising XopM106-519 variant, indicating that XopM-induced ROS suppression is localisation dependent. To further characterise XopM, mass spectrometry techniques were used to identify post-translational modifications (PTM) and potential interaction partners. PTM analysis revealed that XopM contains up to 21 phosphorylation sites, which could influence VAP binding. Furthermore, proteins of the Rab family were identified as potential plant protein interaction partners. Rab proteins serve a multitude of functions including vesicle trafficking and have been previously identified as T3E host targets. Taking this into account, a model of virulence of XopM was proposed, with XopM anchoring itself to VAP proteins to potentially access plasma membrane associated proteins. XopM possibly interferes with vesicle trafficking, which in turn suppresses ROS production through an unknown mechanism. In this work it was shown that XopM targets VAP proteins. The data collected suggests that this T3E uses VAP12 to anchor itself into the right place to carry out its function. While more work is needed to determine how XopM contributes to virulence of Xcv, this study sheds light onto how adapted pathogens overcome the immune response of their hosts. It is hoped that such knowledge will contribute to the development of crops resistant to Xcv in the future. N2 - Aufgrund ihrer sessilen Lebensweise sind Pflanzen ständig Pathogenen ausgesetzt und verfügen über ein mehrschichtiges Immunsystem, das Infektionen verhindert. Die erste Barriere dieser Abwehr, genannt PTI (von pattern-triggered immunity) erkennt hochkonservierte Moleküle von Krankheitserregern und ermöglicht somit eine Immunität gegen unspezifische nicht-angepasste Pathogene. Die zweite Barriere der Immunität erkennt Virulenzfaktoren von angepassten Krankheitserregern. Xanthomonas campestris pv. vesicatoria (Xcv) ist der Erreger der die Fleckenkrankheit bei Tomaten- und Paprikapflanzen verursacht. Xcv besitzt ein Typ-III-Sekretionssystem, mit dem es Typ-III-Effektoren (T3E) in Pflanzenzellen einschleust. Einer dieser Effektoren ist XopM, dass keine Ähnlichkeit mit anderen bekannten Proteinen aufweist. Daher war die Charakterisierung von XopM und dessen Rolle in der Virulenz das Ziel dieser Arbeit. VAP12 (von vesicle-associated membrane protein (VAMP)-associated protein 1-2) wurde als Interaktionspartner von XopM und damit als dessen potenzielles Wirtszellziel in Tabak identifiziert. Die Interaktion zwischen XopM und VAP12 wurde mit den homologen Proteinen der Modellpflanzen Nicotiana benthamiana und Arabidopsis sowie in Tomaten, einem Xcv-Wirt, bestätigt. Da Pflanzen mehrere VAP-Proteine besitzen, wurde festgestellt, dass die Interaktion mit XopM spezifisch für eine bestimmte Gruppe von VAPs ist. Es konnte zudem bestätigt werden, dass die MSP-Domäne von NtVAP12 ausreicht, um XopM zu binden, und dass die Bindung durch den Austausch einer Aminosäure (T47) in dieser Domäne gestört werden kann. Die meisten VAP-Interaktoren weisen mindestens ein FFAT (von two phenylalanines [FF] in an acidic tract) -ähnliches Motiv auf. Die Sequenzanalyse von XopM zeigte, dass XopM zwei FFAT-ähnliche Motive aufweist. Der Austausch der zweiten Aminosäure jedes FFAT-Motivs (Y61/F91) führt zum Verlust der Bindung an NtVAP12 und legt nahe, dass diese Motive kooperativ die Interaktion mit NtVAP12 vermitteln. Eine Strukturmodellierung mittels AlphaFold bestätigte darüber hinaus, dass der unstrukturierte N-Terminus von XopM an der MSP-Domäne von NtVAP12 bindet. Verkürzte XopM Varianten, bspw. der Verlust des N- oder C-Terminus, bestätigten diese Beobachtung. Die Infektion von Paprikablättern mit einem XopM-defizienten Xcv-Stamm führte im Vergleich zum Xcv-Wildtyp nicht zu einer Verringerung der Virulenz, was darauf hindeutet, dass die Funktion von XopM während der Infektion redundant ist. Die Virus-induzierte Genstilllegung von NbVAP12 in N. benthamiana Pflanzen beeinflusste ebenfalls nicht die Virulenz von Xcv, was darauf hinweist, dass die Wechselwirkung mit VAP12 für die Virulenz von Xcv ebenfalls nicht essentiell ist. Im Gegensatz dazu verbesserte die induzierte Expression von Wildtyp-XopM und XopMY61A/F91A in transgenen Arabidopsis Sämlingen das Wachstum eines nicht-pathogenen Pseudomonas syringae pv. tomato (Pst) DC3000 Stammes. Somit beeinträchtigt XopM die PTI-Reaktion und stärkt das Pst Wachstum, unabhängig von der Bindung an VAP. Darüber hinaus konnte XopM die Produktion von reaktiven Sauerstoffspezies (ROS; eine der frühesten PTI-Reaktionen) in N. benthamiana-Blättern unterdrücken. Dieselbe Beobachtung konnte für die FFAT-Doppelmutante XopMY61A/F91A sowie die C-terminale verkürzte XopM106-519 Variante gemacht werden, während die N-terminale Variante XopM1-105 dies nicht vermochte. Die Unterdrückung der ROS-Produktion ist daher unabhängig von der VAP-Bindung. Zusätzlich führte das Anbringen eines Kernlokalisationssignals (NLS; NLS- XopM106-519) an die C-terminale Variante von XopM zu einer signifikant höheren ROS-Produktion als bei der membranlokalisierenden XopM106-519-Variante, was darauf hinweist, dass die XopM-induzierte ROS-Unterdrückung lokalisationsabhängig ist. Um XopM weiter zu charakterisieren, wurden massenspektrometrische Techniken zur Identifizierung posttranslationaler Modifikationen (PTM) und potenzieller Interaktionspartner verwendet. Die PTM-Analyse ergab, dass XopM bis zu 21 Phosphorylierungsstellen enthält, die die VAP-Bindung potenziell beeinflussen könnten. Darüber hinaus wurden Proteine der Rab-Familie als potenzielle Interaktionspartner von Pflanzenproteinen identifiziert. Rab-Proteine erfüllen vielfältige Funktionen, einschließlich des Vesikeltransports, und wurden bereits zuvor als T3E-Wirtsziele identifiziert. Unter Berücksichtigung dieser Erkenntnisse wurde ein Modell der Virulenz von XopM vorgeschlagen, bei dem die Bindung mit VAP plasmamembran-assoziierte Proteinen für XopM leichter zugänglich macht. XopM beeinträchtigt womöglich den Vesikeltransport, was wiederum die ROS-Produktion durch einen unbekannten Mechanismus unterdrückt. In dieser Arbeit wurde gezeigt, dass der Xcv T3E XopM die sogenannten VAP-Proteine als Ziel hat. Die gesammelten Daten legen nahe, dass XopM für die Vermittlung seiner Virulenz VAP12 nutzt, um sich in der Wirtszelle ortsspezifisch zu verankern. Dies erlaubt XopM seine Virulenz Funktion auszuführen. Obwohl weitere Untersuchungen erforderlich sind, um festzustellen, wie XopM mechanistisch zur Virulenz von Xcv beiträgt, beleuchtet diese Studie, wie angepasste Pathogene die Immunantwort ihrer Wirte überwinden können. Dieses Wissen könnte dazu beitragen, dass in der Zukunft krankheitsresistente Pflanzen gegen Xcv entwickelt werden. KW - Xanthomonas KW - type-III effector KW - VAP protein KW - VAP Protein KW - Xanthomonas KW - Typ-III-Effektor Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648985 ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Cheng, Feng T1 - Evolution and ontogeny of electric organ discharge in African weakly electric fish genus Campylomormyrus: a genomic and transcriptomic perspective N2 - The African weakly electric fishes (Mormyridae) exhibit a remarkable adaptive radiation possibly due to their species-specific electric organ discharges (EODs). It is produced by a muscle-derived electric organ that is located in the caudal peduncle. Divergence in EODs acts as a pre-zygotic isolation mechanism to drive species radiations. However, the mechanism behind the EOD diversification are only partially understood. The aim of this study is to explore the genetic basis of EOD diversification from the gene expression level across Campylomormyrus species/hybrids and ontogeny. I firstly produced a high quality genome of the species C. compressirostris as a valuable resource to understand the electric fish evolution. The next study compared the gene expression pattern between electric organs and skeletal muscles in Campylomormyrus species/hybrids with different types of EOD duration. I identified several candidate genes with an electric organ-specific expression, e.g. KCNA7a, KLF5, KCNJ2, SCN4aa, NDRG3, MEF2. The overall genes expression pattern exhibited a significant association with EOD duration in all analyzed species/hybrids. The expression of several candidate genes, e.g. KCNJ2, KLF5, KCNK6 and KCNQ5, possibly contribute to the regulation of EOD duration in Campylomormyrus due to their increasing or decreasing expression. Several potassium channel genes showed differential expression during ontogeny in species and hybrid with EOD alteration, e.g. KCNJ2. I next explored allele specific expression of intragenus hybrids by crossing the duration EOD species C. compressirostris with the medium duration EOD species C. tshokwe and the elongated duration EOD species C. rhynchophorus. The hybrids exhibited global expression dominance of the C. compressirostris allele in the adult skeletal muscle and electric organ, as well as in the juvenile electric organ. Only the gene KCNJ2 showed dominant expression of the allele from C. rhynchophorus, and this was increasingly dominant during ontogeny. It hence supported our hypothesis that KCNJ2 is a key gene of regulating EOD duration. Our results help us to understand, from a genetic perspective, how gene expression effect the EOD diversification in the African weakly electric fish. N2 - Die Mormyridae, eine Familie afrikanischer schwach elektrischer Süßwasserfische, zeigen eine außergewöhnliche adaptive Radiation. Eine Erklärung für die Diversifizierung dieser Gruppe stellen die artspezifischen elektrischen Organentladungen (EODs) dar. Diese werden von einem elektrischen Organ muskulären Ursprungs im Ansatz der Schwanzflosse erzeugt. Die verschiedenen EODs könnten als präzygotischer Isolationsmechanismus für die Radiation verantwortlich sein. Dennoch ist der Mechanismus hinter der EOD-Diversifizierung bisher nicht vollständig geklärt. Ziel dieser Studie ist es, die genetische Grundlage der EOD-Diversifizierung auf der Ebene der Genexpression bei verschiedenen Campylomormyrus-Arten bzw. -Hybriden und während der Ontogenese zu ermitteln. Zunächst wurde erstmals das Genom der Art C. compressirostris in hoher Qualität sequenziert. Dies bildet eine bedeutende Grundlage für das Verständnis der Evolution der elektrischen Fische. In der zweiten Studie wurden Genexpressionsmuster von elektrischen Organen und Skelettmuskeln bei Campylomormyrus-Arten bzw. -Hybriden mit unterschiedlicher EOD-Dauer verglichen. Dabei konnten mehrere Kandidatengene identifiziert werden, die potentiell Elektroorgan-spezifisch exprimiert sind, i.a. KCNA7a, KLF5, KCNJ2, SCN4aa, NDRG3, MEF2. Bei allen untersuchten Arten/Hybriden wies das Genexpressionsmuster einen signifikanten Zusammenhang mit der EOD-Dauer auf. Die Expression mehrerer Kandidatengene, wie beispielsweise KCNJ2, KLF5, KCNK6 und KCNQ5, trägt möglicherweise zur Regulierung der EOD-Dauer bei Campylomormyrus bei. Bei Arten und Hybriden mit EOD-Unterschieden zeigten Kaliumkanal-Gene wie KCNJ2 eine unterschiedliche Expression während der Ontogenese. Zudem wurde die Allel-spezifische Expression bei Intragenus-Hybriden unter Verwendung der Arten C. compressirostris, C. tshokwe und C. rhynchophorus, die jeweils eine kurze, intermediäre bzw. lange EOD-Dauer aufweisen, untersucht. Die Hybriden wiesen eine generell dominante Expression der Allele von C. compressirostris in der adulten Skelettmuskulatur und im elektrischen Organ sowie im juvenilen elektrischen Organ auf. Einzig im Gen KCNJ2 dominierte das Allel von C. rhynchophorus, mit zunehmender Dominanz mit fortschreitender Ontogenese. Dies stützt unsere Hypothese einer Beteiligung des KCNJ2-Gens an der Regulation der EOD-Dauer. Unsere Ergebnisse stellen einen wesentlichen Beitrag zum Verständnis des Einflusses der Genexpression auf die EOD-Diversifizierung bei afrikanischen schwach elektrischen Fischen dar. KW - tropical freshwater fish KW - weakly electric fish KW - genomics KW - transcriptomics KW - Genomik KW - Transkriptomik KW - tropische Süßwasserfische KW - schwach elektrischer Fisch Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630172 ER - TY - THES A1 - Damseaux, Adrien T1 - Improving permafrost dynamics in land surface models: insights from dual sensitivity experiments T1 - Verbesserung der Permafrostdynamik in Landoberflächenmodellen: Erkenntnisse aus doppelten Sensitivitätsexperimenten N2 - The thawing of permafrost and the subsequent release of greenhouse gases constitute one of the most significant and uncertain positive feedback loops in the context of climate change, making predictions regarding changes in permafrost coverage of paramount importance. To address these critical questions, climate scientists have developed Land Surface Models (LSMs) that encompass a multitude of physical soil processes. This thesis is committed to advancing our understanding and refining precise representations of permafrost dynamics within LSMs, with a specific focus on the accurate modeling of heat fluxes, an essential component for simulating permafrost physics. The first research question overviews fundamental model prerequisites for the representation of permafrost soils within land surface modeling. It includes a first-of-its-kind comparison between LSMs in CMIP6 to reveal their differences and shortcomings in key permafrost physics parameters. Overall, each of these LSMs represents a unique approach to simulating soil processes and their interactions with the climate system. Choosing the most appropriate model for a particular application depends on factors such as the spatial and temporal scale of the simulation, the specific research question, and available computational resources. The second research question evaluates the performance of the state-of-the-art Community Land Model (CLM5) in simulating Arctic permafrost regions. Our approach overcomes traditional evaluation limitations by individually addressing depth, seasonality, and regional variations, providing a comprehensive assessment of permafrost and soil temperature dynamics. I compare CLM5's results with three extensive datasets: (1) soil temperatures from 295 borehole stations, (2) active layer thickness (ALT) data from the Circumpolar Active Layer Monitoring Network (CALM), and (3) soil temperatures, ALT, and permafrost extent from the ESA Climate Change Initiative (ESA-CCI). The results show that CLM5 aligns well with ESA-CCI and CALM for permafrost extent and ALT but reveals a significant global cold temperature bias, notably over Siberia. These results echo a persistent challenge identified in numerous studies: the existence of a systematic 'cold bias' in soil temperature over permafrost regions. To address this challenge, the following research questions propose dual sensitivity experiments. The third research question represents the first study to apply a Plant Functional Type (PFT)-based approach to derive soil texture and soil organic matter (SOM), departing from the conventional use of coarse-resolution global data in LSMs. This novel method results in a more uniform distribution of soil organic matter density (OMD) across the domain, characterized by reduced OMD values in most regions. However, changes in soil texture exhibit a more intricate spatial pattern. Comparing the results to observations reveals a significant reduction in the cold bias observed in the control run. This method shows noticeable improvements in permafrost extent, but at the cost of an overestimation in ALT. These findings emphasize the model's high sensitivity to variations in soil texture and SOM content, highlighting the crucial role of soil composition in governing heat transfer processes and shaping the seasonal variation of soil temperatures in permafrost regions. Expanding upon a site experiment conducted in Trail Valley Creek by \citet{dutch_impact_2022}, the fourth research question extends the application of the snow scheme proposed by \citet{sturm_thermal_1997} to cover the entire Arctic domain. By employing a snow scheme better suited to the snow density profile observed over permafrost regions, this thesis seeks to assess its influence on simulated soil temperatures. Comparing this method to observational datasets reveals a significant reduction in the cold bias that was present in the control run. In most regions, the Sturm run exhibits a substantial decrease in the cold bias. However, there is a distinctive overshoot with a warm bias observed in mountainous areas. The Sturm experiment effectively addressed the overestimation of permafrost extent in the control run, albeit resulting in a substantial reduction in permafrost extent over mountainous areas. ALT results remain relatively consistent compared to the control run. These outcomes align with our initial hypothesis, which anticipated that the reduced snow insulation in the Sturm run would lead to higher winter soil temperatures and a more accurate representation of permafrost physics. In summary, this thesis demonstrates significant advancements in understanding permafrost dynamics and its integration into LSMs. It has meticulously unraveled the intricacies involved in the interplay between heat transfer, soil properties, and snow dynamics in permafrost regions. These insights offer novel perspectives on model representation and performance. N2 - Das Auftauen von Permafrost und die anschließende Freisetzung von Treibhausgasen stellen eine der bedeutendsten und unsichersten positiven Rückkopplungsschleifen im Kontext des Klimawandels dar, was Vorhersagen über Veränderungen der Permafrostverbreitung von größter Bedeutung macht. Um diese kritischen Fragen zu adressieren, haben Klimawissenschaftler Landoberflächenmodelle (LSMs) entwickelt, die eine Vielzahl physikalischer Bodenprozesse umfassen. Diese Dissertation widmet sich der Vertiefung unseres Verständnisses und der Verfeinerung präziser Darstellungen der Permafrostdynamik innerhalb von LSMs, mit einem besonderen Fokus auf die genaue Modellierung von Wärmeflüssen, einem wesentlichen Bestandteil der Simulation von Permafrostphysik. Die erste Forschungsfrage gibt einen Überblick über grundlegende Modellanforderungen für die Darstellung von Permafrostböden innerhalb der Landoberflächenmodellierung. Sie beinhaltet einen erstmaligen Vergleich zwischen LSMs im Rahmen von CMIP6, um deren Unterschiede und Schwächen in den Schlüsselparametern der Permafrostphysik aufzuzeigen. Insgesamt repräsentiert jedes dieser LSMs einen einzigartigen Ansatz zur Simulation von Bodenprozessen und deren Wechselwirkungen mit dem Klimasystem. Die Wahl des am besten geeigneten Modells für eine bestimmte Anwendung hängt von Faktoren wie dem räumlichen und zeitlichen Maßstab der Simulation, der spezifischen Forschungsfrage und den verfügbaren Rechenressourcen ab. Die zweite Forschungsfrage bewertet die Leistungsfähigkeit des hochmodernen Community Land Model (CLM5) bei der Simulation arktischer Permafrostregionen. Unser Ansatz überwindet traditionelle Evaluationsbeschränkungen, indem er Tiefe, Saisonalität und regionale Variationen einzeln berücksichtigt und eine umfassende Bewertung der Permafrost- und Bodentemperaturdynamik liefert. Ich vergleiche die Ergebnisse von CLM5 mit drei umfangreichen Datensätzen: (1) Bodentemperaturen von 295 Bohrlochstationen, (2) Daten zur aktiven Schichtdicke (ALT) aus dem Circumpolar Active Layer Monitoring Network (CALM) und (3) Bodentemperaturen, ALT und Permafrostausdehnung aus der ESA Climate Change Initiative (ESA-CCI). Die Ergebnisse zeigen, dass CLM5 gut mit ESA-CCI und CALM für Permafrostausdehnung und ALT übereinstimmt, jedoch eine signifikante globale kalte Temperaturabweichung aufweist, insbesondere über Sibirien. Diese Ergebnisse spiegeln eine anhaltende Herausforderung wider, die in zahlreichen Studien identifiziert wurde: das Vorhandensein einer systematischen "kalten Abweichung" bei Bodentemperaturen in Permafrostregionen. Um diese Herausforderung anzugehen, schlagen die folgenden Forschungsfragen duale Sensitivitätsexperimente vor. Die dritte Forschungsfrage stellt die erste Studie dar, die einen pflanzenfunktionstypbasierten Ansatz (PFT) zur Ableitung von Bodentextur und organischer Bodensubstanz (SOM) anwendet und sich von der herkömmlichen Verwendung grob aufgelöster globaler Daten in LSMs abwendet. Diese neuartige Methode führt zu einer gleichmäßigeren Verteilung der Dichte organischer Bodensubstanz (OMD) im gesamten Bereich, gekennzeichnet durch geringere OMD-Werte in den meisten Regionen. Veränderungen in der Bodentextur zeigen jedoch ein komplexeres räumliches Muster. Der Vergleich der Ergebnisse mit Beobachtungen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf beobachtet wurde. Diese Methode zeigt bemerkenswerte Verbesserungen in der Permafrostausdehnung, jedoch auf Kosten einer Überschätzung der ALT. Diese Ergebnisse unterstreichen die hohe Empfindlichkeit des Modells gegenüber Variationen in der Bodentextur und dem SOM-Gehalt und heben die entscheidende Rolle der Bodenbeschaffenheit bei der Steuerung der Wärmeübertragungsprozesse und der saisonalen Variation der Bodentemperaturen in Permafrostregionen hervor. Aufbauend auf einem Standortexperiment im Trail Valley Creek von Dutch et al. (2022) erweitert die vierte Forschungsfrage die Anwendung des von Sturm et al. (1997) vorgeschlagenen Schneeschemas auf das gesamte arktische Gebiet. Durch die Anwendung eines Schneeschemas, das besser zu dem in Permafrostregionen beobachteten Schneedichteprofil passt, versucht diese Dissertation, dessen Einfluss auf die simulierten Bodentemperaturen zu bewerten. Der Vergleich dieser Methode mit Beobachtungsdatensätzen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf vorhanden war. In den meisten Regionen weist der Sturm-Lauf eine erhebliche Verringerung der kalten Abweichung auf. Es gibt jedoch eine deutliche Überschreitung mit einer warmen Abweichung in Bergregionen. Das Sturm-Experiment hat die Überschätzung der Permafrostausdehnung im Kontrolllauf wirksam angegangen, was jedoch zu einer erheblichen Reduzierung der Permafrostausdehnung in Bergregionen führte. Die ALT-Ergebnisse bleiben im Vergleich zum Kontrolllauf relativ konsistent. Diese Ergebnisse entsprechen unserer ursprünglichen Hypothese, die erwartete, dass die reduzierte Schneedecke im Sturm-Lauf zu höheren Winterbodentemperaturen und einer genaueren Darstellung der Permafrostphysik führen würde. Zusammenfassend zeigt diese Dissertation bedeutende Fortschritte im Verständnis der Permafrostdynamik und deren Integration in LSMs. Sie hat die Komplexität der Wechselwirkungen zwischen Wärmeübertragung, Bodeneigenschaften und Schneedynamik in Permafrostregionen sorgfältig entschlüsselt. Diese Erkenntnisse bieten neue Perspektiven auf die Modellierung und Leistung von Modellen. KW - snow thermal conductivity KW - soil organic matter KW - model validation KW - Modellvalidierung KW - Wärmeleitfähigkeit von Schnee KW - organische Bodensubstanz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639450 ER - TY - THES A1 - Drescher, Cedric T1 - Die Bekämpfung transnationaler Kriminalität im Kontext fragiler Staatlichkeit T1 - The fight against transnational crime in the context of state fragility BT - eine kritische Betrachtung des geltenden Rechtsrahmens zur Bekämpfung transnationaler Kriminalitätsphänomene und dessen Zusammenwirken mit dem Phänomen fragiler Staatlichkeit BT - a critical analysis of the current legal framework to combat transnational crime phenomena and its connection with the phenomenon of fragile statehood N2 - Die Arbeit „Die Bekämpfung transnationaler Kriminalität im Kontext fragiler Staatlichkeit“ widmet sich dem Phänomen grenzüberschreitend tätiger Akteure der organisierten Kriminalität die den Umstand ausnutzen, dass einige international anerkannte Regierungen nur eine unzureichende Kontrolle über Teile ihres Staatsgebietes ausüben. Es wird untersucht, weshalb der durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, zur Bekämpfung transnationaler Kriminalitätsphänomene im Kontext dieser fragilen Staaten, nicht oder nur defizitär dazu beiträgt die Kriminalitätsphänomene zu bekämpfen. Nachdem zunächst erörtert wird, was im Rahmen der Untersuchung unter dem Begriff der transnationalen Kriminalität verstanden wird, wird der internationale Rechtsrahmen zur Bekämpfung anhand von fünf beispielhaft ausgewählten transnationalen Kriminalitätsphänomenen beschrieben. Im darauffolgenden Hauptteil der Untersuchung wird der Frage nachgegangen, weshalb dieser durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, gerade in fragilen Staaten, kaum einen Beitrag dazu leistet solchen Kriminalitätsphänomenen effektiv zu begegnen. Dabei wird festgestellt, dass die Genese des internationalen Rechtsrahmens zu einem Legitimitätsdefizit desselbigen führt. Auch die mangelhafte Berücksichtigung der speziellen Lebensrealitäten, die in vielen fragilen Staaten vorzufinden sind, wirkt sich negativ auf die Durchsetzbarkeit des internationalen Rechtsrahmens aus. Es wird dargelegt, dass unterschiedlich hohe menschenrechtliche Schutzstandards zu Normenkollisionen bei der internationalen Zusammenarbeit der Staaten führen, insbesondere im Rahmen der internationalen Rechtshilfe. Da gerade fragile Staaten häufig durch eine defizitäre menschenrechtliche Situation gekennzeichnet sind, stellt dies konsolidierte Staaten im Rahmen der Zusammenarbeit mit fragilen Staaten öfters vor Herausforderungen. Schließlich wird aufgezeigt, dass auch die extraterritoriale Jurisdiktion und somit die strafrechtliche Verfolgung transnationaler Straftaten durch Drittstaaten mit rechtlichen und praktischen Problemen einhergeht. In einem letzten Kapitel der Arbeit wird der Frage nachgegangen, ob nicht ein alternativer Strafverfolgungsmechanismus geschaffen werden sollte, um transnationale Kriminalitätsphänomene zu verfolgen, die aus fragilen Staaten heraus begangen werden und wie ein solch alternativer Strafverfolgungsmechanismus konkret ausgestaltet sein sollte. N2 - The thesis "The fight against transnational crime in the context of fragile statehood" addresses the phenomenon of transnational organized crime actors who benefit from the fact that some internationally recognized governments exercise insufficient control over parts of their territory. It examines why the legal framework created by the international community to combat transnational crime phenomena in the context of these fragile states does not or only insufficiently contribute to combating the crime phenomena. After first defining what is meant by the term transnational crime in the context of this analysis, the international legal framework for combating transnational crime is described on the basis of five selected examples of transnational crime phenomena. The following chapter examines the question of why this legal framework created by the international community makes little contribution to effectively countering such criminal phenomena, especially in fragile states. It is determined that the genesis of the international legal framework leads to a legitimacy deficit of the same. Furthermore, the inadequate consideration of the specific circumstances found in many fragile states has a negative impact on the effectiveness of the international legal framework. It is then explained that different levels of human rights protection standards can lead to norm conflicts in international cooperation between states, particularly in the context of international legal assistance. Since fragile states are frequently characterized by a deficient human rights record, this can pose challenges for consolidated states in their cooperation with fragile states. It is also shown that extraterritorial jurisdiction and thus the criminal prosecution of transnational offenses by third countries is accompanied by legal and practical problems. Against this background, the final chapter of the thesis examines the question of whether an alternative criminal prosecution mechanism should not be created for the purpose of prosecuting transnational criminal phenomena committed out of fragile states and how such an alternative criminal prosecution mechanism could be organized. KW - internationales Strafrecht KW - Völkerrecht KW - transnationale Kriminalität KW - transnationales Strafrecht KW - Bekämpfungskonventionen KW - organisierte Kriminalität KW - fragile Staaten KW - FATF KW - alternative Strafverfolgungsmechanismen KW - international criminal law KW - international law KW - transnational crime KW - transnational criminal law KW - organized crime KW - fragile states KW - suppression conventions KW - terrorism KW - drug trafficking KW - corruption KW - money laundering KW - legitimacy KW - amnesties KW - FATF KW - human rights KW - international mutual legal assistance KW - alternative criminal prosecution mechanisms KW - Terrorismus KW - Betäubungsmittelkriminalität KW - Korruption KW - Geldwäsche KW - Legitimität KW - Amnestien KW - Menschenrechte KW - internationale Rechtshilfe Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628542 ER - TY - THES A1 - Dronsella, Beau B. T1 - Overcoming natural biomass limitations in gram-negative bacteria through synthetic carbon fixation T1 - Überwindung natürlicher Biomasselimitationen in gramnegativen Bakterien mittels synthetischer Kohlenstofffixierung N2 - The carbon demands of an ever-increasing human population and the concomitant rise in net carbon emissions requires CO2 sequestering approaches for production of carbon-containing molecules. Microbial production of carbon-containing products from plant-based sugars could replace current fossil-based production. However, this form of sugar-based microbial production directly competes with human food supply and natural ecosystems. Instead, one-carbon feedstocks derived from CO2 and renewable energy were proposed as an alternative. The one carbon molecule formate is a stable, readily soluble and safe-to-store energetic mediator that can be electrochemically generated from CO2 and (excess off-peak) renewable electricity. Formate-based microbial production could represent a promising approach for a circular carbon economy. However, easy-to-engineer and efficient formate-utilizing microbes are lacking. Multiple synthetic metabolic pathways were designed for better-than-nature carbon fixation. Among them, the reductive glycine pathway was proposed as the most efficient pathway for aerobic formate assimilation. While some of these pathways have been successfully engineered in microbial hosts, these synthetic strains did so far not exceed the performance of natural strains. In this work, I engineered and optimized two different synthetic formate assimilation pathways in gram-negative bacteria to exceed the limits of a natural carbon fixation pathway, the Calvin cycle. The first chapter solidified Cupriavidus necator as a promising formatotrophic host to produce value-added chemicals. The formate tolerance of C. necator was assessed and a production pathway for crotonate established in a modularized fashion. Last, bioprocess optimization was leveraged to produce crotonate from formate at a titer of 148 mg/L. In the second chapter, I chromosomally integrated and optimized the synthetic reductive glycine pathway in C. necator using a transposon-mediated selection approach. The insertion methodology allowed selection for condition-specific tailored pathway expression as improved pathway performance led to better growth. I then showed my engineered strains to exceed the biomass yields of the Calvin cycle utilizing wildtype C. necator on formate. This demonstrated for the first time the superiority of a synthetic formate assimilation pathway and by extension of synthetic carbon fixation efforts as a whole. In chapter 3, I engineered a segment of a synthetic carbon fixation cycle in Escherichia coli. The GED cycle was proposed as a Calvin cycle alternative that does not perform a wasteful oxygenation reaction and is more energy efficient. The pathways simple architecture and reasonable driving force made it a promising candidate for enhanced carbon fixation. I created a deletion strain that coupled growth to carboxylation via the GED pathway segment. The CO2 dependence of the engineered strain and 13C-tracer analysis confirmed operation of the pathway in vivo. In the final chapter, I present my efforts of implementing the GED cycle also in C. necator, which might be a better-suited host, as it is accustomed to formatotrophic and hydrogenotrophic growth. To provide the carboxylation substrate in vivo, I engineered C. necator to utilize xylose as carbon source and created a selection strain for carboxylase activity. I verify activity of the key enzyme, the carboxylase, in the decarboxylative direction. Although CO2-dependent growth of the strain was not obtained, I showed that all enzymes required for operation of the GED cycle are active in vivo in C. necator. I then evaluate my success with engineering a linear and cyclical one-carbon fixation pathway in two different microbial hosts. The linear reductive glycine pathway presents itself as a much simpler metabolic solution for formate dependent growth over the sophisticated establishment of hard-to-balance carbon fixation cycles. Last, I highlight advantages and disadvantages of C. necator as an upcoming microbial benchmark organism for synthetic metabolism efforts and give and outlook on its potential for the future of C1-based manufacturing. N2 - Der Rohstoffbedarf einer ständig wachsenden menschlichen Bevölkerung und der damit einhergehende Anstieg der Kohlenstoffemissionen erfordert Konzepte zur CO2-Bindung für die Produktion von kohlenstoffhaltigen Molekülen. Hier bietet die mikrobielle Produktion von Chemikalien eine nachhaltige Alternative zu den bisher etablierten Syntheseprozessen. Da die Nutzung von pflanzlich hergestelltem Zucker durch die entsprechenden Mikroben allerdings in direkter Konkurrenz zur menschlichen Nahrungsmittelversorgung steht, soll aus CO2 und erneuerbarer Energie synthetisiertes Formiat (Ameisensäure) als alternativer Nährstoff nutzbar gemacht werden. Formiat fungiert als ein stabiler, leicht löslicher und sicher zu lagernder Energiespeicher, der als Ausgangsstoff mikrobieller Produktionen einen vielversprechenden Ansatz für eine nachhaltige Kreislaufwirtschaft eröffnet. Dieses Potenzial wurde bisher nicht realisiert, da es an einfach zu modifizierenden Mikroben, die Formiat effizient nutzen, mangelt. Zwecks mikrobieller Formiatnutzung wurden deshalb synthetische Stoffwechselwege entwickelt, die die Ein-Kohlenstoff Quelle deutlich effizienter als natürliche Alternativen in den Metabolismus einbringen. Die effizienteste Variante für die aerobe Formiat-Assimilation ist hierbei der reduktive Glycin-Stoffwechselweg. Während Letzterer zwar bereits erfolgreich in Mikroben eingebracht wurde, übertraf die Leistung dieser synthetischen Stämme trotz der theoretisch höheren Stoffwechseleffizienz nicht die des natürlichen Stoffwechsels. In dieser Arbeit entwickelte und optimierte ich zwei verschiedene synthetische Ein-Kohlenstoff-Fixierungswege in gramnegativen Bakterien, um die Grenzen der natürlichen CO2 Nutzung zu überschreiten. Das erste Kapitel untersuchte das Potenzial von Cupriavidus necator als vielversprechenden formatotrophen Wirt für die Produktion von Chemikalien mit hohem Mehrwert. Die Ameisensäuretoleranz von C. necator wurde getestet und ein Produktionsweg für Crotonat in einer modularen Weise etabliert. Schließlich wurde Bioprozessoptimierung genutzt, um Crotonat aus Formiat mit einem Titer von 148 mg/L zu produzieren. Im zweiten Kapitel integrierte ich den synthetischen reduktiven Glycinweg anstelle der nativen Formiatassimilierung chromosomal in C. necator und optimierte die Expressionsniveaus der beteiligten Enzyme und somit Wachstum des Stammes mit Hilfe eines transposonbasierten Selektionsansatzes. Die Kombination von randomisierter Insertionsmethodik und erzwungener Nutzung des Stoffwechselwegs für Wachstum auf Formiat ermöglichte hier die Selektion für bedingungsspezifisch optimale Expression des Stoffwechselweges, da eine höhere Operationsrate des Stoffwechselweges zu verbessertem Wachstum führte. Anschließend zeigte ich, dass meine optimierten synthetischen Stämme die Biomasseerträge des Calvin-Zyklus von C. necator auf Formiat übertrafen. Dies zeigte zum ersten Mal die bisher nur theoretisch prognostizierte Überlegenheit eines synthetischen Formiat-Assimilationsweges und damit der synthetischen Kohlenstofffixierung gegenüber natürlicher Kohlenstofffixierung. In Kapitel 3 entwickelte ich ein Segment des GED-Zyklus zur synthetischen CO2-Fixierung in Escherichia coli. Der GED-Zyklus ist eine Alternative zum Calvin-Zyklus, die im Gegensatz zu Letzterem keine ungewollte Aktivität mit Sauerstoff hat und somit energieeffizienter CO2 fixiert. Die einfache Architektur des Kreislaufs mit nur einer kritischen Reaktion macht ihn zu einem vielversprechenden Kandidaten für verbesserte Kohlenstofffixierung. Ich erzeugte einen Deletionsstamm, dessen Wachstum an besagte Reaktion, genauer die Carboxylierung mittels des GED-Segments, gekoppelt war. Die Fähigkeit des Stammes, CO2-abhängig zu wachsen, und die 13C-Tracer-Analyse bestätigten die Funktionalität des Weges in vivo. Im letzten Kapitel versuchte ich den GED-Zyklus auch in C. necator zu implementieren, da C. necator durch sein formatotrophes Wachstum potenziell ein vielversprechenderer Wirt sein könnte. Hierbei war das Wachstum des Calvin-Zyklus abhängigen Wildtyps, wie auch für den reduktiven Glycin-Weg, ein guter Referenzwert für den Vergleich mit den synthetischen Stämmen. Ich veränderte C. necator genetisch, sodass es das GED Substrat Xylose nutzt und zeigte, dass alle Enzyme für den Betrieb des Kohlenstofffixierungsweges in separierten Testeinheiten in vivo in C. necator funktional sind. Schließlich vergleiche ich meine Ergebnisse bezüglich der Entwicklung von linearer und zyklischer Ein-Kohlenstoff-Fixierung in zwei verschiedenen mikrobiellen Wirten. Es zeigt sich, dass der simplere lineare reduktive Glycinweg synthetische Formatotrophie von bisher unerschlossener Effizienz erlaubt, während sich die Realisierung komplexer autokatalytischer Kohlenstofffixierungszyklen als deutlich schwieriger erweist. Ich hebe die Vor- und Nachteile von C. necator als zukünftigem Plattformorganismus für synthetische Stoffwechselprozesse hervor und gebe einen Ausblick auf sein Potenzial für die Zukunft der C1-basierten Produktion. KW - synthetic biology KW - metabolic engineering KW - synthetic metabolism KW - carbon fixation KW - C1 assimilation KW - formate KW - reductive glycine pathway KW - GED cycle KW - cupriavidus necator KW - Ralstonia eutropha KW - H16 KW - Alcaligenes eutrophus KW - Wautersia eutropha KW - Hydrogenomonas eutrophus KW - Escherichia coli KW - bio-economy KW - Calvin cycle KW - Alcaligenes eutrophus KW - C1-Assimilation KW - Calvinzyklus KW - Escherichia coli KW - GED-Zyklus KW - H16 KW - Hydrogenomonas eutrophus KW - Ralstonia eutropha KW - Wautersia eutropha KW - Bioökonomie KW - Kohlenstofffixerung KW - Cupriavidus necator KW - Formiat KW - metabolisches Modifizieren KW - reduktiver Glycinstoffwechselweg KW - synthetische Biologie KW - synthetischer Metabolismus Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646273 ER - TY - THES A1 - Dörries, Timo Julian T1 - Anomalous transport and non-Gaussian dynamics in mobile-immobile models N2 - The mobile-immobile model (MIM) has been established in geoscience in the context of contaminant transport in groundwater. Here the tracer particles effectively immobilise, e.g., due to diffusion into dead-end pores or sorption. The main idea of the MIM is to split the total particle density into a mobile and an immobile density. Individual tracers switch between the mobile and immobile state following a two-state telegraph process, i.e., the residence times in each state are distributed exponentially. In geoscience the focus lies on the breakthrough curve (BTC), which is the concentration at a fixed location over time. We apply the MIM to biological experiments with a special focus on anomalous scaling regimes of the mean squared displacement (MSD) and non-Gaussian displacement distributions. As an exemplary system, we have analysed the motion of tau proteins, that diffuse freely inside axons of neurons. Their free diffusion thereby corresponds to the mobile state of the MIM. Tau proteins stochastically bind to microtubules, which effectively immobilises the tau proteins until they unbind and continue diffusing. Long immobilisation durations compared to the mobile durations give rise to distinct non-Gaussian Laplace shaped distributions. It is accompanied by a plateau in the MSD for initially mobile tracer particles at relevant intermediate timescales. An equilibrium fraction of initially mobile tracers gives rise to non-Gaussian displacements at intermediate timescales, while the MSD remains linear at all times. In another setting bio molecules diffuse in a biosensor and transiently bind to specific receptors, where advection becomes relevant in the mobile state. The plateau in the MSD observed for the advection-free setting and long immobilisation durations persists also for the case with advection. We find a new clear regime of anomalous diffusion with non-Gaussian distributions and a cubic scaling of the MSD. This regime emerges for initially mobile and for initially immobile tracers. For an equilibrium fraction of initially mobile tracers we observe an intermittent ballistic scaling of the MSD. The long-time effective diffusion coefficient is enhanced by advection, which we physically explain with the variance of mobile durations. Finally, we generalize the MIM to incorporate arbitrary immobilisation time distributions and focus on a Mittag-Leffler immobilisation time distribution with power-law tail ~ t^(-1-mu) with 01. Das Energiefunktional besteht dabei aus einem Divergenz- und einem beliebigen Potentialteil. Als zugrundeliegender Raum wurden hier lokal summierbare unendliche Graphen gewählt. Bisherige Veröffentlichungen zu Hardy-Ungleichungen auf Graphen haben vor allem den Spezialfall p=2 betrachtet, oder lokal endliche Graphen ohne Potentialteil. Zwei grundlegende Fragestellungen ergeben sich nun ganz natürlich: Für welche Graphen gibt überhaupt es eine Hardy-Ungleichung? Und, wenn es sie gibt, gibt es einen Weg um ein optimales Gewicht zu erhalten? Antworten auf diese Fragen werden in Theorem 10.1 und Theorem 12.1 gegeben. Theorem 10.1 gibt eine Reihe an Charakterisierungen an; unter anderem gibt es eine Hardy-Ungleichung auf einem Graphen genau dann, wenn es eine Greensche Funktion gibt. Theorem 12.1 gibt eine explizite Formel an, um optimale Hardy-Gewichte für lokal endliche Graphen unter einigen technischen Zusatzannahmen zu berechnen. In Beispielen wird gezeigt, dass Greensche Funktionen gute Kandidaten sind um in die Formel eingesetzt zu werden. Um diese beiden Theoreme beweisen zu können, müssen eine Vielzahl an Techniken erarbeitet werden, welche in den ersten Kapiteln behandelt werden. Dabei sind eine Verallgemeinerung der Grundzustandstransformation (Theorem 4.1), ein Agmon-Allegretto-Piepenbrink-artiges Resultat (Theorem 6.1) und das Vergleichsprinzip (Proposition 7.3) besonders hervorzuheben, da diese Resultate sehr häufig angewendet werden und somit das Fundament der Dissertation bilden. Es wird zudem darauf Wert gelegt die Theorie durch Beispiele zu veranschaulichen. Hierbei wird der Fokus auf die natürlichen Zahlen, Euklidische Gitter, Bäume und Sterne gelegt. Als Abschluss werden noch eine nicht-lineare Version der Heisenbergschen Unschärferelation und eine Rellich-Ungleichung aus der Hardy-Ungleichung geschlussfolgert. N2 - The dissertation deals with a central inequality of non-linear potential theory, the Hardy inequality. It states that the non-linear energy functional can be estimated from below by a pth power of a weighted p-norm, p>1. The energy functional consists of a divergence part and an arbitrary potential part. Locally summable infinite graphs were chosen as the underlying space. Previous publications on Hardy inequalities on graphs have mainly considered the special case p=2, or locally finite graphs without a potential part. Two fundamental questions now arise quite naturally: For which graphs is there a Hardy inequality at all? And, if it exists, is there a way to obtain an optimal weight? Answers to these questions are given in Theorem 10.1 and Theorem 12.1. Theorem 10.1 gives a number of characterizations; among others, there is a Hardy inequality on a graph if and only if there is a Green's function. Theorem 12.1 gives an explicit formula to compute optimal Hardy weights for locally finite graphs under some additional technical assumptions. Examples show that Green's functions are good candidates to be used in the formula. Emphasis is also placed on illustrating the theory with examples. The focus is on natural numbers, Euclidean lattices, trees and star graphs. Finally, a non-linear version of the Heisenberg uncertainty principle and a Rellich inequality are derived from the Hardy inequality. KW - graph theory KW - Hardy inequality KW - quasi-linear potential theory KW - p-Laplacian KW - criticality theory KW - Graphentheorie KW - Hardy-Ungleichung KW - quasilineare Potentialtheorie KW - p-Laplace-Operator KW - Kritikalitätstheorie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647730 ER - TY - THES A1 - Fitzner, Maria T1 - Cultivation of selected halophytes in saline indoor farming and modulation of cultivation conditions to optimize metabolite profiles for human nutrition T1 - Kultivierung ausgewählter Halophyten im salinen Indoor Farming und Modulation der Anbaubedingungen zur Optimierung der Metabolitenprofile für die menschliche Ernährung N2 - With the many challenges facing the agricultural system, such as water scarcity, loss of arable land due to climate change, population growth, urbanization or trade disruptions, new agri-food systems are needed to ensure food security in the future. In addition, healthy diets are needed to combat non-communicable diseases. Therefore, plant-based diets rich in health-promoting plant secondary metabolites are desirable. A saline indoor farming system is representing a sustainable and resilient new agrifood system and can preserve valuable fresh water. Since indoor farming relies on artificial lighting, assessment of lighting conditions is essential. In this thesis, the cultivation of halophytes in a saline indoor farming system was evaluated and the influence of cultivation conditions were assessed in favor of improving the nutritional quality of halophytes for human consumption. Therefore, five selected edible halophyte species (Brassica oleracea var. palmifolia, Cochlearia officinalis, Atriplex hortensis, Chenopodium quinoa, and Salicornia europaea) were cultivated in saline indoor farming. The halophyte species were selected for to their salt tolerance levels and mechanisms. First, the suitability of halophytes for saline indoor farming and the influence of salinity on their nutritional properties, e.g. plant secondary metabolites and minerals, were investigated. Changes in plant performance and nutritional properties were observed as a function of salinity. The response to salinity was found to be species-specific and related to the salt tolerance mechanism of the halophytes. At their optimal salinity levels, the halophytes showed improved carotenoid content. In addition, a negative correlation was found between the nitrate and chloride content of halophytes as a function of salinity. Since chloride and nitrate can be antinutrient compounds, depending on their content, monitoring is essential, especially in halophytes. Second, regional brine water was introduced as an alternative saline water resource in the saline indoor farming system. Brine water was shown to be feasible for saline indoor farming of halophytes, as there was no adverse effect on growth or nutritional properties, e.g. carotenoids. Carotenoids were shown to be less affected by salt composition than by salt concentration. In addition, the interaction between the salinity and the light regime in indoor farming and greenhouse cultivation has been studied. There it was shown that interacting light regime and salinity alters the content of carotenoids and chlorophylls. Further, glucosinolate and nitrate content were also shown to be influenced by light regime. Finally, the influence of UVB light on halophytes was investigated using supplemental narrow-band UVB LEDs. It was shown that UVB light affects the growth, phenotype and metabolite profile of halophytes and that the UVB response is species specific. Furthermore, a modulation of carotenoid content in S. europaea could be achieved to enhance health-promoting properties and thus improve nutritional quality. This was shown to be dose-dependent and the underlying mechanisms of carotenoid accumulation were also investigated. Here it was revealed that carotenoid accumulation is related to oxidative stress. In conclusion, this work demonstrated the potential of halophytes as alternative vegetables produced in a saline indoor farming system for future diets that could contribute to ensuring food security in the future. To improve the sustainability of the saline indoor farming system, LED lamps and regional brine water could be integrated into the system. Since the nutritional properties have been shown to be influenced by salt, light regime and UVB light, these abiotic stressors must be taken into account when considering halophytes as alternative vegetables for human nutrition. N2 - Angesichts zahlreicher Herausforderungen wie Wasserknappheit oder Verlust landwirtschaftlicher Nutzflächen aufgrund des Klimawandels, Bevölkerungswachstum und Verstädterung sind neue Systeme der Agrar- und Lebensmittelproduktion (Agrifood-Systeme) erforderlich, um die Ernährungssicherheit in der Zukunft zu gewährleisten. Eines dieser neuen Agrifood-Systeme ist das Indoor Farming. Es bietet den Vorteil einer nachhaltigen und resilienten Nahrungsmittelproduktion. In Kombination mit dem Anbau von Salzpflanzen kann wertvolles Süßwasser eingespart werden, da diese mit Salzwasser bewässert werden können. Durch eine pflanzliche Ernährung, die reich an sekundären Pflanzenstoffen mit gesundheitsfördernden Eigenschaften ist, kann eine gesunde Ernährung erreicht werden. Dadurch kann das Risiko für nicht übertragbare Krankheiten wie Diabetes oder Herz-Kreislauf-Erkrankungen gesenkt werden. In dieser Arbeit wurde untersucht, ob salztolerante Pflanzen (Halophyten) als alternatives Gemüse für die menschliche Ernährung geeignet sind und ob sie in einem salzhaltigen Indoor Farming System angebaut werden können. Zu diesem Zweck wurden fünf essbare Halophyten (Palmkohl, Gartenmelde, Löffelkraut, Quinoa und Europäische Queller) untersucht. Mit diesen Halophyten wurden verschiedene Pflanzenstudien durchgeführt, um den Einfluss von Salz, Licht und UVB-Strahlung auf für die menschliche Ernährung relevante Inhaltsstoffe zu untersuchen. In der ersten Studie wurde untersucht, welchen Einfluss das salzhaltige Indoor Farming System auf die Salzpflanzen und ihre Inhaltsstoffe hat. Es konnte festgestellt werden, dass sich die Inhaltsstoffe mit steigender Salzkonzentration im Wasser verändern. Weiterhin wurde untersucht, ob sich regionales Solewasser aus einer Thermalquelle als Salzwasserressource eignet. Es zeigte sich, dass das Solewasser keine negativen Auswirkungen auf das Wachstum oder die Inhaltsstoffe hat. Darüber hinaus wurde das Indoor-Farming System mit dem klassischen Gewächshausanbau von Salzpflanzen verglichen. Dabei zeigte sich ein Einfluss der unterschiedlichen Beleuchtung auf die Inhaltsstoffe. Schließlich wurde der Einsatz von UVB-LEDs als zusätzliche Beleuchtung getestet. Dabei wurde eine Verbesserung des Inhaltsstoffprofils erreicht. Zusammenfassend konnte in dieser Arbeit gezeigt werden, dass Salzpflanzen in Indoor-Farming kultiviert werden können und dass die ernährungsphysiologischen Eigenschaften durch Salz, Beleuchtung und UVB-Licht beeinflusst werden können. KW - halophytes KW - indoor farming KW - secondary plant metabolites KW - carotenoids KW - saline agriculture KW - future food KW - human diet KW - Carotinoide KW - Nahrung der Zukunft KW - Halophyten KW - menschliche Ernährung KW - Indoor farming KW - Saline Landwirtschaft KW - pflanzliche Sekundär Metabolite Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626974 ER - TY - THES A1 - Frank, Mario T1 - On synthesising Linux kernel module components from Coq formalisations T1 - Über die Synthese von Linux Kernel- Modul-Komponenten aus Coq-Formalisierungen N2 - This thesis presents an attempt to use source code synthesised from Coq formalisations of device drivers for existing (micro)kernel operating systems, with a particular focus on the Linux Kernel. In the first part, the technical background and related work are described. The focus is here on the possible approaches to synthesising certified software with Coq, namely the extraction to functional languages using the Coq extraction plugin and the extraction to Clight code using the CertiCoq plugin. It is noted that the implementation of CertiCoq is verified, whereas this is not the case for the Coq extraction plugin. Consequently, there is a correctness guarantee for the generated Clight code which does not hold for the code being generated by the Coq extraction plugin. Furthermore, the differences between user space and kernel space software are discussed in relation to Linux device drivers. It is elaborated that it is not possible to generate working Linux kernel module components using the Coq extraction plugin without significant modifications. In contrast, it is possible to produce working user space drivers both with the Coq extraction plugin and CertiCoq. The subsequent parts describe the main contributions of the thesis. In the second part, it is demonstrated how to extend the Coq extraction plugin to synthesise foreign function calls between the functional language OCaml and the imperative language C. This approach has the potential to improve the type-safety of user space drivers. Furthermore, it is shown that the code being synthesised by CertiCoq cannot be used in kernel space without modifications to the necessary runtime. Consequently, the necessary modifications to the runtimes of CertiCoq and VeriFFI are introduced, resulting in the runtimes becoming compatible components of a Linux kernel module. Furthermore, justifications for the transformations are provided and possible further extensions to both plugins and solutions to failing garbage collection calls in kernel space are discussed. The third part presents a proof of concept device driver for the Linux Kernel. To achieve this, the event handler of the original PC Speaker driver is partially formalised in Coq. Furthermore, some relevant formal properties of the formalised functionality are discussed. Subsequently, a kernel module is defined, utilising the modified variants of CertiCoq and VeriFFI to compile a working device driver. It is furthermore shown that it is possible to compile the synthesised code with CompCert, thereby extending the guarantee of correctness to the assembly layer. This is followed by a performance evaluation that compares a naive formalisation of the PC speaker functionality with the original PC Speaker driver pointing out the weaknesses in the formalisation and possible improvements. The part closes with a summary of the results, their implications and open questions being raised. The last part lists all used sources, separated into scientific literature, documentations or reference manuals and artifacts, i.e. source code. N2 - Die vorliegende Dissertation präsentiert einen Ansatz zur Nutzung von Quellcode, der aus der Coq-Formalisierung eines Gerätetreibers generiert wurde, für bestehende (Mikrokernel-)Betriebssysteme, im Speziellen den Linux-Kernel. Im ersten Teil erfolgt eine Beschreibung der relevanten technischen Aspekte sowie des aktuellen Forschungsstandes. Dabei liegt der Fokus auf der Synthese von funktionalem Code durch das Coq Extraction Plugin und von Clight Code durch das CertiCoq Plugin. Des Weiteren wird dargelegt, dass die Implementierung von CertiCoq im Gegensatz zu der des Coq Extraction Plugin verifiziert ist, wodurch sich eine Korrektheitsgarantie für den generierten Clight Code ableiten lässt. Darüber hinaus werden die Unterschiede zwischen User Space und Kernel Space Software in Bezug auf Linux-Treiber erörtert. Unter Berücksichtigung der technischen Einschränkungen wird dargelegt, dass der durch das Coq Extraction Plugin generierte Code ohne gravierende Anpassungen der Laufzeitumgebung nicht als Teil eines Kernel Space Treibers nutzbar ist. Die nachfolgenden Teile der Dissertation behandeln den Beitrag dieser Arbeit. Im zweiten Teil wird dargelegt, wie das Coq Extraction Plugin derart erweitert werden kann, dass typsichere Aufrufe zwischen den Sprachen OCaml und C generiert werden können. Dies verhindert spezifische Kompilationsfehler aufgrund von Typfehlern. Des Weiteren wird aufgezeigt, dass der durch CertiCoq generierte Code ebenfalls nicht im Kernel Space genutzt werden kann, da die Laufzeitumgebung technische Einschränkungen verletzt. Daher werden die notwendigen Anpassungen an der vergleichsweise kleinen Laufzeitumgebung sowie an VeriFFI vorgestellt und deren Korrektheit begründet. Anschließend werden mögliche Erweiterungen beider Plugins sowie die Möglichkeit der Behandlung von fehlschlagenden Aufrufen der Garbage Collection von CertiCoq im Kernel Space erörtert. Im dritten Teil wird als Machbarkeitsstudie im ersten Schritt der Event-Handler des Linux PC Speaker Treibers beschrieben und eine naive Coq-Formalisierung sowie wichtige formale Eigenschaften dargelegt. Dann wird beschrieben, wie ein Kernel-Modul und dessen Kompilation definiert werden muss, um einen lauffähigen Linux Kernel Treiber zu erhalten. Des Weiteren wird erläutert, wie die generierten Teile dieses Treibers mit dem verifizierten Kompiler CompCert übersetzt werden können, wodurch auch eine Korrektheit für den resultierenden Assembler-Code gilt. Im Anschluss erfolgt eine Evaluierung der Performance des aus der naiven Coq-Formalisierung generierten Codes im Vergleich zum originalen PC-Speaker Treiber. Dabei werden die Schwächen der Formalisierung sowie mögliche Verbesserungen diskutiert. Der Teil wird mit einer Zusammenfassung der Ergebnisse sowie der daraus resultierenden offenen Fragen abgeschlossen. Der letzte Teil gibt eine Übersicht über genutzte Quellen und Hilfsmittel, unterteilt in wissenschaftliche Literatur, Dokumentationen sowie Software-Artefakte. KW - Linux device drivers KW - Coq KW - CertiCoq KW - synthesis KW - compilation KW - Geräte-Treiber KW - Linux KW - Coq KW - CertiCoq KW - Synthese KW - Kompilation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-642558 ER - TY - THES A1 - Freimuth, Nina T1 - Elucidating the suppression of root hair formation by a member of a novel, short ENTH protein family in Arabidopsis thaliana T1 - Untersuchungen der Unterdrückung der Wurzelhaarbildung durch ein Mitglied einer neuen, kurzen ENTH-Proteinfamilie in Arabidopsis thaliana N2 - This work analyzed functional and regulatory aspects of the so far little characterized EPSIN N-terminal Homology (ENTH) domain-containing protein EPSINOID2 in Arabidopsis thaliana. ENTH domain proteins play accessory roles in the formation of clathrin-coated vesicles (CCVs) (Zouhar and Sauer 2014). Their ENTH domain interacts with membranes and their typically long, unstructured C-terminus contains binding motifs for adaptor protein complexes and clathrin itself. There are seven ENTH domain proteins in Arabidopsis. Four of them possess the canonical long C-terminus and participate in various, presumably CCV-related intracellular transport processes (Song et al. 2006; Lee et al. 2007; Sauer et al. 2013; Collins et al. 2020; Heinze et al. 2020; Mason et al. 2023). The remaining three ENTH domain proteins, however, have severely truncated C-termini and were termed EPSINOIDs (Zouhar and Sauer 2014; Freimuth 2015). Their functions are currently unclear. Preceding studies focusing on EPSINOID2 indicated a role in root hair formation: epsinoid2 T DNA mutants exhibited an increased root hair density and EPSINOID2-GFP was specifically located in non-hair cell files in the Arabidopsis root epidermis (Freimuth 2015, 2019). In this work, it was clearly shown that loss of EPSINOID2 leads to an increase in root hair density through analyses of three independent mutant alleles, including a newly generated CRISPR/Cas9 full deletion mutant. The ectopic root hairs emerging from non-hair positions in all epsinoid2 mutant alleles are most likely not a consequence of altered cell fate, because extensive genetic analyses placed EPSINOID2 downstream of the established epidermal patterning network. Thus, EPSINOID2 seems to act as a cell autonomous inhibitor of root hair formation. Attempts to confirm this hypothesis by ectopically overexpressing EPSINOID2 led to the discovery of post-transcriptional and -translational regulation through different mechanisms. One involves the little characterized miRNA844-3p. Interference with this pathway resulted in ectopic EPSINOID2 overexpression and decreased root hair density, confirming it as negative factor in root hair formation. A second mechanism likely involves proteasomal degradation. Treatment with proteasomal inhibitor MG132 led to EPSINOID2-GFP accumulation, and a KEN box degron motif was identified in the EPSINOID2 sequence associated with degradation through a ubiquitin/proteasome-dependent pathway. In line with a tight dose regulation, genetic analyses of all three mutant alleles indicate that EPSINOID2 is haploinsufficient. Lastly, it was revealed that, although EPSINOID2 promoter activity was found in all epidermal cells, protein accumulation was observed in N-cells only, hinting at yet another layer of regulation. N2 - In der vorliegenden Arbeit wurden funktionelle und regulatorische Aspekte des bisher wenig charakterisierten EPSIN N-Terminal Homology (ENTH)-Domäne-enthaltenden Proteins EPSINOID2 in Arabidopsis thaliana untersucht. ENTH-Domänen Proteine spielen akzessorische Rollen in der Bildung von Clathrin-umhüllten Vesikeln (CCVs) (Zouhar and Sauer 2014). Ihre ENTH-Domäne interagiert mit Membranen und ihr typischerweise langer, unstrukturierter C-Terminus enthält Bindungsmotive für Adapterproteinkomplexe und Clathrin selbst. In Arabidopsis gibt es sieben ENTH-Domänen Proteine. Vier von ihnen besitzen den langen C-Terminus und sind an verschiedenen, vermutlich CCV-bezogenen intrazellulären Transportprozessen beteiligt (Song et al. 2006; Lee et al. 2007; Sauer et al. 2013; Heinze et al. 2020; Collins et al. 2020; Mason et al. 2023). Die verbleibenden drei ENTH-Domänen Proteine haben jedoch stark verkürzte C-Termini und wurden als EPSINOIDe bezeichnet (Zouhar and Sauer 2014; Freimuth 2015). Ihre Funktion ist derzeit unklar. Vorangegangene Studien, die sich auf EPSINOID2 konzentrierten, deuteten auf eine Rolle bei der Wurzelhaarbildung hin: epsinoid2 T-DNA-Mutanten zeigten eine erhöhte Wurzelhaardichte und EPSINOID2-GFP war speziell in Nicht-Haarzellen in der Wurzelepidermis von Arabidopsis lokalisiert (Freimuth 2015, 2019). In dieser Arbeit wurde durch Analysen von drei unabhängigen mutierten Allelen, einschließlich einer neu generierten CRISPR/Cas9-Deletionsmutante, klar gezeigt, dass der Verlust von EPSINOID2 zu einer Erhöhung der Wurzelhaardichte führt. Die ektopischen Wurzelhaare, die in allen epsinoid2 Allelen aus Nicht-Haar-Positionen hervorgehen, sind höchstwahrscheinlich keine Folge eines veränderten Zellschicksals, da umfangreiche genetische Analysen EPSINOID2 dem etablierten Netzwerk zur Ausbildung der epidermalen Identität nachgeschaltet platziert haben. Somit scheint EPSINOID2 als zellautonomer Inhibitor der Wurzelhaarbildung zu wirken. Versuche, diese Hypothese durch ektopische Überexpression von EPSINOID2 zu bestätigen, führten zur Entdeckung einer post-transkriptionellen und translationalen Regulation durch verschiedene Mechanismen. Bei einem davon handelt es sich um die wenig charakterisierte miRNA844-3p. Eine Beeinträchtigung dieses Signalwegs führte zu einer ektopischen Überexpression von EPSINOID2 und einer verringerten Wurzelhaardichte, was bestätigt, dass es sich um einen negativen Faktor bei der Wurzelhaarbildung handelt. Ein zweiter Mechanismus beinhaltet wahrscheinlich den proteasomalen Abbau. Die Behandlung mit dem proteasomalen Inhibitor MG132 führte zur Akkumulation von EPSINOID2-GFP, und in der Sequenz von EPSINOID2 wurde ein KEN-Box Degron Motiv identifiziert, das mit dem Abbau über einen Ubiquitin/Proteasom-abhängigen Weg verbunden ist. Im Einklang mit einer strengen Dosisregulierung zeigten genetische Analysen aller drei mutierten Allele, dass EPSINOID2 haploinsuffizient ist. Abschließend wurde festgestellt, dass die Aktivität des EPSINOID2 Promotors zwar in allen Epidermiszellen zu finden war, eine Proteinakkumulation jedoch nur in Nicht-Haarzellen beobachtet wurde, was auf eine weitere Ebene der Regulation hindeutet. KW - ENTH domain proteins KW - ENTH-Domänen Proteine KW - root hair formation KW - Wurzelhaarbildung KW - miRNA regulation KW - miRNA Regulation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634994 ER - TY - THES A1 - Fułat, Karol T1 - Electron acceleration at quasi-perpendicular shocks in supernova remnants N2 - Astrophysical shocks, driven by explosive events such as supernovae, efficiently accelerate charged particles to relativistic energies. The majority of these shocks occur in collisionless plasmas where the energy transfer is dominated by particle-wave interactions.Strong nonrelativistic shocks found in supernova remnants are plausible sites of galactic cosmic ray production, and the observed emission indicates the presence of nonthermal electrons. To participate in the primary mechanism of energy gain - Diffusive Shock Acceleration - electrons must have a highly suprathermal energy, implying a need for very efficient pre-acceleration. This poorly understood aspect of the shock acceleration theory is known as the electron injection problem. Studying electron-scale phenomena requires the use of fully kinetic particle-in-cell (PIC) simulations, which describe collisionless plasma from first principles. Most published studies consider a homogenous upstream medium, but turbulence is ubiquitous in astrophysical environments and is typically driven at magnetohydrodynamic scales, cascading down to kinetic scales. For the first time, I investigate how preexisting turbulence affects electron acceleration at nonrelativistic shocks using the fully kinetic approach. To accomplish this, I developed a novel simulation framework that allows the study of shocks propagating in turbulent media. It involves simulating slabs of turbulent plasma separately, which are further continuously inserted into a shock simulation. This demands matching of the plasma slabs at the interface. A new procedure of matching electromagnetic fields and currents prevents numerical transients, and the plasma evolves self-consistently. The versatility of this framework has the potential to render simulations more consistent with turbulent systems in various astrophysical environments. In this Thesis, I present the results of 2D3V PIC simulations of high-Mach-number nonrelativistic shocks with preexisting compressive turbulence in an electron-ion plasma. The chosen amplitudes of the density fluctuations ($\lesssim15\%$) concord with \textit{in situ} measurements in the heliosphere and the local interstellar medium. I explored how these fluctuations impact the dynamics of upstream electrons, the driving of the plasma instabilities, electron heating and acceleration. My results indicate that while the presence of the turbulence enhances variations in the upstream magnetic field, their levels remain too low to influence the behavior of electrons at perpendicular shocks significantly. However, the situation is different at oblique shocks. The external magnetic field inclined at an angle between $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relative to the shock normal allows the escape of fast electrons toward the upstream region. An extended electron foreshock region is formed, where these particles drive various instabilities. Results of an oblique shock with $\theta_\text{Bn}=60^\circ$ propagating in preexisting compressive turbulence show that the foreshock becomes significantly shorter, and the shock-reflected electrons have higher temperatures. Furthermore, the energy spectrum of downstream electrons shows a well-pronounced nonthermal tail that follows a power law with an index up to -2.3. The methods and results presented in this Thesis could serve as a starting point for more realistic modeling of interactions between shocks and turbulence in plasmas from first principles. N2 - Astrophysikalische Schocks, die durch explosive Ereignisse wie Supernovae ausgelöst werden, beschleunigen geladene Teilchen effizient auf relativistische Energien. Die meisten dieser Schocks treten in kollisionsfreien Plasmen auf, in denen die Energieübertragung durch Teilchen-Wellen-Wechselwirkungen dominiert wird. Starke nichtrelativistische Schocks, die in Supernovaüberresten gefunden werden, sind plausible Orte der galaktischen kosmischen Strahlungsproduktion, und die beobachtete Emission deutet auf das Vorhandensein von nichtthermischen Elektronen hin. Um am primären Mechanismus der Energiegewinnung - der diffusiven Schockbeschleunigung - teilzunehmen, müssen die Elektronen eine hochgradig suprathermische Energie haben, was eine sehr effiziente Vorbeschleunigung voraussetzt. Dieser schlecht verstandene Aspekt der Stoßbeschleunigungstheorie ist als Elektroneninjektionsproblem bekannt. Die Untersuchung von Phänomenen auf der Elektronenskala erfordert den Einsatz von vollständig kinetischen Partikel-in-Zellen-Simulationen (PIC), die ein kollisionsfreies Plasma nach ersten Prinzipien beschreiben. Die meisten veröffentlichten Studien gehen von einem homogenen stromaufwärts gelegenen Medium aus, aber Turbulenzen sind in astrophysikalischen Umgebungen allgegenwärtig und werden typischerweise auf magnetohydrodynamischen Skalen angetrieben und kaskadieren hinunter zu kinetischen Skalen. Zum ersten Mal untersuche ich, wie sich eine bereits vorhandene Turbulenz auf die Elektronenbeschleunigung an nichtrelativistischen Schocks auswirkt, indem ich einen vollständig kinetischen Ansatz verwende. Zu diesem Zweck habe ich einen neuartigen Simulationsrahmen entwickelt, der die Untersuchung von Schocks ermöglicht, die sich in turbulenten Medien ausbreiten. Dabei werden die Platten des turbulenten Plasmas separat simuliert, die dann kontinuierlich in eine Schocksimulation eingefügt werden. Dies erfordert eine Anpassung der Plasmaplatten an der Grenzfläche. Ein neues Verfahren zur Anpassung elektromagnetischer Felder und Ströme verhindert numerische Transienten, und das Plasma entwickelt sich selbstkonsistent. Die Vielseitigkeit dieses Rahmens hat das Potenzial, Simulationen mit turbulenten Systemen in verschiedenen astrophysikalischen Umgebungen konsistenter zu machen. In dieser Arbeit präsentiere ich die Ergebnisse von 2D3V PIC-Simulationen von nichtrelativistischen Schocks mit hoher Mach-Zahl und bereits vorhandener kompressiver Turbulenz in einem Elektron-Ionen-Plasma. Die gewählten Amplituden der Dichtefluktuationen ($\lesssim15\%$) stimmen mit \textit{in situ} Messungen in der Heliosphäre und dem lokalen interstellaren Medium überein. Ich habe untersucht, wie sich diese Fluktuationen auf die Dynamik der stromaufwärts befindlichen Elektronen, den Antrieb der Plasmainstabilitäten, die Elektronenheizung und -beschleunigung auswirken. Meine Ergebnisse deuten darauf hin, dass das Vorhandensein von Turbulenzen zwar die Schwankungen des stromaufwärts gelegenen Magnetfelds verstärkt, dass aber die Schwankungen zu gering sind, um das Verhalten der Elektronen an senkrechten Schocks wesentlich zu beeinflussen. Bei schrägen Stößen ist die Situation jedoch anders. Das äußere Magnetfeld, das in einem Winkel zwischen $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relativ zur Schocknormalen ermöglicht das Entweichen schneller Elektronen in Richtung der stromaufwärts gelegenen Region. Es bildet sich eine ausgedehnte Elektronenvorstoßregion, in der diese Teilchen verschiedene Instabilitäten auslösen. Die Ergebnisse eines schrägen Schocks mit $\theta_\text{Bn}=60^\circ$, der sich in einer vorher existierenden kompressiven Turbulenz ausbreitet, zeigen, dass der Vorschock deutlich kürzer wird und die vom Schock reflektierten Elektronen höhere Temperaturen aufweisen. Darüber hinaus zeigt das Energiespektrum der stromabwärts gerichteten Elektronen einen ausgeprägten nichtthermischen Schweif, der einem Potenzgesetz mit einem Index von bis zu -2,3 folgt. Die in dieser Arbeit vorgestellten Methoden und Ergebnisse könnten als Ausgangspunkt für eine realistischere Modellierung der Wechselwirkungen zwischen Schocks und Turbulenz in Plasmen nach ersten Prinzipien dienen. T2 - Elektronenbeschleunigung bei quasi senkrechten Schocks in Supernovaüberresten KW - astrophysical shocks KW - plasma physics KW - particle acceleration KW - astrophysikalische Schocks KW - Plasmaphysik KW - Teilchenbeschleunigung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651365 ER - TY - THES A1 - Ghahremani, Sona T1 - Incremental self-adaptation of dynamic architectures attaining optimality and scalability T1 - Inkrementelle Selbstanpassung dynamischer Architekturen zum Erreichen von Optimalität und Skalierbarkeit N2 - The landscape of software self-adaptation is shaped in accordance with the need to cost-effectively achieve and maintain (software) quality at runtime and in the face of dynamic operation conditions. Optimization-based solutions perform an exhaustive search in the adaptation space, thus they may provide quality guarantees. However, these solutions render the attainment of optimal adaptation plans time-intensive, thereby hindering scalability. Conversely, deterministic rule-based solutions yield only sub-optimal adaptation decisions, as they are typically bound by design-time assumptions, yet they offer efficient processing and implementation, readability, expressivity of individual rules supporting early verification. Addressing the quality-cost trade-of requires solutions that simultaneously exhibit the scalability and cost-efficiency of rulebased policy formalism and the optimality of optimization-based policy formalism as explicit artifacts for adaptation. Utility functions, i.e., high-level specifications that capture system objectives, support the explicit treatment of quality-cost trade-off. Nevertheless, non-linearities, complex dynamic architectures, black-box models, and runtime uncertainty that makes the prior knowledge obsolete are a few of the sources of uncertainty and subjectivity that render the elicitation of utility non-trivial. This thesis proposes a twofold solution for incremental self-adaptation of dynamic architectures. First, we introduce Venus, a solution that combines in its design a ruleand an optimization-based formalism enabling optimal and scalable adaptation of dynamic architectures. Venus incorporates rule-like constructs and relies on utility theory for decision-making. Using a graph-based representation of the architecture, Venus captures rules as graph patterns that represent architectural fragments, thus enabling runtime extensibility and, in turn, support for dynamic architectures; the architecture is evaluated by assigning utility values to fragments; pattern-based definition of rules and utility enables incremental computation of changes on the utility that result from rule executions, rather than evaluating the complete architecture, which supports scalability. Second, we introduce HypeZon, a hybrid solution for runtime coordination of multiple off-the-shelf adaptation policies, which typically offer only partial satisfaction of the quality and cost requirements. Realized based on meta-self-aware architectures, HypeZon complements Venus by re-using existing policies at runtime for balancing the quality-cost trade-off. The twofold solution of this thesis is integrated in an adaptation engine that leverages state- and event-based principles for incremental execution, therefore, is scalable for large and dynamic software architectures with growing size and complexity. The utility elicitation challenge is resolved by defining a methodology to train utility-change prediction models. The thesis addresses the quality-cost trade-off in adaptation of dynamic software architectures via design-time combination (Venus) and runtime coordination (HypeZon) of rule- and optimization-based policy formalisms, while offering supporting mechanisms for optimal, cost-effective, scalable, and robust adaptation. The solutions are evaluated according to a methodology that is obtained based on our systematic literature review of evaluation in self-healing systems; the applicability and effectiveness of the contributions are demonstrated to go beyond the state-of-the-art in coverage of a wide spectrum of the problem space for software self-adaptation. N2 - Die Landschaft der Software-Selbstanpassungen ist von der Notwendigkeit geprägt, zur Laufzeit und angesichts dynamischer Betriebsbedingungen kosteneffizient (Software-)Qualität zu erreichen und aufrechtzuerhalten. Optimierungsbasierte Lösungen führen eine umfassende Suche im Anpassungsraum durch und können daher Qualitätsgarantien bieten. Allerdings machen diese Lösungen das Erreichen optimaler Anpassungspläne zeitintensiv und behindern dadurch die Skalierbarkeit. Umgekehrt führen deterministische regelbasierte Lösungen nur zu suboptimalen Anpassungsentscheidungen, da sie typischerweise an Annahmen zur Entwurfszeit gebunden sind. Sie bieten jedoch eine effiziente Verarbeitung und Implementierung, Lesbarkeit und Ausdruckskraft einzelner Regeln und unterstützen so eine frühzeitige Überprüfung der Korrektheit. Um den Kompromiss zwischen Qualität und Kosten anzugehen, sind Lösungen erforderlich, die gleichzeitig die Skalierbarkeit und Kosteneffizienz des regelbasierten Strategieformalismus und die Optimalität des optimierungsbasierten Strategieformalismus als explizite Artefakte für die Anpassung berücksichtigen. Utility-Funktionen, d.h. Spezifikationen auf abstrakter Ebene, die Systemziele erfassen, unterstützen die explizite Behandlung des Qualität-Kosten-Kompromisses. Dennoch sind Nichtlinearitäten, komplexe dynamische Architekturen, Black-Box-Modelle und Laufzeitunsicherheit, die das Vorwissen überflüssig macht, einige der Quellen von Unsicherheit und Subjektivität, die die Utility-Erhöhung nicht trivial machen. Diese Arbeit schlägt eine zweifältige Lösung für die inkrementelle Selbstanpassung dynamischer Architekturen vor. Zunächst stellen wir Venus vor, eine Lösung, die in ihrem Design einen regel- und optimierungsbasierten Formalismus kombiniert und so eine optimale und skalierbare Anpassung dynamischer Architekturen ermöglicht. Venus enthält regelartige Konstrukte und nutzt die Utility-Theorie für die Entscheidungsfindung. Mithilfe einer graphbasierten Darstellung der Architektur erfasst Venus Regeln als Graphmuster, die Architekturfragmente darstellen, und ermöglicht so die Erweiterbarkeit zur Laufzeit und damit die Unterstützung dynamischer Architekturen. Die Architektur wird bewertet, indem den Fragmenten Utility-Werte zugewiesen werden. Die graphbasierte Definition von Regeln und Utility ermöglicht die inkrementelle Berechnung von Änderungen der Utility, die sich aus Regelausführungen ergeben, anstatt die gesamte Architektur zu bewerten, was die Skalierbarkeit verbessert. Des weiteren stellen wir HypeZon vor, eine Hybridlösung zur Laufzeitkoordination mehrerer Standardanpassungsstrategien, die typischerweise nur eine partielle Erfüllung der Qualitäts- und Kostenanforderungen bieten. HypeZon wurde auf der Grundlage der meta-selbstwahrnehmenden Architekturen umgesetzt und ergänzt Venus durch die Wiederverwendung bestehender Strategien zur Laufzeit, um den Kompromiss zwischen Qualität und Kosten auszubalancieren. Die zweifältige Lösung aus dieser Dissertation ist in eine Anpassungs-Engine integriert, die zustands- und ereignisbasierte Prinzipien für die inkrementelle Ausführung nutzt und daher für große und dynamische Softwarearchitekturen mit wachsender Größe und Komplexität skalierbar ist. Die Herausforderung der Erhöhung der Utility wird durch die Definition einer Methodik gelöst, die zum Trainieren von Modellen zur Vorhersage von Utility-Änderungen verwendet wird. Die Dissertation befasst sich mit dem Qualität-Kosten-Kompromiss bei der Anpassung dynamischer Softwarearchitekturen durch Entwurfszeitkombination (Venus) und Laufzeitkoordination (HypeZon) von regel- und optimierungsbasierten Strategieformalismen und bietet gleichzeitig unterstützende Mechanismen für optimale, kosteneffektive, skalierbare und robuste Anpassung. Die Lösungen werden nach einer Methodik bewertet, die auf unserer systematischen Literaturrecherche zur Bewertung von selbstheilenden Systemen basiert. Die Anwendbarkeit und Wirksamkeit der Lösungen geht nachweislich über den Stand der Technik hinaus und deckt ein breites Spektrum des Problembereichs der Software-Selbstanpassung ab. KW - self-healing KW - self-adaptive systems KW - architecture-based software adaptation KW - utility functions KW - prediction models KW - meta self-adaptation KW - model-driven engineering KW - scalable KW - architekturbasierte Softwareanpassung KW - Meta-Selbstanpassung KW - modellgesteuerte Entwicklung KW - Vorhersagemodelle KW - skalierbar KW - selbstanpassende Systeme KW - selbstheilende Systeme KW - Utility-Funktionen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624232 ER - TY - THES A1 - Gostkowska-Lekner, Natalia Katarzyna T1 - Organic-inorganic hybrids based on P3HT and mesoporous silicon for thermoelectric applications T1 - Organisch-anorganische Hybride basierend auf P3HT und porösem Silizium für thermoelektrische Anwendungen N2 - This thesis presents a comprehensive study on synthesis, structure and thermoelectric transport properties of organic-inorganic hybrids based on P3HT and porous silicon. The effect of embedding polymer in silicon pores on the electrical and thermal transport is studied. Morphological studies confirm successful polymer infiltration and diffusion doping with roughly 50% of the pore space occupied by conjugated polymer. Synchrotron diffraction experiments reveal no specific ordering of the polymer inside the pores. P3HT-pSi hybrids show improved electrical transport by five orders of magnitude compared to porous silicon and power factor values comparable or exceeding other P3HT-inorganic hybrids. The analysis suggests different transport mechanisms in both materials. In pSi, the transport mechanism relates to a Meyer-Neldel compansation rule. The analysis of hybrids' data using the power law in Kang-Snyder model suggests that a doped polymer mainly provides charge carriers to the pSi matrix, similar to the behavior of a doped semiconductor. Heavily suppressed thermal transport in porous silicon is treated with a modified Landauer/Lundstrom model and effective medium theories, which reveal that pSi agrees well with the Kirkpatrick model with a 68% percolation threshold. Thermal conductivities of hybrids show an increase compared to the empty pSi but the overall thermoelectric figure of merit ZT of P3HT-pSi hybrid exceeds both pSi and P3HT as well as bulk Si. N2 - Diese Arbeit präsentiert eine umfassende Studie über Synthese, Struktur und thermoelektrische Transporteigenschaften von organisch-anorganischen Hybriden basierend auf P3HT und porösem Silizium. Es wird die Auswirkung der Einbettung von Polymerin Siliziumporen auf den elektrischen und thermischen Transport untersucht. Morphologische Studien bestätigen eine erfolgreiche Polymerinfiltration und Diffusionsdotierung, wobei etwa 50% des Porenraums mit konjugiertem Polymer gefüllt sind. Synchrotronexperimente zeigen keine spezifische Ordnung des Polymers innerhalb der Poren. P3HT-pSi-Hybride zeigen einen um fünf Größenordnungen verbesserten elektrischen Transport im Vergleich zu porösem Silizium und sogenannte Powerfaktoren, die mit anderen P3HT-anorganischen Hybriden vergleichbar sind oder diese übertreffen. Die Analyse lässt auf unterschiedliche Transportmechanismen in beiden Materialien schließen. In pSi bezieht sich der Transportmechanismus auf eine Meyer-Neldel-{Kompensa\-tionsregel}. Die Analyse der Hybriddaten unter Verwendung des Potenzgesetzes im Kang-Snyder-Modell legt nahe, dass ein dotiertes Polymer hauptsächlich Ladungsträger für die pSi-Matrix bereitstellt, ähnlich dem Verhalten eines {dotier\-ten} Halbleiters. Der stark unterdrückte Wärmetransport in porösem Silizium wird mit einem modifizierten Landauer/Lundstrom-Modell und Effektivmediumtheorien behandelt, die zeigen, dass pSi mit einem Perkolationsschwellenwert von 68% gut mit dem Kirkpatrick-Modell übereinstimmt. Die {Wärmeleitfähigkei\-ten} von Hybriden zeigen einen Anstieg im Vergleich zum leeren pSi, aber der gesamte thermoelektrische Gütefaktor ZT des P3HT-pSi-Hybrids übertrifft sowohl pSi und P3HT als auch den von Bulk-Si. KW - physics KW - energy KW - thermoelectricity KW - organic-inorganic hybrids KW - Energie KW - organisch-anorganische Hybride KW - Physik KW - Thermoelektrizität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620475 ER - TY - THES A1 - Hagemann, Justus T1 - On the molecular evolution of sengis (Macroscelidea) N2 - This thesis focuses on the molecular evolution of Macroscelidea, commonly referred to as sengis. Sengis are a mammalian order belonging to the Afrotherians, one of the four major clades of placental mammals. Sengis currently consist of twenty extant species, all of which are endemic to the African continent. They can be separated in two families, the soft-furred sengis (Macroscelididae) and the giant sengis (Rhynchocyonidae). While giant sengis can be exclusively found in forest habitats, the different soft-furred sengi species dwell in a broad range of habitats, from tropical rain-forests to rocky deserts. Our knowledge on the evolutionary history of sengis is largely incomplete. The high level of superficial morphological resemblance among different sengi species (especially the soft-furred sengis) has for example led to misinterpretations of phylogenetic relationships, based on morphological characters. With the rise of DNA based taxonomic inferences, multiple new genera were defined and new species described. Yet, no full taxon molecular phylogeny exists, hampering the answering of basic taxonomic questions. This lack of knowledge can be to some extent attributed to the limited availability of fresh-tissue samples for DNA extraction. The broad African distribution, partly in political unstable regions and low population densities complicate contemporary sampling approaches. Furthermore, the DNA information available usually covers only short stretches of the mitochondrial genome and thus a single genetic locus with limited informational content. Developments in DNA extraction and library protocols nowadays offer the opportunity to access DNA from museum specimens, collected over the past centuries and stored in natural history museums throughout the world. Thus, the difficulties in fresh-sample acquisition for molecular biological studies can be overcome by the application of museomics, the research field which emerged from those laboratory developments. This thesis uses fresh-tissue samples as well as a vast collection museum specimens to investigate multiple aspects about the macroscelidean evolutionary history. Chapter 4 of this thesis focuses on the phylogenetic relationships of all currently known sengi species. By accessing DNA information from museum specimens in combination of fresh tissue samples and publicly available genetic resources it produces the first full taxon molecular phylogeny of sengis. It confirms the monophyly of the genus Elephantulus and discovers multiple deeply divergent lineages within different species, highlighting the need for species specific approaches. The study furthermore focuses on the evolutionary time frame of sengis by evaluating the impact of commonly varied parameters on tree dating. The results of the study show, that the mitochondrial information used in previous studies to temporal calibrate the Macroscelidean phylogeny led to an overestimation of node ages within sengis. Especially soft-furred sengis are thus much younger than previously assumed. The refined knowledge of nodes ages within sengis offer the opportunity to link e.g. speciation events to environmental changes. Chapter 5 focuses on the genus Petrodromus with its single representative Petrodromus tetradactylus. It again exploits the opportunities of museomics and gathers a comprehensive, multi-locus genetic dataset of P. tetradactylus individuals, distributed across most the known range of this species. It reveals multiple deeply divergent lineages within Petrodromus, whereby some could possibly be associated to previously described sub-species, at least one was formerly unknown. It underscores the necessity for a revision of the genus Petrodromus through the integration of both molecular and morphological evidence. The study, furthermore identifies changing forest distributions through climatic oscillations as main factor shaping the genetic structure of Petrodromus. Chapter 6 uses fresh tissue samples to extent the genomic resources of sengis by thirteen new nuclear genomes, of which two were de-novo assembled. An extensive dataset of more than 8000 protein coding one-to-one orthologs allows to further refine and confirm the temporal time frame of sengi evolution found in Chapter 4. This study moreover investigates the role of gene-flow and incomplete lineage sorting (ILS) in sengi evolution. In addition it identifies clade specific genes of possible outstanding evolutionary importance and links them to potential phenotypic traits affected. A closer investigation of olfactory receptor proteins reveals clade specific differences. A comparison of the demographic past of sengis to other small African mammals does not reveal a sengi specific pattern. N2 - Diese Dissertation untersucht die molekulare Evolution von Macroscelidea, auch als Sengis oder Rüsselspringer bezeichnet. Sengis sind eine Ordnung der Afrotheria, einer der vier Hauptkladen der plazentalen Säugetiere. Aktuell gibt es zwanzig beschriebene Sengiarten, die alle ausschließlich auf dem afrikanischen Kontinent vorkommen. Sengis können in zwei Familien unterteilt werden: die Elephantenspitzmäuse zusammen mit den Rüsselratten bilden die Macroscelididae und die Rüsselhündchen die Rhynchocyonidae. Während Rhynchocyonidae ausschließlich in Waldhabitaten zu finden sind, bewohnen verschiedene Macroscelididaearten ein breites Spektrum von Lebensräumen, von tropischen Regenwäldern bis zu felsigen Wüsten. Unser Wissen über die evolutionäre Geschichte der Sengis ist äußerst unvollständig. Der hohe Grad an morphologischer Ähnlichkeit zwischen verschiedenen Sengiarten (insbesondere innerhalb der Macroscelididae) hat beispielsweise zu Fehlinterpretationen phylogenetischer Beziehungen auf der Grundlage morphologischer Merkmale geführt. Mit dem Aufkommen DNA-basierter taxonomischer Forschung wurden mehrere neue Gattungen definiert und neue Arten beschrieben. Dennoch existiert derzeit keine vollständige molekulare Phylogenie, was die Beantwortung grundlegender taxonomischer Fragen und tiefergehende evolutionsbiologische Analysen erschwert. Dieser Mangel an Wissen kann zum Teil auf die begrenzte Verfügbarkeit von frischen Gewebeproben für die DNA-Extraktion zurückgeführt werden. Die weite Verbreitung in Afrika, teilweise in politisch instabilen Regionen und geringe Populationssdichten von Sengis erschweren das Sammeln von frischem Probenmaterial, was für die Extraktion von DNA genutzt werden kann. Darüber hinaus deckt die bis jetzt verfügbare DNA-Information über Sengis häufig nur kurze Abschnitte des mitochondrialen Genoms ab und damit einen einzelnen genetischen Lokus mit begrenztem Informationsgehalt. Fortentwicklungen von DNA-Extraktions-Protokollen und Library-Protokollen bieten heutzutage die Möglichkeit, auf DNA von Museumsexemplaren zuzugreifen, die über die letzten Jahrhunderte gesammelt und in Naturkundemuseen weltweit aufbewahrt werden. Somit können die Schwierigkeiten bei der Beschaffung von Frischproben für molekularbiologische Studien überwunden werden. Diese Dissertation verwendet sowohl Frischgewebeproben als auch eine umfangreiche Sammlung von Museumssproben, um verschiedene Aspekte der evolutionären Geschichte der Sengis molekularbiologisch zu untersuchen. Kapitel 4 dieser Dissertation konzentriert sich auf die phylogenetischen Beziehungen aller derzeit bekannten Sengiarten. Durch das Generieren von DNA-Information aus Museumsexemplaren in Kombination mit Frischgewebeproben und öffentlich verfügbaren genetischen Ressourcen wird die erste vollständige molekulare Phylogenie aller Rüsselspringer erzeugt. Die Studie bestätigt die Monophylie der Gattung Elephantulus und entdeckt mehrere tief divergente Linien innerhalb verschiedener Arten, was die Notwendigkeit speziesbezogener Ansätze verdeutlicht. Die Studie konzentriert sich außerdem auf den Zeitrahmen der Sengi-Evolution, indem sie die Auswirkungen häufig variierter Parameter auf die Datierung von Stammbäumen untersucht. Die Ergebnisse zeigen, dass die mitochondriale Information, die in früheren Studien zur zeitlichen Kalibrierung der Macroscelidean-Phylogenie verwendet wurde, zu einer Überschätzung des Alters von Arttrennungen innerhalb der Rüsselspringer geführt hat. Insbesondere die Macroscelididae sind daher viel jünger als zuvor angenommen. Das präzisere Wissen über das evolutionäre Alter von Rüsselspringern bietet die Möglichkeit, beispielsweise Artaufspaltungen mit Umweltveränderungen zu verknüpfen. Kapitel 5 konzentriert sich auf die Gattung Petrodromus mit ihrem einzigen Vertreter Petrodromus tetradactylus. Es nutzt erneut die Museomics und sammelt einen umfassenden, genetischen Datensatz von P. tetradactylus-Individuen, die über den größten Teil des bekannten Verbreitungsgebiets dieser Art verteilt sind. Es zeigt mehrere tief divergente Linien innerhalb von Petrodromus auf, wobei einige mit zuvor beschriebenen Unterarten in Verbindung gebracht werden könnten, mindestens eine aber zuvor unbekannt war. Die Ergebnisse verdeutlichen die Notwendigkeit einer taxonomischen Überarbeitung der Gattung Petrodromus durch das Zusammenführen sowohl molekularer als auch morphologischer Indizien. Die Studie identifizier außerdem sich ändernde Waldverteilungen durch klimatische Schwankungen als Hauptfaktor, der die genetische Struktur von Petrodromus formt. Kapitel 6 verwendet Frischgewebeproben, um die genomischen Ressourcen der Rüsselspringer durch dreizehn neue nukleare Genome zu erweitern, von denen zwei de-novo assembliert wurden. Ein umfangreicher Datensatz von mehr als 8000 protein-kodierenden 1:1-Orthologen ermöglicht es, den zeitlichen Rahmen der Rüsselspringerevolution, der in Kapitel 4 gefunden wurde, weiter zu verfeinern und zu bestätigen. Diese Studie untersucht außerdem die Rolle von Genfluss auf die Evolution der Rüsselspringer. Darüber hinaus identifiziert sie für bestimmte Kladen spezifische Gene von möglicherweise herausragender evolutionärer Bedeutung und verknüpft diese mit potenziell betroffenen phänotypischen Merkmalen. Eine genauere Untersuchung von Geruchsrezeptorproteinen zeigt kladespezifische Unterschiede auf. KW - sengis KW - evolution KW - molecular dating KW - biogeography KW - comparative genomics KW - Biogeographie KW - vergleichende Genomik KW - Evolution KW - molekulare Datierung KW - Sengis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641975 ER - TY - THES A1 - Halbrügge, Lena T1 - Von der Curricularen Innovation zur Wissenschaftskommunikation T1 - From curriculum innovation to science communication BT - Explorative Entwicklung und Evaluation einer Wissenschaftskommunikationsstrategie für naturwissenschaftliche Forschungsverbünde BT - exploratory development and evaluation of a strategy for science communication in scientific research associations N2 - Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert. Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden. Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt. Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können. Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert. N2 - As part of an exploratory research approach a concept for science communication was developed and evaluated for a research training group that focuses on photochemical processes. The increasing demand for science communication by politics justifies this approach. Furthermore, for future scientists the communication of their own research is demanded to be an integrative part of good scientific practice. To prepare young researchers for the upcoming task at an early stage, science communication is also required in research associations. Hence, a preliminary study was conducted to first investigate the requirements of a science communication concept by evaluating doctoral students’ attitudes towards science communication and their communication skills using a questionnaire comprising closed questions. Moreover, science communication types where derived from the data. Based on these results multiple science communication measures that differ in the conception, the recipients, the form of the communication and their content were developed. With reference to the content of the graduate program an experiment and the accompanying material for teaching was designed. It can be used in schools and extracurricular learning settings. Subsequently, the teaching unit was implemented into one measure. Depending on the requirements of each science communication measure for the doctoral students the measures were complemented by preparatory workshops. Through a semi-open pre-post questionnaire, the impact of the science communication measures and the associated workshops on the doctoral students’ self-efficacy was evaluated. Also, conclusions about how the perception of their own communication skills changed as a result of the intervention could be drawn. The results suggest that the individual science communication measures affect the different types in various ways. It is likely that depending on one’s assessment of communication skills, there are different funding needs that can be addressed through dedicated measures. In this way, a generally applicable strategy which promotes individual science communication skills in a scientific research association will be proposed. KW - Wissenschaftskommunikation KW - Curriculare Innovation KW - Chemie KW - Elektrolumineszenz KW - Lerneinheit KW - Elektrolumineszenz-Folie KW - Wissenschaftskommunikationstypen KW - chemistry KW - curriculum innovation KW - electroluminescence KW - electroluminescent foil KW - learning unit KW - science communication KW - science communication types Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620357 ER - TY - THES A1 - Halfpap, Stefan T1 - Integer linear programming-based heuristics for partially replicated database clusters and selecting indexes T1 - Auf ganzzahliger linearer Optimierung basierende Heuristiken für partiell-replizierte Datenbankcluster und das Auswählen von Indizes N2 - Column-oriented database systems can efficiently process transactional and analytical queries on a single node. However, increasing or peak analytical loads can quickly saturate single-node database systems. Then, a common scale-out option is using a database cluster with a single primary node for transaction processing and read-only replicas. Using (the naive) full replication, queries are distributed among nodes independently of the accessed data. This approach is relatively expensive because all nodes must store all data and apply all data modifications caused by inserts, deletes, or updates. In contrast to full replication, partial replication is a more cost-efficient implementation: Instead of duplicating all data to all replica nodes, partial replicas store only a subset of the data while being able to process a large workload share. Besides lower storage costs, partial replicas enable (i) better scaling because replicas must potentially synchronize only subsets of the data modifications and thus have more capacity for read-only queries and (ii) better elasticity because replicas have to load less data and can be set up faster. However, splitting the overall workload evenly among the replica nodes while optimizing the data allocation is a challenging assignment problem. The calculation of optimized data allocations in a partially replicated database cluster can be modeled using integer linear programming (ILP). ILP is a common approach for solving assignment problems, also in the context of database systems. Because ILP is not scalable, existing approaches (also for calculating partial allocations) often fall back to simple (e.g., greedy) heuristics for larger problem instances. Simple heuristics may work well but can lose optimization potential. In this thesis, we present optimal and ILP-based heuristic programming models for calculating data fragment allocations for partially replicated database clusters. Using ILP, we are flexible to extend our models to (i) consider data modifications and reallocations and (ii) increase the robustness of allocations to compensate for node failures and workload uncertainty. We evaluate our approaches for TPC-H, TPC-DS, and a real-world accounting workload and compare the results to state-of-the-art allocation approaches. Our evaluations show significant improvements for varied allocation’s properties: Compared to existing approaches, we can, for example, (i) almost halve the amount of allocated data, (ii) improve the throughput in case of node failures and workload uncertainty while using even less memory, (iii) halve the costs of data modifications, and (iv) reallocate less than 90% of data when adding a node to the cluster. Importantly, we can calculate the corresponding ILP-based heuristic solutions within a few seconds. Finally, we demonstrate that the ideas of our ILP-based heuristics are also applicable to the index selection problem. N2 - Spaltenorientierte Datenbanksysteme können transaktionale und analytische Abfragen effizient auf einem einzigen Rechenknoten verarbeiten. Steigende Lasten oder Lastspitzen können Datenbanksysteme mit nur einem Rechenknoten jedoch schnell überlasten. Dann besteht eine gängige Skalierungsmöglichkeit darin, einen Datenbankcluster mit einem einzigen Rechenknoten für die Transaktionsverarbeitung und Replikatknoten für lesende Datenbankanfragen zu verwenden. Bei der (naiven) vollständigen Replikation werden Anfragen unabhängig von den Daten, auf die zugegriffen wird, auf die Knoten verteilt. Dieser Ansatz ist relativ teuer, da alle Knoten alle Daten speichern und alle Datenänderungen anwenden müssen, die durch das Einfügen, Löschen oder Aktualisieren von Datenbankeinträgen verursacht werden. Im Gegensatz zur vollständigen Replikation ist die partielle Replikation eine kostengünstige Alternative: Anstatt alle Daten auf alle Replikationsknoten zu duplizieren, speichern partielle Replikate nur eine Teilmenge der Daten und können gleichzeitig einen großen Anteil der Anfragelast verarbeiten. Neben niedrigeren Speicherkosten ermöglichen partielle Replikate (i) eine bessere Skalierung, da Replikate potenziell nur Teilmengen der Datenänderungen synchronisieren müssen und somit mehr Kapazität für lesende Anfragen haben, und (ii) eine bessere Elastizität, da Replikate weniger Daten laden müssen und daher schneller eingesetzt werden können. Die gleichmäßige Lastbalancierung auf die Replikatknoten bei gleichzeitiger Optimierung der Datenzuweisung ist jedoch ein schwieriges Zuordnungsproblem. Die Berechnung einer optimierten Datenverteilung in einem Datenbankcluster mit partiellen Replikaten kann mithilfe der ganzzahligen linearen Optimierung (engl. integer linear programming, ILP) durchgeführt werden. ILP ist ein gängiger Ansatz zur Lösung von Zuordnungsproblemen, auch im Kontext von Datenbanksystemen. Da ILP nicht skalierbar ist, greifen bestehende Ansätze (auch zur Berechnung von partiellen Replikationen) für größere Probleminstanzen oft auf einfache Heuristiken (z.B. Greedy-Algorithmen) zurück. Einfache Heuristiken können gut funktionieren, aber auch Optimierungspotenzial einbüßen. In dieser Arbeit stellen wir optimale und ILP-basierte heuristische Ansätze zur Berechnung von Datenzuweisungen für partiell-replizierte Datenbankcluster vor. Mithilfe von ILP können wir unsere Ansätze flexibel erweitern, um (i) Datenänderungen und -umverteilungen zu berücksichtigen und (ii) die Robustheit von Zuweisungen zu erhöhen, um Knotenausfälle und Unsicherheiten bezüglich der Anfragelast zu kompensieren. Wir evaluieren unsere Ansätze für TPC-H, TPC-DS und eine reale Buchhaltungsanfragelast und vergleichen die Ergebnisse mit herkömmlichen Verteilungsansätzen. Unsere Auswertungen zeigen signifikante Verbesserungen für verschiedene Eigenschaften der berechneten Datenzuordnungen: Im Vergleich zu bestehenden Ansätzen können wir beispielsweise (i) die Menge der gespeicherten Daten in Cluster fast halbieren, (ii) den Anfragedurchsatz bei Knotenausfällen und unsicherer Anfragelast verbessern und benötigen dafür auch noch weniger Speicher, (iii) die Kosten von Datenänderungen halbieren, und (iv) weniger als 90 % der Daten umverteilen, wenn ein Rechenknoten zum Cluster hinzugefügt wird. Wichtig ist, dass wir die entsprechenden ILP-basierten heuristischen Lösungen innerhalb weniger Sekunden berechnen können. Schließlich demonstrieren wir, dass die Ideen von unseren ILP-basierten Heuristiken auch auf das Indexauswahlproblem anwendbar sind. KW - database systems KW - integer linear programming KW - partial replication KW - index selection KW - load balancing KW - Datenbanksysteme KW - Indexauswahl KW - ganzzahlige lineare Optimierung KW - Lastverteilung KW - partielle Replikation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-633615 ER - TY - THES A1 - Hameed, Mazhar T1 - Structural preparation of raw data files T1 - Strukturelle Aufbereitung von unverarbeiteten Dateien N2 - Data preparation stands as a cornerstone in the landscape of data science workflows, commanding a significant portion—approximately 80%—of a data scientist's time. The extensive time consumption in data preparation is primarily attributed to the intricate challenge faced by data scientists in devising tailored solutions for downstream tasks. This complexity is further magnified by the inadequate availability of metadata, the often ad-hoc nature of preparation tasks, and the necessity for data scientists to grapple with a diverse range of sophisticated tools, each presenting its unique intricacies and demands for proficiency. Previous research in data management has traditionally concentrated on preparing the content within columns and rows of a relational table, addressing tasks, such as string disambiguation, date standardization, or numeric value normalization, commonly referred to as data cleaning. This focus assumes a perfectly structured input table. Consequently, the mentioned data cleaning tasks can be effectively applied only after the table has been successfully loaded into the respective data cleaning environment, typically in the later stages of the data processing pipeline. While current data cleaning tools are well-suited for relational tables, extensive data repositories frequently contain data stored in plain text files, such as CSV files, due to their adaptable standard. Consequently, these files often exhibit tables with a flexible layout of rows and columns, lacking a relational structure. This flexibility often results in data being distributed across cells in arbitrary positions, typically guided by user-specified formatting guidelines. Effectively extracting and leveraging these tables in subsequent processing stages necessitates accurate parsing. This thesis emphasizes what we define as the “structure” of a data file—the fundamental characters within a file essential for parsing and comprehending its content. Concentrating on the initial stages of the data preprocessing pipeline, this thesis addresses two crucial aspects: comprehending the structural layout of a table within a raw data file and automatically identifying and rectifying any structural issues that might hinder its parsing. Although these issues may not directly impact the table's content, they pose significant challenges in parsing the table within the file. Our initial contribution comprises an extensive survey of commercially available data preparation tools. This survey thoroughly examines their distinct features, the lacking features, and the necessity for preliminary data processing despite these tools. The primary goal is to elucidate the current state-of-the-art in data preparation systems while identifying areas for enhancement. Furthermore, the survey explores the encountered challenges in data preprocessing, emphasizing opportunities for future research and improvement. Next, we propose a novel data preparation pipeline designed for detecting and correcting structural errors. The aim of this pipeline is to assist users at the initial preprocessing stage by ensuring the correct loading of their data into their preferred systems. Our approach begins by introducing SURAGH, an unsupervised system that utilizes a pattern-based method to identify dominant patterns within a file, independent of external information, such as data types, row structures, or schemata. By identifying deviations from the dominant pattern, it detects ill-formed rows. Subsequently, our structure correction system, TASHEEH, gathers the identified ill-formed rows along with dominant patterns and employs a novel pattern transformation algebra to automatically rectify errors. Our pipeline serves as an end-to-end solution, transforming a structurally broken CSV file into a well-formatted one, usually suitable for seamless loading. Finally, we introduce MORPHER, a user-friendly GUI integrating the functionalities of both SURAGH and TASHEEH. This interface empowers users to access the pipeline's features through visual elements. Our extensive experiments demonstrate the effectiveness of our data preparation systems, requiring no user involvement. Both SURAGH and TASHEEH outperform existing state-of-the-art methods significantly in both precision and recall. N2 - Die Datenaufbereitung ist ein wesentlicher Bestandteil von Data-Science-Workflows und nimmt einen beträchtlichen Teil - etwa 80% - der Zeit eines Datenwissenschaftlers in Anspruch. Der hohe Zeitaufwand für die Datenaufbereitung ist in erster Linie auf die komplizierte Herausforderung zurückzuführen, der sich Datenwissenschaftler bei der Entwicklung maßgeschneiderter Lösungen für nachgelagerte Aufgaben gegenübersehen. Diese Komplexität wird noch verstärkt durch die unzureichende Verfügbarkeit von Metadaten, den oft ad-hoc-Charakter der Aufbereitungsaufgaben und die Notwendigkeit für Datenwissenschaftler, sich mit einer Vielzahl von hochentwickelten Tools auseinanderzusetzen, von denen jedes seine eigenen Schwierigkeiten und Anforderungen an dessen Beherrschung aufweist. Bisherige Forschung im Bereich der Datenverwaltung konzentriert sich traditionell auf die Aufbereitung der Inhalte innerhalb der Spalten und Zeilen einer relationalen Tabelle und befasst sich mit Aufgaben wie der Disambiguierung von Zeichenketten, der Standardisierung von Datumsangaben oder der Normalisierung numerischer Werte, die gemeinhin unter dem Begriff der Datenbereinigung zusammengefasst werden. Dieser Forschungsschwerpunkt geht von einer perfekt strukturierten Eingabetabelle aus. Folglich können die genannten Datenbereinigungsaufgaben erst dann effektiv durchgeführt werden, wenn die Tabelle erfolgreich in die entsprechende Datenbereinigungsumgebung geladen wurde, was in der Regel in den späteren Phasen der Datenverarbeitungspipeline geschieht. Während aktuelle Datenbereinigungstools gut für relationale Tabellen geeignet sind, enthalten große Datenrrepositories aufgrund ihres flexiblen Standards häufig Daten, die in reinen Textdateien, wie z. B. CSV-Dateien, gespeichert sind. Folglich weisen diese Dateien oft Tabellen mit einem flexiblen Layout von Zeilen und Spalten auf, denen eine relationale Struktur fehlt. Diese Flexibilität führt häufig dazu, dass die Daten beliebig über die einzelnen Zellen der Tabelle verteilt sind, was in der Regel durch benutzerdefinierte Formatierungsrichtlinien gesteuert wird. Um diese Tabellen effektiv zu extrahieren und in den nachgelagerten Verarbeitungsschritten nutzen zu können, ist ein präzises Parsen erforderlich. In dieser Arbeit wird der Schwerpunkt auf das gelegt, was wir als “Struktur” einer Datendatei definieren - die grundlegenden Zeichen innerhalb einer Datei, die für das Parsen und Verstehen ihres Inhalts wesentlich sind. Die vorliegende Arbeit konzentriert sich auf die ersten Stufen der Datenvorverarbeitung und behandelt zwei entscheidende Aspekte: Das Verstehen des strukturellen Layouts einer Tabelle in einer Rohdatendatei und das automatische Erkennen und Korrigieren von strukturellen Problemen, die das Parsen der Datei erschweren könnten. Auch wenn sich diese Probleme nicht direkt auf den Inhalt der Tabelle auswirken, stellen sie eine große Herausforderung beim Parsen der Tabelle in der Datei dar. Unser erster Beitrag besteht aus einem umfassenden Überblick über kommerziell verfügbare Datenaufbereitungstools. In dieser Übersicht werden ihre besonderen Merkmale, die fehlenden Merkmale und die Notwendigkeit einer vorläufigen Datenverarbeitung trotz dieser Werkzeuge eingehend untersucht. Das primäre Ziel ist es, den aktuellen Stand der Technik bei den Datenaufbereitungssystemen zu ermitteln und gleichzeitig Bereiche zu identifizieren, die verbessert werden können. Darüber hinaus werden die bei der Datenvorverarbeitung aufgetretenen Herausforderungen untersucht und Möglichkeiten für künftige Forschung und Weiterentwicklungen aufgezeigt. Als Nächstes schlagen wir eine neuartige Datenaufbereitungspipeline zur Erkennung und Korrektur von strukturellen Fehlern vor. Ziel dieser Pipeline ist es, die Nutzer in der anfänglichen Vorverarbeitungsphase zu unterstützen, indem das korrekte Laden ihrer Daten in ihre bevorzugten Systeme sichergestellt wird. Unser Ansatz beginnt mit der Einführung von SURAGH, einem unüberwachten System, das eine musterbasierte Methode verwendet, um dominante Muster innerhalb einer Datei zu identifizieren, unabhängig von externen Informationen wie Datentypen, Zeilenstrukturen oder Schemata. Durch die Identifizierung von Abweichungen vom vorherrschenden Muster werden fehlerhafte Zeilen erkannt. Anschließend sammelt unser Strukturkorrektursystem, TASHEEH, die identifizierten fehlerhaften Zeilen zusammen mit den dominanten Mustern und verwendet eine neuartige Mustertransformationsalgebra, um Fehler automatisch zu korrigieren. Unsere Pipeline dient als End-to-End-Lösung, die eine strukturell fehlerhafte CSV-Datei in eine gut formatierte Datei umwandelt, die in der Regel für ein nahtloses Laden geeignet ist. Schließlich stellen wir MORPHER vor, eine benutzerfreundliche GUI, die die Funktionen von SURAGH und TASHEEH integriert. Mit Hilfe von visuellen Elementen ermöglicht diese Schnittstelle den Benutzern den Zugriff auf die Funktionen der Pipeline. Unsere umfangreichen Experimente zeigen die Effektivität unserer Datenaufbereitungssysteme, die kein Eingreifen des Benutzers erfordern. Sowohl SURAGH als auch TASHEEH übertreffen bestehende State-of-the-Art-Methoden in den beiden Metriken Precision und Recall deutlich. KW - Datenaufbereitung KW - Datenintegration KW - Datenverwaltung KW - Datenqualität KW - data preparation KW - data integration KW - data management KW - data quality Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-655678 ER - TY - THES A1 - Hammel, Alexander T1 - Establishing the red microalga Porphyridium purpureum as a novel platform for the production of recombinant proteins T1 - Die Etablierung der roten Mikroalge Porphyridium purpureum als neue Platform für die Herstellung rekombinanter Proteine N2 - Microalgae have been recognized as a promising green production platform for recombinant proteins. The majority of studies on recombinant protein expression have been conducted in the green microalga C. reinhardtii. While promising improvement regarding nuclear transgene expression in this alga has been made, it is still inefficient due to epigenetic silencing, often resulting in low yields that are not competitive with other expressor organisms. Other microalgal species might be better suited for high-level protein expression, but are limited in their availability of molecular tools. The red microalga Porphyridium purpureum recently emerged as candidate for the production of recombinant proteins. It is promising in that transformation vectors are episomally maintained as autonomously replicating plasmids in the nucleus at a high copy number, thus leading to high expression values in this red alga. In this work, we expand the genetic tools for P. purpureum and investigate parameters that govern efficient transgene expression. We provide an improved transformation protocol to streamline the generation of transgenic lines in this organism. After being able to efficiently generate transgenic lines, we showed that codon usage is a main determinant of high-level transgene expression, not only at the protein level but also at the level of mRNA accumulation. The optimized expression constructs resulted in YFP accumulation up to an unprecedented 5% of the total soluble protein. Furthermore, we designed new constructs conferring efficient transgene expression into the culture medium, simplifying purification and harvests of recombinant proteins. To further improve transgene expression, we tested endogenous promoters driving the most highly transcribed genes in P. purpureum and found minor increase of YFP accumulation. We employed the previous findings to express complex viral antigens from the hepatitis B virus and the hepatitis C virus in P. purpureum to demonstrate its feasibility as producer of biopharmaceuticals. The viral glycoproteins were successfully produced to high levels and could reach their native confirmation, indicating a functional glycosylation machinery and an appropriate folding environment in this red alga. We could successfully upscale the biomass production of transgenic lines and with that provide enough material for immunization trials in mice that were performed in collaboration. These trials showed no toxicity of neither the biomass nor the purified antigens, and, additionally, the algal-produced antigens were able to elicit a strong and specific immune response. The results presented in this work pave the way for P. purpureum as a new promising producer organism for biopharmaceuticals in the microalgal field. N2 - Biotechnologisch hergestellte Proteine (rekombinante Proteine), wie zum Beispiel monoklonale Antikörper, Insulin oder diverse Impfstoffe, spielen heutzutage eine immer wichtigere Rolle bei der Bekämpfung von Krankheiten. Diese werden hauptsächlich aus genetisch veränderten humanen Zelllinien hergestellt. Die Produktion ist allerdings sehr teuer, anfällig für Kontaminationen und nicht nachhaltig. Als Alternative dazu können Mikroalgen benutzt werden, die viel günstiger kultiviert werden können und viele Vorteile bezüglich des ökologischen Aspekts bieten. Die bisherige Forschung an Mikroalgen als Plattform für die Herstellung rekombinanter Proteine konzentriert sich vor allem auf die grüne Mikroalge Chlamydomonas reinhardtii. Doch vor allem die geringe Proteinausbeute macht diese Alge nicht zum idealen Expressionsorganismus. Kürzlich wurde die rote Mikroalge Porphyridium purpureum als vielversprechende Kandidatin für die Produktion rekombinanter Proteine identifiziert. Besonders interessant ist, dass diese Alge rekombinante Proteine in einem hohen Maß exprimiert. Diese Arbeit beschäftigt sich mit dem Potenzial von Porphyridium purpureum als relativ unerforschte Alge. Es wurden neue genetische Werkzeuge entwickelt und verschiedene Faktoren untersucht, die die Expression von eingebrachten Genen beeinflussen. Durch Optimierung dieser Parameter konnten wir die Proteinausbeute eines gelb fluoreszierenden Proteins auf 5% des löslichen Gesamtproteins steigern. Wir haben das gewonnene Wissen genutzt, um jeweils ein Oberflächenprotein vom Hepatitis B Virus und vom Hepatitis C Virus in dieser roten Mikroalge herzustellen. Diese können als möglicher zukünftiger Impfstoff benutzt werden. Wir konnten zeigen, dass beide Proteine korrekt und in hoher Menge in Porphyridium purpureum hergestellt werden. Anschließend wurden die hergestellten Proteine auf ihre Wirksamkeit und Verträglichkeit an Mäusen getestet. Dabei wurde gezeigt, dass (i) Porphyridium purpureum nicht giftig ist und auch keine giftigen Produkte produziert und (ii) die produzierten Proteine eine effektive Immunantwort gegen die Viren induzieren. Mit dieser Arbeit wurde das Fundament für die biotechnologische Anwendung dieser roten Mikroalge gelegt. Die Ergebnisse dieser Studie zeigen, dass P. purpureum eine vielversprechende Mikroalgenart für die Produktion von biopharmazeutischen Proteinen ist. KW - microalgae KW - biotechnology KW - subunit vaccine KW - Biotechnologie KW - Mikroalgen KW - Untereinheitenimpfstoff Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-632709 ER - TY - THES A1 - Harbart, Vanessa T1 - The effect of protected cultivation on the nutritional quality of lettuce (Lactuca sativa var capitata L.) with a focus on antifogging additives in polyolefin covers T1 - Die Bedeutung des geschützten Anbaus für die ernährungsphysiologische Qualität von Kopfsalat (Lactuca sativa var. capitata L.) mit Schwerpunkt auf Antibeschlagmittel in Polyolefinfolien N2 - Protected cultivation in greenhouses or polytunnels offers the potential for sustainable production of high-yield, high-quality vegetables. This is related to the ability to produce more on less land and to use resources responsibly and efficiently. Crop yield has long been considered the most important factor. However, as plant-based diets have been proposed for a sustainable food system, the targeted enrichment of health-promoting plant secondary metabolites should be addressed. These metabolites include carotenoids and flavonoids, which are associated with several health benefits, such as cardiovascular health and cancer protection. Cover materials generally have an influence on the climatic conditions, which in turn can affect the levels of secondary metabolites in vegetables grown underneath. Plastic materials are cost-effective and their properties can be modified by incorporating additives, making them the first choice. However, these additives can migrate and leach from the material, resulting in reduced service life, increased waste and possible environmental release. Antifogging additives are used in agricultural films to prevent the formation of droplets on the film surface, thereby increasing light transmission and preventing microbiological contamination. This thesis focuses on LDPE/EVA covers and incorporated antifogging additives for sustainable protected cultivation, following two different approaches. The first addressed the direct effects of leached antifogging additives using simulation studies on lettuce leaves (Lactuca sativa var capitata L). The second determined the effect of antifog polytunnel covers on lettuce quality. Lettuce is usually grown under protective cover and can provide high nutritional value due to its carotenoid and flavonoid content, depending on the cultivar. To study the influence of simulated leached antifogging additives on lettuce leaves, a GC-MS method was first developed to analyze these additives based on their fatty acid moieties. Three structurally different antifogging additives (reference material) were characterized outside of a polymer matrix for the first time. All of them contained more than the main fatty acid specified by the manufacturer. Furthermore, they were found to adhere to the leaf surface and could not be removed by water or partially by hexane. The incorporation of these additives into polytunnel covers affects carotenoid levels in lettuce, but not flavonoids, caffeic acid derivatives and chlorophylls. Specifically, carotenoids were higher in lettuce grown under polytunnels without antifog than with antifog. This has been linked to their effect on the light regime and was suggested to be related to carotenoid function in photosynthesis. In terms of protected cultivation, the use of LDPE/EVA polytunnels affected light and temperature, and both are closely related. The carotenoid and flavonoid contents of lettuce grown under polytunnels was reversed, with higher carotenoid and lower flavonoid levels. At the individual level, the flavonoids detected in lettuce did not differ however, lettuce carotenoids adapted specifically depending on the time of cultivation. Flavonoid reduction was shown to be transcriptionally regulated (CHS) in response to UV light (UVR8). In contrast, carotenoids are thought to be regulated post-transcriptionally, as indicated by the lack of correlation between carotenoid levels and transcripts of the first enzyme in carotenoid biosynthesis (PSY) and a carotenoid degrading enzyme (CCD4), as well as the increased carotenoid metabolic flux. Understanding the regulatory mechanisms and metabolite adaptation strategies could further advance the strategic development and selection of cover materials. N2 - Der geschützte Anbau in Gewächshäusern oder unter Folientunneln bietet die Möglichkeit einer nachhaltigen Produktion von ertragreichem Gemüse hoher Qualität. Die ressourceneffiziente Produktion von mehr auf weniger Fläche ist dabei ein wichtiger Faktor. Lange galt der Gemüseertrag als wichtigstes Kriterium. Die Anreicherung von gesundheitsfördernden sekundären Pflanzenmetaboliten gewinnt jedoch zunehmend an Bedeutung, nicht zuletzt durch die empfohlene pflanzenbasierte Ernährung für ein nachhaltiges Ernährungssystem. Die Sekundärmetabolite Carotinoide und Flavonoide sind mit verschiedenen gesundheitlichen Vorteilen assoziiert, etwa der kardiovaskulären Gesundheit und der Krebsprävention. Das Material eines Gewächshauses beeinflusst die klimatischen Bedingungen im geschützten Anbau. Das resultierende Mikroklima kann sich wiederum auf den Gehalt an Sekundärmetaboliten im Gemüse auswirken. Materialien aus Kunststoff sind kostengünstig und ihre Eigenschaften können durch Zusätze, sogenannte Additive, modifiziert werden. Additive können an die Oberfläche des Materials und aus diesem migrieren, was die Materiallebensdauer einerseits verkürzt und größere Abfallmengen produziert. Andererseits besteht das Risiko einer Umweltemission der Additive. Antifogging-Additive verhindern die Bildung von Kondenswasser Tropfen auf der Oberfläche von Gewächshausfolien, wodurch die Lichtdurchlässigkeit der Folien verbessert, sowie eine mikrobiologische Kontamination vermieden werden kann. Die vorliegende Arbeit befasst sich mit LDPE/EVA-Gewächshausfolien mit Antifogging-Additiven für einen nachhaltigen geschützten Anbau und verfolgt dabei zwei unterschiedliche Herangehensweisen. Zum einen befasst sich die Arbeit mit den direkten Auswirkungen von Antifogging-Additiven in Folge eines Übergangs auf Salatblätter (Lactuca sativa var. capitata L.) mittels Simulationsversuchen. Um den simulierten Übergang zu untersuchen, wurde zunächst eine Methode zur Analyse des Fettsäureanteils der Additive mittels GC-MS entwickelt. Drei strukturell unterschiedliche Antifogging-Additive (Referenzmaterial) wurden erstmals außerhalb einer Polymermatrix charakterisiert. Sie enthielten diverse Fettsäuren, und somit mehr, als die vom Hersteller angegebene Hauptfettsäure. Des Weiteren wurde gezeigt, dass sie an der Blattoberfläche haften und weder durch Wasser noch teilweise durch Hexan entfernt werden können. Zum anderen wurde der Einfluss von Antifogging-Additiven in Gewächshausfolien auf die Salatqualität untersucht. Salat ist ein Gemüse, das üblicherweise auch unter Schutzabdeckungen angebaut wird und sortenspezifisch größere Mengen an Carotinoiden und Flavonoiden enthält. Der Anbau von Salat unter Antifog-Folientunneln beeinflusste den Carotinoidgehalt, nicht aber den Gehalt an Flavonoiden, Kaffeesäurederivaten und Chlorophyll. Salate, die unter Folientunneln ohne Antifog angebaut wurde akkumulierten höhere Gehalte der Carotinoide, als solche unter Antifog-Folientunneln. Es besteht wahrscheinlich ein Zusammenhang mit der Funktion der Carotinoide als Photosynthesepigmente und der Lichtumgebung. Die Verwendung von LDPE/EVA-Folientunneln beeinflusste allgemein Licht und Temperatur im geschützten Anbau, beide Faktoren sind eng verknüpft. Die Carotinoid- und Flavonoidgehalte waren dabei invers, mit höheren gesamt Carotinoid- und niedrigeren gesamt Flavonoidgehalten von Salaten unter Folientunneln. Die individuellen Flavonoid-Glykoside unterschieden sich innerhalb der Versuchszeiträume (Frühjahr und Herbst) nicht. Es konnte gezeigt werden, dass diese hinsichtlich der UV-Lichtumgebung (UVR8) transkriptionell reguliert werden (CHS). Demgegenüber fanden spezifische Anpassungen der individuellen Carotinoidmetabolite in den Versuchszeiträumen statt. Die fehlende Korrelation der Carotinoidmetabolite und der Transkripte des Hauptenzyms der Biosynthese (PSY) und eines Carotinoid-abbauenden Enzyms (CCD4) sowie der erhöhte Carotinoid-Stoffwechselfluss deuten auf eine post-transkriptionelle Regulierung hin. Die Regulationsmechanismen und Anpassungsstrategien der sekundären Pflanzenstoffe in Gemüse zu verstehen, könnte zukünftig zur strategischen Entwicklung und Auswahl von Gewächshausmaterialien beitragen. KW - protected cultivation KW - polytunnel KW - lettuce KW - antifogging additives KW - plant secondary metabolites KW - carotenoids KW - flavonoids KW - mass spectrometry KW - plastic additives KW - Antibeschlag-Additive KW - Carotinoide KW - Flavonoide KW - Kopfsalat KW - Massenspektrometrie KW - sekundäre Pflanzenstoffe KW - Kunststoff-Additive KW - Folientunnel KW - geschützter Anbau Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-629375 ER - TY - THES A1 - Hartmann, Anne T1 - Tracing the evolution of hillslope structure and hillslope hydrological response over ten millennia in two glacial forefields of different geology T1 - Nachverfolgung der Evolution von Hangstruktur und hydrologischer Reaktion über zehn Jahrtausende in zwei Gletschervorfeldern N2 - Assessing the impact of global change on hydrological systems is one of the greatest hydrological challenges of our time. Changes in land cover, land use, and climate have an impact on water quantity, quality, and temporal availability. There is a widespread consensus that, given the far-reaching effects of global change, hydrological systems can no longer be viewed as static in their structure; instead, they must be regarded as entire ecosystems, wherein hydrological processes interact and coevolve with biological, geomorphological, and pedological processes. To accurately predict the hydrological response under the impact of global change, it is essential to understand this complex coevolution. The knowledge of how hydrological processes, in particular the formation of subsurface (preferential) flow paths, evolve within this coevolution and how they feed back to the other processes is still very limited due to a lack of observational data. At the hillslope scale, this intertwined system of interactions is known as the hillslope feedback cycle. This thesis aims to enhance our understanding of the hillslope feedback cycle by studying the coevolution of hillslope structure and hillslope hydrological response. Using chronosequences of moraines in two glacial forefields developed from siliceous and calcareous glacial till, the four studies shed light on the complex coevolution of hydrological, biological, and structural hillslope properties, as well as subsurface hydrological flow paths over an evolutionary period of 10 millennia in these two contrasting geologies. The findings indicate that the contrasting properties of siliceous and calcareous parent materials lead to variations in soil structure, permeability, and water storage. As a result, different plant species and vegetation types are favored on siliceous versus calcareous parent material, leading to diverse ecosystems with distinct hydrological dynamics. The siliceous parent material was found to show a higher activity level in driving the coevolution. The soil pH resulting from parent material weathering emerges as a crucial factor, influencing vegetation development, soil formation, and consequently, hydrology. The acidic weathering of the siliceous parent material favored the accumulation of organic matter, increasing the soils’ water storage capacity and attracting acid-loving shrubs, which further promoted organic matter accumulation and ultimately led to podsolization after 10 000 years. Tracer experiments revealed that the subsurface flow path evolution was influenced by soil and vegetation development, and vice versa. Subsurface flow paths changed from vertical, heterogeneous matrix flow to finger-like flow paths over a few hundred years, evolving into macropore flow, water storage, and lateral subsurface flow after several thousand years. The changes in flow paths among younger age classes were driven by weathering processes altering soil structure, as well as by vegetation development and root activity. In the older age class, the transition to more water storage and lateral flow was attributed to substantial organic matter accumulation and ongoing podsolization. The rapid vertical water transport in the finger-like flow paths, along with the conductive sandy material, contributed to podsolization and thus to the shift in the hillslope hydrological response. In contrast, the calcareous site possesses a high pH buffering capacity, creating a neutral to basic environment with relatively low accumulation of dead organic matter, resulting in a lower water storage capacity and the establishment of predominantly grass vegetation. The coevolution was found to be less dynamic over the millennia. Similar to the siliceous site, significant changes in subsurface flow paths occurred between the young age classes. However, unlike the siliceous site, the subsurface flow paths at the calcareous site only altered in shape and not in direction. Tracer experiments showed that flow paths changed from vertical, heterogeneous matrix flow to vertical, finger-like flow paths after a few hundred to thousands of years, which was driven by root activities and weathering processes. Despite having a finer soil texture, water storage at the calcareous site was significantly lower than at the siliceous site, and water transport remained primarily rapid and vertical, contributing to the flourishing of grass vegetation. The studies elucidated that changes in flow paths are predominantly shaped by the characteristics of the parent material and its weathering products, along with their complex interactions with initial water flow paths and vegetation development. Time, on the other hand, was not found to be a primary factor in describing the evolution of the hydrological response. This thesis makes a valuable contribution to closing the gap in the observations of the coevolution of hydrological processes within the hillslope feedback cycle, which is important to improve predictions of hydrological processes in changing landscapes. Furthermore, it emphasizes the importance of interdisciplinary studies in addressing the hydrological challenges arising from global change. N2 - Die Einschätzung der Auswirkungen des globalen Wandels auf die lokale Hydrologie stellt zweifellos eine der bedeutendsten hydrologischen Herausforderungen unserer Zeit dar. Die zuverlässige Vorhersage der zukünftigen Verfügbarkeit, Menge und Qualität des Wassers in Landschaften gewinnt dabei an höchster Bedeutung. Es herrscht weitgehender Konsens darüber, dass hydrologische Systeme aufgrund des globalen Wandels nicht mehr als statische Gebilde betrachtet werden können. Vielmehr sind sie als ganzheitliche Ökosysteme zu verstehen, in denen hydrologische Prozesse mit biologischen, geomorphologischen und pedologischen Faktoren interagieren und sich gemeinsam entwickeln. Allerdings ist das Wissen über die Entwicklung und die Rückkopplung hydrologischer Prozesse, insbesondere im Hinblick auf die Entstehung unterirdischer (präferenzieller) Fließwege, aufgrund mangelnder Beobachtungsdaten noch stark begrenzt. Das Hauptziel dieser Studie liegt daher darin, anhand von Untersuchungen auf der Hangskala die Wechselwirkung zwischen Struktur und hydrologischem Verhalten zu erforschen. Dadurch soll ein besseres Verständnis für den Rückkopplungszyklus gewonnen werden. Die vier in dieser Arbeit präsentierten Studien befassen sich mit der Entwicklung hydrologischer, biologischer und physikalischer Eigenschaften von Hängen sowie der Evolution hydrologischer Fließwege über einen Zeitraum von zehntausend Jahren in zwei unterschiedlichen geologischen Geologien. Durch die Analyse von Moränen-Chronosequenzen in zwei Gletschervorfeldern, die jeweils aus silikatreichem bzw. kalkreichem Geschiebemergel entstanden sind, wird die komplexe Koevolution in Abhängigkeit von der geologischen Beschaffenheit des Ausgangsmaterials beleuchtet. Die Ergebnisse zeigen, dass die verschiedenen Eigenschaften von silikatreichem und kalkhaltigem Ausgangsmaterial unter den gegebenen Klimabedingungen zu Unterschieden in Bodeneigenschaften, Durchlässigkeit und Wasserspeicherung führen. Dies wiederum begünstigt unterschiedliche Vegetationstypen und resultiert in vielfältigen Ökosystemen mit variierenden hydrologischen Dynamiken. Interessanterweise treibt das silikatreiche Ausgangsmaterial die Koevolution stärker an. Hierbei spielt der pH-Wert des Bodens eine Schlüsselrolle, da er Auswirkungen auf Vegetation, Bodenbildung und folglich auch auf die Hydrologie hat. Die saure Verwitterung des silikatreichen Materials begünstigt die Anreicherung organischer Substanz, was zu einer Erhöhung der Wasserspeicherkapazität des Bodens und zur Podsolisierung führt. Innerhalb weniger Jahrhunderte entwickelt sich das unterirdische Wassertransportsystem von einer vertikalen, heterogenen Matrixströmung zu fingerartigen Fließwegen und nach mehreren Jahrtausenden zu einem System aus Makroporen, wobei die Wasserspeicherung und die unterirdische, laterale Strömung überwiegen. Im Gegensatz dazu weist der kalkhaltige Standort eine hohe pH-Pufferkapazität auf. In dem basischen bis neutralen Milieu sammelt sich vergleichsweise wenig abgestorbene, organische Substanz an, was zu einer geringeren Wasserspeicherkapazität führt und die Ansiedlung von Grasvegetation begünstigt. Die Fließwege ändern lediglich ihre Form, nicht jedoch ihre Richtung. Es wurde lediglich ein Übergang von vertikaler, heterogener Matrixströmung zu vertikalen, fingerartigen Fließwegen beobachtet. Der schnelle vertikale Wassertransport mit geringer Speicherung begünstigt die Erhaltung der Grasvegetation. Die durchgeführten Studien verdeutlichen, dass die Entwicklung der Fließwege hauptsächlich von den Eigenschaften des Ausgangsgesteins und seinen Verwitterungsprodukten sowie von deren komplexen Interaktionen mit den ursprünglichen Fließwegen und der Entwicklung der Vegetation geprägt ist. Im Gegensatz dazu spielt die Zeit keine entscheidende Rolle bei der Beschreibung der Evolution der hydrologischen Reaktion. Diese Studie trägt wesentlich dazu bei, die bestehende Lücke in Beobachtungen für die Erforschung der Koevolution von hydrologischen, biologischen, geomorphologischen und pedologischen Prozessen zu schließen. Dies ist von großer Bedeutung, um Vorhersagen hydrologischer Prozesse in sich wandelnden Landschaften zu verbessern. Sie zeigt außerdem die Relevanz interdisziplinärer Studien auf, um den zukünftigen Herausforderungen in der Hydrologie im Zuge des globalen Wandels erfolgreich zu begegnen. KW - soil hydrology KW - chronosequence study KW - landscape evolution KW - Chronosequenzstudie KW - Landschaftsentwicklung KW - Bodenhydrologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628629 ER - TY - THES A1 - Haskamp, Thomas T1 - Products design organizations T1 - Produkte designen Organisationen BT - how industrial-aged companies accomplish digital product innovation BT - wie etablierte Industrieunternehmen digitale Produktinnovationen erreichen N2 - The automotive industry is a prime example of digital technologies reshaping mobility. Connected, autonomous, shared, and electric (CASE) trends lead to new emerging players that threaten existing industrial-aged companies. To respond, incumbents need to bridge the gap between contrasting product architecture and organizational principles in the physical and digital realms. Over-the-air (OTA) technology, that enables seamless software updates and on-demand feature additions for customers, is an example of CASE-driven digital product innovation. Through an extensive longitudinal case study of an OTA initiative by an industrial- aged automaker, this dissertation explores how incumbents accomplish digital product innovation. Building on modularity, liminality, and the mirroring hypothesis, it presents a process model that explains the triggers, mechanisms, and outcomes of this process. In contrast to the literature, the findings emphasize the primacy of addressing product architecture challenges over organizational ones and highlight the managerial implications for success. N2 - Die Entwicklung neuer digitaler Produktinnovation erfordert in etablierten Industrieunternehmen die Integration von digitalen und physischen Elementen. Dies ist besonders in der Automobilindustrie sichtbar, wo der Trend zu vernetzter, autonomer, gemeinsam genutzter und elektrischer Mobilität zu einem neuen Wettbewerb führt, welcher etablierte Marktteilnehmer bedroht. Diese müssen lernen wie die Integration von gegensätzlichen Produktarchitekturen und Organisationsprinzipien aus der digitalen und physischen Produktentwicklung funktioniert. Die vorliegende Dissertation widmet sich diesem Problem. Basierend auf einer Fallstudie einer digitalen Produktinnovationsinitiative eines Premiummobilitätsanbieters rund um die Integration von Over-the-Air-Technologie für Software-Updates liefert sie wichtige Erkenntnisse. Erstens, etablierte Organisationen müssen Ihre Produktarchitektur befähigen, um verschiedene Produktarchitekturprinzipien in Einklang zu bringen. Zweitens, verschiedene Produktentwicklungsprozesse pro Produktebene müssen aufeinander abgestimmt werden. Drittens, die Organisationsstruktur muss erweitert werden, um die verschiedenen Produktebenen abzubilden. Darüber hinaus müssen auch Ressourcenallokationsprozesse auf die Entwicklungsprozesse abgestimmt werden. Basierend auf diesen Erkenntnissen und mit der bestehenden Fachliteratur wird in der Dissertation ein Prozessmodell entwickelt, welches erklären soll, wie etablierte Industrieunternehmen digitale Produktinnovation erreichen. Kernauslöser sind externer Marktdruck sowie existierende Architekturprinzipien. Wechselseitige Mechanismen wie die Befähigung der Produktarchitektur, die Erweiterung der Organisationstruktur, die Anpassung der Produktentwicklungsprozesse und die Anpassung der Ressourcenallokationsprozesse erklären den Prozess welcher in einer neuen Produktarchitektur sowie einer erweiterten Organisationsstruktur mündet. Der Forschungsbeitrag der Arbeit liegt im Bereich der digitalen Produktinnovation. Sie verlagert den Forschungsfokus auf Fragen der Produktarchitektur und verbindet diese durch Konzepte der Modularität mit organisatorischen Fragestellungen. Für die Praxis ergeben sich vier Hebel die Entscheidungsträger/innen nutzen können, um die Fähigkeiten zur digitalen Produktinnovation zu stärken. KW - digital product innovation KW - digital transformation KW - digital innovation KW - digitale Produktinnovation KW - digitale Transformation KW - digitale Innovation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646954 ER - TY - THES A1 - Heckenbach, Esther Lina T1 - Geodynamic modeling of process interactions at continental plate boundaries N2 - Plate tectonic boundaries constitute the suture zones between tectonic plates. They are shaped by a variety of distinct and interrelated processes and play a key role in geohazards and georesource formation. Many of these processes have been previously studied, while many others remain unaddressed or undiscovered. In this work, the geodynamic numerical modeling software ASPECT is applied to shed light on further process interactions at continental plate boundaries. In contrast to natural data, geodynamic modeling has the advantage that processes can be directly quantified and that all parameters can be analyzed over the entire evolution of a structure. Furthermore, processes and interactions can be singled out from complex settings because the modeler has full control over all of the parameters involved. To account for the simplifying character of models in general, I have chosen to study generic geological settings with a focus on the processes and interactions rather than precisely reconstructing a specific region of the Earth. In Chapter 2, 2D models of continental rifts with different crustal thicknesses between 20 and 50 km and extension velocities in the range of 0.5-10 mm/yr are used to obtain a speed limit for the thermal steady-state assumption, commonly employed to address the temperature fields of continental rifts worldwide. Because the tectonic deformation from ongoing rifting outpaces heat conduction, the temperature field is not in equilibrium, but is characterized by a transient, tectonically-induced heat flow signal. As a result, I find that isotherm depths of the geodynamic evolution models are shallower than a temperature distribution in equilibrium would suggest. This is particularly important for deep isotherms and narrow rifts. In narrow rifts, the magnitude of the transient temperature signal limits a well-founded applicability of the thermal steady-state assumption to extension velocities of 0.5-2 mm/yr. Estimation of the crustal temperature field affects conclusions on all temperature-dependent processes ranging from mineral assemblages to the feasible exploitation of a geothermal reservoir. In Chapter 3, I model the interactions of different rheologies with the kinematics of folding and faulting using the example of fault-propagation folds in the Andean fold-and-thrust belt. The evolution of the velocity fields from geodynamic models are compared with those from trishear models of the same structure. While the latter use only geometric and kinematic constraints of the main fault, the geodynamic models capture viscous, plastic, and elastic deformation in the entire model domain. I find that both models work equally well for early, and thus relatively simple stages of folding and faulting, while results differ for more complex situations where off-fault deformation and secondary faulting are present. As fault-propagation folds can play an important role in the formation of reservoirs, knowledge of fluid pathways, for example via fractures and faults, is crucial for their characterization. Chapter 4 deals with a bending transform fault and the interconnections between tectonics and surface processes. In particular, the tectonic evolution of the Dead Sea Fault is addressed where a releasing bend forms the Dead Sea pull-apart basin, while a restraining bend further to the North resulted in the formation of the Lebanese mountains. I ran 3D coupled geodynamic and surface evolution models that included both types of bends in a single setup. I tested various randomized initial strain distributions, showing that basin asymmetry is a consequence of strain localization. Furthermore, by varying the surface process efficiency, I find that the deposition of sediment in the pull-apart basin not only controls basin depth, but also results in a crustal flow component that increases uplift at the restraining bend. Finally, in Chapter 5, I present the computational basis for adding further complexity to plate boundary models in ASPECT with the implementation of earthquake-like behavior using the rate-and-state friction framework. Despite earthquakes happening on a relatively small time scale, there are many interactions between the seismic cycle and the long time spans of other geodynamic processes. Amongst others, the crustal state of stress as well as the presence of fluids or changes in temperature may alter the frictional behavior of a fault segment. My work provides the basis for a realistic setup of involved structures and processes, which is therefore important to obtain a meaningful estimate for earthquake hazards. While these findings improve our understanding of continental plate boundaries, further development of geodynamic software may help to reveal even more processes and interactions in the future. N2 - Plattentektonische Grenzen bilden die Nahtstellen zwischen tektonischen Platten. Sie werden durch eine Vielzahl von unterschiedlichen und miteinander verknüpften Prozessen geformt und spielen eine Schlüsselrolle im Bereich der Georisiken und der Entstehung von Georessourcen. Viele dieser Prozesse sind bereits erforscht, während viele andere noch unbearbeitet oder unentdeckt sind. In dieser Arbeit wird die geodynamische numerische Modellierungssoftware ASPECT verwendet, um weitere Prozessinteraktionen an kontinentalen Plattengrenzen zu untersuchen. Im Gegensatz zu natürlichen Daten hat die geodynamische Modellierung den Vorteil, dass Prozesse direkt quantifiziert und alle Parameter über die gesamte Entwicklung einer Struktur analysiert werden können. Außerdem können Prozesse und Wechselwirkungen aus komplexen Zusammenhängen herausgefiltert werden, da der Modellierer volle Kontrolle über alle beteiligten Parameter hat. Um dem vereinfachenden Charakter von Modellen im Allgemeinen Rechnung zu tragen, habe ich mich für die Untersuchung allgemeiner geologischer Gegeben-heiten entschieden, wobei der Schwerpunkt auf den Prozessen und Wechselwirkungen liegt, anstatt eine bestimmte Region der Erde genau zu rekonstruieren. In Kapitel 2 werden 2D-Modelle von kontinentalen Rifts mit unterschiedlichen Krustendicken zwischen 20 und 50 km, sowie Extensionsgeschwindigkeiten im Bereich von 0,5-10 mm/Jahr verwendet, um eine Geschwindigkeitsgrenze für die Annahme eines thermischen Gleichgewichtszustandes zu erhalten, welcher üblicherweise verwendet wird, um die Temperaturfelder kontinentaler Rifts weltweit zu beschreiben. Da die Geschwindigkeit der tektonischen Deformation die der Wärmeleitung übersteigt, befindet sich das Temperaturfeld nicht im Gleichgewicht, sondern ist durch ein transientes, tektonisch induziertes Wärmestromsignal gekennzeichnet. Daraus ergibt sich, dass die Tiefen der Isothermen in den geodynamischen Entwicklungsmodellen flacher liegen, als es eine Temperaturverteilung im Gleichgewichtszustand vermuten ließe. Dies macht sich besondersbei tiefen Isothermen und narrow Rifts bemerkbar. In narrow Rifts begrenzt die Magnitude des transienten Temperatursignals eine fundierte Anwendbarkeit der thermischen Gleichgewichtsannahme auf Extensionsgeschwindigkeiten im Bereich von 0,5-2 mm/Jahr. Die Abschätzung des Temperaturfeldes der Erdkruste wirkt sich auf alle temperaturabhängigen Prozesse aus, von der Mineralzusammensetzung bis hin zur möglichen Nutzung eines geothermischen Reservoirs. In Kapitel 3 modelliere ich die Wechselwirkungen verschiedener Rheologien mit der Kinematik von Auffaltungen und Verwerfungen am Beispiel von fault-propagation folds im andinen Falten- und Überschiebungsgürtel. Die Entwicklung der Geschwindigkeitsfelder aus geodynamischen Modellen wird mit denen aus Trishear-Modellen für dieselbe Struktur verglichen. Während letztere nur geometrische und kinematische Charakteristika der Hauptverwerfung verwenden, erfassen die geodynamischen Modelle sowohl viskose, wie auch plastische und elastische Verformung im gesamten Modellbereich. Meine Forschung zeigt, dass beide Modelle für frühe und damit vergleichbar einfache Phasen der Auffaltung und Verwerfung gleichermaßen gut anwendbar sind, während die Ergebnisse für komplexere Situationen, in denen Verfor-mungen außerhalb der Hauptstörung sowie sekundäre Verwerfungen auftreten, auseinander gehen. Da fault-propagation folds eine wichtige Rolle bei der Bildung von Lagerstätten spielen können, ist Kenntnis zu Migrationswegen von Fluiden, zum Beispiel über Klüfte und Verwerfungen, für ihre Charakterisierung von entscheidender Bedeutung. Kapitel 4 befasst sich mit Biegungen von Transformstörungen sowie den Zusammenhängen zwischen Tektonik und Oberflächenprozessen. Insbesondere wird die tektonische Entwicklung der Verwerfung am Toten Meer behandelt, wo eine von Extension geprägte Biegung der Verwerfung das Pull-Apart-Becken des Toten Meeres bildet, während eine weiter nördlich gelegene von Kompression geprägte Biegung zur Bildung eines Gebirgszuges im Libanon führte. Für dieses Kapitel habe ich gekoppelte 3D Modelle der Geodynamik und Oberflächenentwicklung genutzt sowie beide Arten von Biegungen in einem Modell erforscht. Das Testen von verschiedenen, zufälligen Initialspannungsverteilungen zeigte, dass die Asymmetrie des Beckens eine Folge der Spannungslokalisierung ist. Außerdem habe ich durch Variation der Oberflächenprozesseffizienz herausgearbeitet, dass die Sedimentierung im Pull-Apart-Becken nicht nur die Beckentiefe steuert, sondern auch zu einer Strömungskomponente von Erdkrustenmaterial führt, die die Ablift an der von Kompression geprägten Biegung der Transformstörung erhöht. Anschließend stelle ich in Kapitel 5 die Implementierung von erdbebenähnlichem Verhalten unter Verwendung der Rate-and-State Gleichungen vor, welche die Grundlage für die Erweiterung der Komplexität von Plattengrenzenmodellen in ASPECT bildet. Obwohl Erdbeben auf einer relativ kurzen Zeitskala stattfinden, gibt es viele Wechselwirkungen zwischen dem seismischen Zyklus und den langen Zeitspannen anderer geodynamischer Prozesse. Unter anderem können der Spannungszustand der Kruste sowie das Vorhandensein von Fluiden oder Änderungen der Temperatur das Reibungsverhalten eines Störungssegmentes verändern. Meine Arbeit liefert die Grundlage für einen realistischen Aufbau der beteiligten Strukturen und Prozesse, der wichtig ist, um eine aussagekräftige Abschätzung der Erdbebengefährdung zu erhalten. Während diese Ergebnisse unser Verständnis der kontinentalen Plattengrenzen verbessern, kann die Weiterentwicklung geodynamischer Software dazu beitragen, in Zukunft weitere Prozesse und Wechselwirkungen aufzudecken. T2 - Geodynamische Modellierung von Prozessinteraktionen an kontinentalen Plattengrenzen KW - geodynamic modeling KW - plate boundaries KW - continental crust KW - heat flow KW - landscape evolution KW - geodynamische Modellierung KW - Plattengrenzen KW - kontinentale Kruste KW - Wärmediffusion KW - Oberflächenmodellierung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647500 ER - TY - THES A1 - Hegener, Wolfgang T1 - In the beginning was the scripture T1 - Im Anfang war die Schrift BT - Sigmund Freud and the Jewish Bible BT - Sigmund Freud und die Jüdische Bibel N2 - Sigmund Freud, der Begründer der Psychoanalyse, hat sein intellektuelles Leben mit der Jüdischen Bibel begonnen und es zugleich mit ihr auch beendet. Am Anfang stand die gemeinsame Lektüre in der Philippson-Bibel vor allem mit seinem Vater Jacob Freud und am Ende seine Beschäftigung mit der Figur des Mose. Die vorliegende Arbeit geht den Spuren dieser Beschäftigung systematisch nach und zeigt, dass die Jüdische Bibel für Freud ein konstanter Bezug war und seine jüdische Identität bestimmt hat. Dies wird anhand der Analyse von Familiendokumenten, des Religionsunterrichts sowie der Bezugnahme auf die Bibel in Freuds Schriften und Korrespondenzen gezeigt. N2 - Sigmund Freud, the founder of psychoanalysis, began his intellectual life with the Jewish Bible and also ended it with it. He began by reading the Philippson Bible together, especially with his father Jacob Freud, and ended by studying the figure of Moses. This study systematically traces this preoccupation and shows that the Jewish Bible was a constant reference for Freud and determined his Jewish identity. This is shown by analysing family documents, religious instruction and references to the Bible in Freud's writings and correspondence. KW - psychoanalysis KW - Jewish studies KW - Freud-research KW - Talmudic Judaism KW - Freud-Forschung KW - Jüdische Studien KW - Talmudisches Judentum KW - Psychoanalyse Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-618827 ER - TY - THES A1 - Heinz, Markus T1 - Synthese von Monomeren auf der Basis nachwachsender Rohstoffe und ihre Polymerisation T1 - Synthesis of Monomers based on Renewable Resources and their Polymerization N2 - Die vorliegende Arbeit thematisiert die Synthese und die Polymerisation von Monomeren auf der Basis nachwachsender Rohstoffe wie zum Beispiel in Gewürzen und ätherischen Ölen enthaltenen kommerziell verfügbaren Phenylpropanoiden (Eugenol, Isoeugenol, Zimtalkohol, Anethol und Estragol) und des Terpenoids Myrtenol sowie ausgehend von der Rinde einer Birke (Betula pendula) und der Korkeiche (Quercus suber). Ausgewählte Phenylpropanoide (Eugenol, Isoeugenol und Zimtalkohol) und das Terpenoid Myrtenol wurden zunächst in den jeweiligen Laurylester überführt und anschließend das olefinische Strukturelement epoxidiert, wobei 4 neue (2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat, 2-Methoxy-4-(3-methyl-oxiran-2-yl)phenyldodecanoat, (3-Phenyloxiran-2-yl)methyldodecanoat, (7,7-Dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyldodecanoat) und 2 bereits bekannte monofunktionelle Epoxide (2-(4-Methoxybenzyl)oxiran und 2-(4-Methoxyphenyl)-3-methyloxiran) erhalten wurden, die mittels 1H-NMR-, 13C-NMR- und FT-IR-Spektroskopie sowie mit DSC untersucht wurden. Die Photo-DSC Untersuchung der Epoxidmonomere in einer kationischen Photopolymerisation bei 40 °C ergab die maximale Polymerisationsgeschwindigkeit (Rpmax: 0,005 s-1 bis 0,038 s-1) sowie die Zeit (tmax: 13 s bis 26 s) bis zum Erreichen des Rpmax-Wertes und führte zu flüssigen Oligomeren, deren zahlenmittlerer Polymerisationsgrad mit 3 bis 6 mittels GPC bestimmt wurde. Die Umsetzung von 2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat mit Methacrylsäure ergab ein Isomerengemisch (2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat), das mittels Photo-DSC in einer freien radikalischen Photopolymerisation untersucht wurde (Rpmax: 0,105 s-1 und tmax: 5 s), die zu festen in Chloroform unlöslichen Polymeren führte. Aus Korkpulver und gemahlener Birkenrinde wurden selektiv 2 kristalline ω-Hydroxyfettsäuren (9,10-Epoxy-18-hydroxyoctadecansäure und 22-Hydroxydocosansäure) isoliert. Die kationische Photopolymerisation der 9,10-Epoxy-18-hydroxyoctadecansäure ergab einen nahezu farblosen transparenten und bei Raumtemperatur elastischen Film, welcher ein Anwendungspotential für Oberflächenbeschichtungen hat. Aus der Reaktion von 9,10-Epoxy-18-hydroxyoctadecansäure mit Methacrylsäure wurde ein bei Raumtemperatur flüssiges Gemisch aus zwei Konstitutionsisomeren (9,18-Dihydroxy-10-(methacryloyloxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure) erhalten (Tg: -60 °C). Die radikalische Photopolymerisation dieser Konstitutionsisomere wurde ebenfalls mittels Photo-DSC untersucht (Rpmax: 0,098 s-1 und tmax: 3,8 s). Die Reaktion von 22-Hydroxydocosansäure mit Methacryloylchlorid ergab die kristalline 22-(Methacryloyloxy)docosansäure, welche ebenfalls in einer radikalischen Photopolymerisation mittels Photo-DSC untersucht wurde (Rpmax: 0,023 s-1 und tmax: 9,6 s). Die mittels AIBN in Dimethylsulfoxid initiierte Homopolymerisation der 22-(Methacryloyloxy)docosansäure und der Isomerengemische bestehend aus 2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat sowie aus 9,18-Dihydroxy-10-(methacryloy-loxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure ergab feste lösliche Polymere, die mittels 1H-NMR- und FT-IR-Spektroskopie, GPC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Pn = 94) und DSC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Tg: 52 °C; Poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecansäure / 9-(methacryloyloxy)-10,18-dihydroxyoctadecansäure): Tg: 10 °C; Poly(22-(methacryloyloxy)docosansäure): Tm: 74,1 °C, wobei der Schmelzpunkt mit dem des Photopolymers (Tm = 76,8 °C) vergleichbar ist) charakterisiert wurden. Das bereits bekannte Monomer 4-(4-Methacryloyloxyphenyl)butan-2-on wurde ausgehend von 4-(4-Hydroxyphenyl)butan-2-on hergestellt, welches aus Birkenrinde gewonnen werden kann, und unter identischen Bedingungen für einen Vergleich mit den neuen Monomeren polymerisiert. Die freie radikalische Polymerisation führte zu Poly(4-(4-methacryloyloxyphenyl)butan-2-on) (Pn: 214 und Tg: 83 °C). Neben der Homopolymerisation wurde eine statistische Copolymerisation des Isomerengemisches 2-Methoxy-4-(2-hydroxy-3-(methacryl-oyloxy)propyl)phenyldodecanoat / 2-Methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)-phenyldodecanoat mit 4-(4-Methacryloyloxyphenyl)butan-2-on untersucht, wobei ein äquimolarer Einsatz der Ausgangsmonomere zu einem Anstieg der Ausbeute, der Molmassenverteilung und der Dispersität des Copolymers (Tg: 44 °C) führte. Die unter Verwendung von Diethylcarbonat als „grünes“ Lösungsmittel mittels AIBN initiierten freien radikalischen Homopolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on und von Laurylmethacrylat ergaben vergleichbare Polymerisationsgrade der Homopolymere (Pn: 150), welche jedoch aufgrund ihrer Strukturunterschiede deutlich unterschiedliche Glasübergangstemperaturen hatten (Poly(4-(4-methacryloyloxyphenyl)butan-2-on): Tg: 70 °C, Poly(laurylmethacrylat) Tg: -49 °C. Eine statistische Copolymerisation äquimolarer Stoffmengen der beiden Monomere in Diethylcarbonat führte bei einer Polymerisationszeit von 60 Minuten zu einem leicht bevorzugten Einbau des 4-(4-Methacryloyloxyphenyl)butan-2-on in das Copolymer (Tg: 17 °C). Copolymerisationsdiagramme für die freien radikalischen Copolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on mit n-Butylmethacrylat beziehungsweise 2-(Dimethylamino)ethylmethacrylat (t: 20 min bis 60 min; Molenbrüche (X) für 4-(4-Methacryloyloxyphenyl)butan-2-on: 0,2; 0,4; 0,6 und 0,8) zeigten ein nahezu ideales azeotropes Copolymerisationsverhalten, obwohl ein leicht bevorzugter Einbau von 4-(4-Methacryloyloxyphenyl)butan-2-on in das jeweilige Copolymer beobachtet wurde. Dabei korreliert ein Anstieg der Ausbeute und der Glasübergangstemperatur der erhaltenen Copolymere mit einem zunehmenden Gehalt an 4-(4-Methacryloyloxyphenyl)butan-2-on im Reaktionsgemisch. Die unter Einsatz der modifizierten Gibbs-DiMarzio-Gleichung berechneten Glasübergangstemperaturen der Copolymere stimmten mit den gemessenen Werten gut überein. Das ist eine gute Ausgangsbasis für die Bestimmung der Glasübergangstemperatur eines Copolymers mit einer beliebigen Zusammensetzung. N2 - The subject of this work is the synthesis and polymerization of monomers based on renewable material e. g. commercially available phenylpropanoides (eugenol, iso-eugenol, cinnamyl alcohol, anethol, and estragol) containing in spices and essential oils, the terpenoid myrtenol, as well as material derived from the bark of a birch (Betula pendula) and cork oak (Quercus suber). Selected phenylpropanoides (eugenol, iso-eugenol and cinnamyl alcohol) and the terpenoid myrtenol were first transferred to the lauryl ester followed by epoxidation of the olefinic structure to yield 4 new (2-methoxy-4-(oxiran-2-ylmethyl)-phenyl dodecanoate, 2-methoxy-4-(3-methyloxiran-2-yl)phenyl dodecanoate, (3-phenyloxiran-2-yl)methyl dodecanoate, (7,7-dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyl dodecanoate) and 2 already known monofunctional epoxides (2-(4-methoxybenzyl)oxirane and 2-(4-methoxy-phenyl)-3-methyloxirane), which were investigated using 1H-NMR-, 13C-NMR- and FT-IR- spectroscopy, and DSC. Photo-DSC investigation of the cationic polymerization of the epoxy monomers at 40 °C revealed the maximum polymerization rate (Rpmax: 0,005 s-1 to 0,038 s-1) and the time (tmax: 13 s to 26 s) to obtain the Rpmax value. Liquid oligomers were obtained with a number average degree of polymerization between 3 and 6, as determined by GPC. The reaction of 2-methoxy-4-(oxiran-2-ylmethyl)phenyl dodecanoate with methacrylic acid resulted in a mixture of isomers (2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)-phenyl dodecanoate and 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyl dodecanoate). Free radical photopolymerization of this isomeric mixture, studied by photo-DSC (Rpmax: 0,105 s-1 and tmax: 5 s), resulted in solid polymers that were insoluble in chloroform. Two crystalline ω-hydroxy fatty acids (9,10-epoxy-18-hydroxyoctadecanoic acid and 22-hydroxydocosanoic acid) were selectively isolated from cork powder and powdered birch bark. The cationic photopolymerization of 9,10-epoxy-18-hydroxyoctadecanoic acid resulted in a nearly colorless transparent film that was elastic at room temperature. Therefore, it has an application potential in the manufacture of coatings. The reaction of 9,10-epoxy-18-hydroxyoctadecanoic acid with methacrylic acid resulted in a mixture of two constitutional isomers (9,18-dihydroxy-10-(methacryloyloxy)octadecanoic acid and 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid), which is liquid at room temperature (Tg: -60 °C). The radical photopolymerization of these constitutional isomers was also studied by photo-DSC (Rpmax: 0,098 s-1 and tmax: 3,8 s). The reaction of 22-hydroxydocosanoic acid with methacryloyl chloride yielded crystalline 22-(methacryloyloxy)docosanoic acid, which was studied by photo-DSC in a radical photopolymerization (Rpmax: 0,023 s-1 and tmax: 9,6 s). The homopolymerization of both 22-(methacryloyloxy)docosanoic acid and the isomeric mixtures consisting of 2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate and 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyl dodecanoat as well as 9,18-dihydroxy-10-(methacryloyloxy)octadecanoic acid and 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid resulted in solid soluble polymers, which were characterized by 1H-NMR- and FT-IR-spectroscopy, GPC (poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxy-propyl)phenyl dodecanoate): Pn = 94), and DSC (poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxy-propyl)phenyl dodecanoate): Tg: 52 °C; poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecanoic acid / 9-(methacryloyloxy)-10,18-dihydroxyoctadecanoic acid): Tg: 10 °C; poly(22-(methacryloyloxy)docosanoic acid): Tm: 74,1 °C, this melting temperature is comparable to that of the photopolymer (Tm = 76,8 °C)). The already known monomer 4-(4-methacryloyloxyphenyl)butane-2-one was synthesized from 4-(4-hydroxyphenyl)butan-2-one obtained from birch bark and polymerized under identical conditions for comparison with the new monomers. The free radical polymerization resulted in poly(4-(4-methacryloyloxyphenyl)butan-2-one) (Pn: 214 and Tg: 83 °C). Besides the homopolymerization, a random copolymerization of the 2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyl dodecanoate / 2-methoxy-4-(2-(methacryloyl-oxy)-3-hydroxypropyl)phenyl dodecanoate isomer mixture with 4-(4-methacryloyloxyphenyl)butan-2-one was also investigated, which resulted in an increase in the yield, molecular weight distribution and dispersity of the copolymer (Tg: 44 °C) at a stoichiometric ratio of the monomers. The application of diethyl carbonate as „green“ solvent in the free radical homopolymerization of both 4-(4-methacryloyloxyphenyl)butan-2-one and lauryl methacrylate initiated with AIBN resulted in a comparable degree of polymerization of the homopolymers obtained (Pn: 150). However, due to the structural differences of the monomer segments, different glass transition temperatures were obtained for poly(4-(4-methacryloyloxyphenyl)butan-2-one) (Tg: 70 °C) and poly(lauryl methacrylate) (Tg: -49 °C). A random copolymerization of a stoichiometric ratio of the monomers in diethyl carbonate resulted in a slightly preferential incorporation of the 4-(4-methacryloyloxyphenyl)butan-2-one in the copolymer (Tg: 17 °C) after a polymerization time of 60 min. Copolymerization diagrams for free radical copolymerizations of 4-(4-methacryloyloxyphenyl)butan-2-one with either n-butyl methacrylate or 2-(dimethylamino)ethyl methacrylate (t: 20 min to 60 min; molar fraction (X) for 4-(4-methacryloyloxyphenyl)butan-2-one: 0,2; 0,4; 0,6 and 0,8) showed an almost ideal azeotropic copolymerization behavior, although a slightly preferential incorporation of the 4-(4-methacryloyloxyphenyl)butan-2-one was observed in the copolymers. An increase in both yield and glass transition temperature of the copolymers obtained correlated with an increasing content on 4-(4-methacryloyloxyphenyl)butan-2-one in the reaction mixture. Good agreement was found between the glass transition temperatures calculated using the modified Gibbs-DiMarzio equation and the measured values for the copolymers. This is a good basis for determining the glass transition temperature of a copolymer of any composition. KW - photoinitiierte kationische Polymerisation KW - Epoxide KW - epoxidierte Phenylpropanoide KW - epoxidierte Terpene KW - Copolymerisationsdiagramme KW - freie radikalische Polymerisation KW - Glasübergangstemperaturen KW - Methacrylate KW - Molmassen KW - statistische Copolymere KW - 9,10-Epoxy-18-hydroxyoctadecansäure KW - biobasierte Methacrylate KW - biobasierte Monomere KW - nachwachsende Rohstoffe KW - 22-Hydroxydocosansäure KW - photoinitiierte Polymerisation KW - Polymerisation KW - Betula pendula KW - Quercus suber KW - Birke KW - Korkeiche KW - Biomasse KW - Birkenrinde KW - grüne Chemie KW - Polymere KW - photoinitiierte freie radikalische Polymerisation KW - 22-hydroxydocosanoic acid KW - 9,10-epoxy-18-hydroxyoctadecanoic acid KW - Betula pendula KW - biomass KW - birch KW - birch bark KW - copolymerization diagrams KW - Epoxides KW - Glass transition temperatures KW - Cork oak KW - Methacrylates KW - Molar masses KW - polymers KW - polymerization KW - Quercus suber KW - bio-based methacrylates KW - bio-based monomers KW - epoxidized phenylpropanoids KW - epoxidized terpenes KW - free radical polymerization KW - green chemistry KW - renewable raw materials KW - photoinitiated polymerization KW - photoinitiated free radical KW - photoinitiated cationic polymerization KW - random copolymers KW - photopolymerization KW - Baumrinde KW - Rinde KW - tree bark KW - bark KW - Photopolymerisation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-637943 ER - TY - THES A1 - Hempel, Elisabeth T1 - Resolving the evolutionary history of two hippotragin antelopes using archival and ancient DNA N2 - African antelopes are iconic but surprisingly understudied in terms of their genetics, especially when it comes to their evolutionary history and genetic diversity. The age of genomics provides an opportunity to investigate evolution using whole nuclear genomes. Decreasing sequencing costs enable the recovery of multiple loci per genome, giving more power to single specimen analyses and providing higher resolution insights into species and populations that can help guide conservation efforts. This age of genomics has only recently begun for African antelopes. Many African bovids have a declining population trend and hence, are often endangered. Consequently, contemporary samples from the wild are often hard to collect. In these cases, ex situ samples from contemporary captive populations or in the form of archival or ancient DNA (aDNA) from historical museum or archaeological/paleontological specimens present a great research opportunity with the latter two even offering a window to information about the past. However, the recovery of aDNA is still considered challenging from regions with prevailing climatic conditions that are deemed adverse for DNA preservation like the African continent. This raises the question if DNA recovery from fossils as old as the early Holocene from these regions is possible. This thesis focuses on investigating the evolutionary history and genetic diversity of two species: the addax (Addax nasomaculatus) and the blue antelope (Hippotragus leucophaeus). The addax is critically endangered and might even already be extinct in the wild, while the blue antelope became extinct ~1800 AD, becoming the first extinct large African mammal species in historical times. Together, the addax and the blue antelope can inform us about current and past extinction events and the knowledge gained can help guide conservation efforts of threatened species. The three studies used ex situ samples and present the first nuclear whole genome data for both species. The addax study used historical museum specimens and a contemporary sample from a captive population. The two studies on the blue antelope used mainly historical museum specimens but also fossils, and resulted in the recovery of the oldest paleogenome from Africa at that time. The aim of the first study was to assess the genetic diversity and the evolutionary history of the addax. It found that the historical wild addax population showed only limited phylogeographic structuring, indicating that the addax was a highly mobile and panmictic population and suggesting that the current European captive population might be missing the majority of the historical mitochondrial diversity. It also found the nuclear and mitochondrial diversity in the addax to be rather low compared to other wild ungulate species. Suggestions on how to best save the remaining genetic diversity are presented. The European zoo population was shown to exhibit no or only minor levels of inbreeding, indicating good prospects for the restoration of the species in the wild. The trajectory of the addax’s effective population size indicated a major bottleneck in the late Pleistocene and a low effective population size well before recent human impact led to the species being critically endangered today. The second study set out to investigate the identities of historical blue antelope specimens using aDNA techniques. Results showed that six out of ten investigated specimens were misidentified, demonstrating the blue antelope to be one of the scarcest mammal species in historical natural history collections, with almost no bone reference material. The preliminary analysis of the mitochondrial genomes suggested a low diversity and hence low population size at the time of the European colonization of southern Africa. Study three presents the results of the analyses of two blue antelope nuclear genomes, one ~200 years old and another dating to the early Holocene, 9,800–9,300 cal years BP. A fossil-calibrated phylogeny dated the divergence time of the three historically extant Hippotragus species to ~2.86 Ma and demonstrated the blue and the sable antelope (H. niger) to be sister species. In addition, ancient gene flow from the roan (H. equinus) into the blue antelope was detected. A comparison with the roan and the sable antelope indicated that the blue antelope had a much lower nuclear diversity, suggesting a low population size since at least the early Holocene. This concurs with findings from the fossil record that show a considerable decline in abundance after the Pleistocene–Holocene transition. Moreover, it suggests that the blue antelope persisted throughout the Holocene regardless of a low population size, indicating that human impact in the colonial era was a major factor in the blue antelope’s extinction. This thesis uses aDNA analyses to provide deeper insights into the evolutionary history and genetic diversity of the addax and the blue antelope. Human impact likely was the main driver of extinction in the blue antelope, and is likely the main factor threatening the addax today. This thesis demonstrates the value of ex situ samples for science and conservation, and suggests to include genetic data for conservation assessments of species. It further demonstrates the beneficial use of aDNA for the taxonomic identification of historically important specimens in natural history collections. Finally, the successful retrieval of a paleogenome from the early Holocene of Africa using shotgun sequencing shows that DNA retrieval from samples of that age is possible from regions generally deemed unfavorable for DNA preservation, opening up new research opportunities. All three studies enhance our knowledge of African antelopes, contributing to the general understanding of African large mammal evolution and to the conservation of these and similarly threatened species. N2 - Afrikanische Antilopen sind sehr bekannte Tiere. Allerdings sind sie genetisch wenig untersucht, vor allem hinsichtlich ihrer Evolutionsgeschichte und genetischen Diversität. Das Zeitalter der Genomik ermöglicht es, Evolution mit Hilfe von kompletten nukleären Genomen zu untersuchen. Durch sinkende Sequenzierkosten können zahlreiche Genloci pro Genom gewonnen werden, wodurch Analysen mit nur einem Exemplar mehr Aussagekraft zukommt und tiefere Erkenntnisse über Arten und Populationen zulassen, die Artenschutzbemühungen unterstützen können. Für afrikanische Antilopen hat dieses Zeitalter gerade erst begonnen. Viele afrikanische Boviden haben einen sinkenden Populationstrend und sind daher häufig gefährdet. Dies erschwert es oft, Proben freilebender Tiere zu bekommen. In diesen Fällen bieten ex situ Proben von in Gefangenschaft lebenden Tieren oder in Form von alter DNA (aDNA) aus naturhistorischen Sammlungen eine gute Forschungsmöglichkeit. Letztere ermöglicht zudem den Zugang zu Informationen aus der Vergangenheit. Es gilt noch immer als Herausforderung, aDNA aus Regionen zu erlangen, deren Bedingungen schlecht für den Erhalt von DNA sind. Dies wirft die Frage auf, ob es möglich ist, aDNA aus Fossilien vom Beginn des Holozäns aus Afrika zu erhalten. Das Ziel dieser Doktorarbeit war die Erforschung der Evolutionsgeschichte und der genetischen Diversität der Mendesantilope (Addax nasomaculatus) und des Blaubocks (Hippotragus leucophaeus). Die Mendesantilope ist vom Aussterben bedroht und könnte in freier Wildbahn bereits ausgestorben sein. Der Blaubock starb ca. 1800 aus und war das erste afrikanische Großsäugetier, das in historischer Zeit ausstarb. Beide Arten können unsere Kenntnisse über derzeitige und vergangene Aussterbeereignisse erweitern, um den Schutz bedrohter Arten zu unterstützen. Die drei Studien dieser Doktorarbeit nutzten ex situ Proben und präsentieren die ersten kompletten nukleären Genome dieser beiden Arten. Die Studie über die Mendesantilope nutzte historische Präparate aus naturhistorischen Sammlungen sowie eine rezente Probe eines Tieres aus Gefangenschaft. Beide Blaubock-Studien nutzten vor allem Präparate aus naturhistorischen Sammlungen, aber auch Fossilien, woraus das zu diesem Zeitpunkt älteste Paläogenom aus Afrika resultierte. Die erste Studie untersuchte die genetische Diversität und Evolutionsgeschichte der Mendesantilope. Es zeigte sich, dass ihre historische Wildpopulation nur eine geringe phylogeographische Strukturierung aufwies, was auf eine sehr mobile und panmiktische Population hindeutet. Dies legt nahe, dass die rezente europäische Zoopopulation vermutlich Großteile der historischen mitochondrialen Diversität verloren hat. Zusätzlich zeigte sich, dass die nukleäre und mitochondriale Diversität relativ gering waren im Vergleich zu anderen wilden Huftierarten. Es werden Möglichkeiten zum Erhalt der verbliebenen Diversität aufgezeigt. Die europäische Zoopopulation zeigte keine beziehungsweise nur geringe Anzeichen von Inzucht, was für gute Wiederauswilderungsaussichten spricht. Die effektive Populationsgröße der Mendesantilope weist einen starken genetischen Flaschenhals im späten Pleistozän auf. Zudem war sie bereits deutlich niedrig, bevor der derzeitige menschliche Einfluss zu ihrer heutigen Bedrohung führte. Die zweite Stude untersuchte mit Hilfe von aDNA die Identitäten historischer Blaubock-Präparate. Nur vier der zehn untersuchten Präparate stellten sich als Blauböcke heraus. Somit ist der Blaubock eine der seltensten Säugetierarten in naturhistorischen Sammlungen, für die es zudem kaum Knochenreferenzmaterial gibt. Die vorläufige Analyse des mitochondrialen Genoms deutet auf eine geringe Diversität und daher eine geringe Populationsgröße zur Zeit der europäischen Kolonialisierung Südafrikas hin. Die dritte Studie analysierte zwei nukleäre Blaubockgenome, ein ~200 Jahre altes Präparat und eines aus dem frühen Holozän, 9.800–9.300 Jahre. Ein mit Hilfe von Fossilien kalibrierter Stammbaum datiert die Aufspaltung der drei historisch rezenten Hippotragus-Arten auf ~2,86 Mio. Jahre und zeigt die Rappenantilope (H. niger) und den Blaubock als Schwesterarten. Darüber hinaus wurde früherer Genfluss der Pferdeantilope (H. equinus) zum Blaubock festgestellt. Der Vergleich der drei Hippotragus-Arten legt nahe, dass der Blaubock eine deutlich geringere nukleäre Diversität besaß und somit seit mindestens dem frühen Holozän nur über eine geringe Populationsgröße verfügte. Dies stimmt mit Ergebnissen aus dem Fossilbericht überein, die eine deutliche Häufigkeitsabnahme nach dem Übergang des Pleistozäns zum Holozän aufzeigen. Außerdem suggeriert es, dass der Blaubock unabhängig von einer geringen Populationsgröße das Holozän überdauerte und sein Aussterben stark durch den Menschen während der Kolonialzeit beeinflusst wurde. Diese Doktorarbeit bietet mit Hilfe von aDNA gewonnene Erkenntnisse über die Evolutionsgeschichte und die genetische Diversität der Mendesantilope und des Blaubocks. Der menschliche Einfluss war vermutlich der Hauptaussterbegrund des Blaubocks. Dies gilt wahrscheinlich ebenso für die heutige Bedrohung der Mendesantilope. Diese Doktorarbeit zeigt den Wert von ex situ Proben für die Wissenschaft und den Artenschutz und legt die Einbindung von genetischen Daten für die Bewertung des Gefährdungsstatus einer Art nahe. Des Weiteren demonstriert sie die Nutzung von aDNA für taxonomische Bestimmungen von historisch wichtigen Präparaten in naturhistorischen Sammlungen. Die erfolgreiche Gewinnung eines Paläogenoms aus dem frühen Holozän Afrikas mittels shotgun-Sequenzierung zeigt, dass die DNA-Gewinnung aus Proben diesen Alters aus Regionen möglich ist, deren Bedingungen allgemein als ungünstig für den Erhalt von DNA gelten. Dies eröffnet neue Forschungsmöglichkeiten. Alle drei Studien erweitern unser Wissen über afrikanische Antilopen und tragen damit zum allgemeinen Verständnis der Evolution von afrikanischen Großsäugetieren sowie zu deren Erhalt und dem ähnlich gefährdeter Arten bei. KW - Addax nasomaculatus KW - antelope KW - aDNA KW - conservation KW - museomics KW - extinction KW - South Africa KW - Blue antelope KW - Hippotragus leucophaeus KW - bluebuck KW - Addax nasomaculatus KW - Blaubock KW - Hippotragus leucophaeus KW - Südafrika KW - aDNA KW - Antilope KW - Artenschutz KW - Aussterben KW - museomics Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647718 ER - TY - THES A1 - Hippel, Barbara von T1 - Long-term bacteria-fungi-plant associations in permafrost soils inferred from palaeometagenomics N2 - The arctic is warming 2 – 4 times faster than the global average, resulting in a strong feedback on northern ecosystems such as boreal forests, which cover a vast area of the high northern latitudes. With ongoing global warming, the treeline subsequently migrates northwards into tundra areas. The consequences of turning ecosystems are complex: on the one hand, boreal forests are storing large amounts of global terrestrial carbon and act as a carbon sink, dragging carbon dioxide out of the global carbon cycle, suggesting an enhanced carbon uptake with increased tree cover. On the other hand, with the establishment of trees, the albedo effect of tundra decreases, leading to enhanced soil warming. Meanwhile, permafrost thaws, releasing large amounts of previously stored carbon into the atmosphere. So far, mainly vegetation dynamics have been assessed when studying the impact of warming onto ecosystems. Most land plants are living in close symbiosis with bacterial and fungal communities, sustaining their growth in nutrient poor habitats. However, the impact of climate change on these subsoil communities alongside changing vegetation cover remains poorly understood. Therefore, a better understanding of soil community dynamics on multi millennial timescales is inevitable when addressing the development of entire ecosystems. Unravelling long-term cross-kingdom dependencies between plant, fungi, and bacteria is not only a milestone for the assessment of warming on boreal ecosystems. On top, it also is the basis for agriculture strategies to sustain society with sufficient food in a future warming world. The first objective of this thesis was to assess ancient DNA as a proxy for reconstructing the soil microbiome (Manuscripts I, II, III, IV). Research findings across these projects enable a comprehensive new insight into the relationships of soil microorganisms to the surrounding vegetation. First, this was achieved by establishing (Manuscript I) and applying (Manuscript II) a primer pair for the selective amplification of ancient fungal DNA from lake sediment samples with the metabarcoding approach. To assess fungal and plant co-variation, the selected primer combination (ITS67, 5.8S) amplifying the ITS1 region was applied on samples from five boreal and arctic lakes. The obtained data showed that the establishment of fungal communities is impacted by warming as the functional ecological groups are shifting. Yeast and saprotroph dominance during the Late Glacial declined with warming, while the abundance of mycorrhizae and parasites increased with warming. The overall species richness was also alternating. The results were compared to shotgun sequencing data reconstructing fungi and bacteria (Manuscripts III, IV), yielding overall comparable results to the metabarcoding approach. Nonetheless, the comparison also pointed out a bias in the metabarcoding, potentially due to varying ITS lengths or copy numbers per genome. The second objective was to trace fungus-plant interaction changes over time (Manuscripts II, III). To address this, metabarcoding targeting the ITS1 region for fungi and the chloroplast P6 loop for plants for the selective DNA amplification was applied (Manuscript II). Further, shotgun sequencing data was compared to the metabarcoding results (Manuscript III). Overall, the results between the metabarcoding and the shotgun approaches were comparable, though a bias in the metabarcoding was assumed. We demonstrated that fungal shifts were coinciding with changes in the vegetation. Yeast and lichen were mainly dominant during the Late Glacial with tundra vegetation, while warming in the Holocene lead to the expansion of boreal forests with increasing mycorrhizae and parasite abundance. Aside, we highlighted that Pinaceae establishment is dependent on mycorrhizal fungi such as Suillineae, Inocybaceae, or Hyaloscypha species also on long-term scales. The third objective of the thesis was to assess soil community development on a temporal gradient (Manuscripts III, IV). Shotgun sequencing was applied on sediment samples from the northern Siberian lake Lama and the soil microbial community dynamics compared to ecosystem turnover. Alongside, podzolization processes from basaltic bedrock were recovered (Manuscript III). Additionally, the recovered soil microbiome was compared to shotgun data from granite and sandstone catchments (Manuscript IV, Appendix). We assessed if the establishment of the soil microbiome is dependent on the plant taxon and as such comparable between multiple geographic locations or if the community establishment is driven by abiotic soil properties and as such the bedrock area. We showed that the development of soil communities is to a great extent driven by the vegetation changes and temperature variation, while time only plays a minor role. The analyses showed general ecological similarities especially between the granite and basalt locations, while the microbiome on species-level was rather site-specific. A greater number of correlated soil taxa was detected for deep-rooting boreal taxa in comparison to grasses with shallower roots. Additionally, differences between herbaceous taxa of the late Glacial compared to taxa of the Holocene were revealed. With this thesis, I demonstrate the necessity to investigate subsoil community dynamics on millennial time scales as it enables further understanding of long-term ecosystem as well as soil development processes and such plant establishment. Further, I trace long-term processes leading to podzolization which supports the development of applied carbon capture strategies under future global warming. N2 - Die Arktis erwärmt sich schneller als der weltweite Durschnitt, was die dortigen Ökosysteme wie die borealen Nadelwälder stark beeinflusst. Die Baumgrenze verschiebt sich durch veränderte Wachstumsbedingungen nach Norden und breitet sich in Tundra-Gegenden aus. Das führt zu komplexen Auswirkungen auf den Kohlenstoffkreislauf, da durch das Baumwachstum vermehrt CO2 im Boden gespeichert wird. Andererseits wird der Albedo-Effekt der Tundra verringert und der Boden erwärmt sich verstärkt. Das wiederum führt zum Tauen von Permafrost und setzt große Mengen an gespeichertem Kohlenstoff frei. Bislang wurde vor allem die Auswirkung der Erwärmung auf Vegetationsdynamiken untersucht. Für ein gesundes Pflanzenwachstum stehen die meisten Landpflanzen in engem Austausch mit einer Vielzahl an Bakterien und Pilzen. Es ist bislang wenig verstanden, wie diese Bodengemeinschaften durch den Klimawandel beeinflusst werden. Es ist deshalb notwendig, verstärkt auch die Langzeitabhängigkeiten der Pflanzen von Mikroorganismen zu betrachten. Dies ist nicht nur ein Meilenstein bei der Untersuchung des Klimawandels auf arktische Ökosysteme. Zudem wird so die Entwicklung angepasster Strategien im Bereich der Landwirtschaft ermöglicht, was die Grundlage dafür ist, die wachsende Bevölkerung auch in Zukunft mit ausreichend Nahrungsmitteln versorgen zu können. Im ersten Teil meiner Arbeit untersuche ich das Potential, die Dynamiken von Bodenmikroorganismen aus Seesedimenten zu rekonstruieren. Ich habe gezeigt, dass molekulargenetische Analysen das sowohl für Pilze als auch Bakterien auf großen Zeitskalen ermöglichen. Eine Zuweisung der Mikroorganismen zu ihren Funktionen im Ökosystem ermöglichte, Dynamiken in den Nährstoffkreisläufen sowie in Pilzökologien zu verstehen. Die Analyse der komplexen Assoziationen von Pilzen und Pflanzen bildete den zweiten Teil meiner Arbeit. Hier konnte ich zeigen, dass Pilze und Pflanzen spezifische Muster in ihren Vorkommen miteinander zeigen und dass die Vegetation das Pilzvorkommen auch auf großen Zeitskalen beeinflusst. Die Tundravegetation des Spätglazials war vor allem von Flechten und Hefevorkommen dominiert, während die Einwanderung von borealen Wäldern in die untersuchten Gebiete zu zunehmder Mykorrhiza- und Parasitenverbreitung führte. Ich habe auch gezeigt, dass die Etablierung von Pinaceen langfristig von spezifischen Mykorrhiza-Pilzen wie Suillineae, Inocybaceae oder Hyaloscypha-Arten abhängt. Das dritte Ziel meiner Arbeit war es, zeitliche Dynamiken in der Zusammensetzung von Bodenorganismen im Bezug zur Entstehung von Böden zu rekonstruieren. Mir gelang es, die Verwitterung von Basalt nachzuvollziehen und daraus die Entstehung von Podsol abzuleiten. Ein Vergleich zu Bodengesellschaften aus Granit- und Sandstein-Einzugsgebieten zeigte, dass sich die Granit- und Basalt-Bodeneigenschaften ähneln. Allerdings zeigten die Pflanzen an den Standorten ein sehr ortsspezifisches Mikrobiom und somit eine lokale Anpassung an die Wachstumsbedingungen. Ich konnte mit dieser Arbeit zeigen, dass die Rekonstruktion von Bodenmikroorganismen im Vergleich zur Vegetation einen Einblick in Ökosystemdynamiken unter Klimawandel ermöglicht. Dies ermöglicht ein besseres Verständnis von Bodenentstehungsprozessen und vereinfacht die Entwicklung angewandter carbon capture Strategien. KW - sedimentary ancient DNA KW - ecology KW - lake sediment KW - Arctic KW - ecosystem reconstruction KW - climate change KW - treeline dynamics KW - microbial soil communities KW - plant-microbe interactions KW - Arktis KW - Klimawandel KW - Ökologie KW - Ökosystem-Rekonstruktion KW - Seesediment KW - mikrobielle Bodengemeinschaften KW - Pflanzen-Mikroben-Interaktionen KW - sedimentary ancient DNA KW - Baumgrenzen-Dynamik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636009 ER - TY - THES A1 - Hodapp, Alice T1 - Error-based learning in predictive language processing at the level of meaning T1 - Fehlerbasiertes Lernen in prädiktiver Sprachverarbeitung auf semantischer Ebene N2 - Prediction is often regarded as a central and domain-general aspect of cognition. This proposal extends to language, where predictive processing might enable the comprehension of rapidly unfolding input by anticipating upcoming words or their semantic features. To make these predictions, the brain needs to form a representation of the predictive patterns in the environment. Predictive processing theories suggest a continuous learning process that is driven by prediction errors, but much is still to be learned about this mechanism in language comprehension. This thesis therefore combined three electroencephalography (EEG) experiments to explore the relationship between prediction and implicit learning at the level of meaning. Results from Study 1 support the assumption that the brain constantly infers und updates probabilistic representations of the semantic context, potentially across multiple levels of complexity. N400 and P600 brain potentials could be predicted by semantic surprise based on a probabilistic estimate of previous exposure and a more complex probability representation, respectively. Subsequent work investigated the influence of prediction errors on the update of semantic predictions during sentence comprehension. In line with error-based learning, unexpected sentence continuations in Study 2 ¬– characterized by large N400 amplitudes ¬– were associated with increased implicit memory compared to expected continuations. Further, Study 3 indicates that prediction errors not only strengthen the representation of the unexpected word, but also update specific predictions made from the respective sentence context. The study additionally provides initial evidence that the amount of unpredicted information as reflected in N400 amplitudes drives this update of predictions, irrespective of the strength of the original incorrect prediction. Together, these results support a central assumption of predictive processing theories: A probabilistic predictive representation at the level of meaning that is updated by prediction errors. They further propose the N400 ERP component as a possible learning signal. The results also emphasize the need for further research regarding the role of the late positive ERP components in error-based learning. The continuous error-based adaptation described in this thesis allows the brain to improve its predictive representation with the aim to make better predictions in the future. N2 - Prädiktive Verarbeitung wird häufig als zentraler und domänenübergreifender Aspekt der Kognition betrachtet. Diese Idee bezieht sich auch auf Sprachverarbeitung, wo die Antizipation kommender Wörter oder ihrer semantischen Merkmale die Verarbeitung von sich schnell entfaltendem Sprachinput ermöglichen könnte. Um solche Vorhersagen treffen zu können, muss das Gehirn eine Repräsentation der prädiktiven Muster in der Umgebung aufbauen. Theorien zur prädiktiven Verarbeitung gehen von einem kontinuierlichen Lernprozess aus, welcher durch Vorhersagefehler angetrieben wird. Dennoch bleiben noch viele Fragen über diesen Mechanismus der Sprachverarbeitung offen. In dieser Arbeit wurden daher drei Elektroenzephalographie (EEG) Experimente kombiniert, um die Beziehung zwischen Vorhersage und implizitem Lernen auf semantischer Ebene zu untersuchen. Die Ergebnisse aus Studie 1 unterstützen die Annahme, dass das Gehirn kontinuierlich probabilistische Repräsentationen des semantischen Kontexts ableitet und aktualisiert, möglicherweise über mehrere Komplexitätsebenen hinweg. N400- und P600-Gehirnpotenziale konnten durch überraschende Information in Bezug auf eine probabilistische Schätzung vorhergesagt werden, welche entweder auf bisheriger Exposition oder einer komplexeren Wahrscheinlichkeitsrepräsentation basierte. In einer weiteren Arbeit wurde der Einfluss von Vorhersagefehlern auf die Aktualisierung semantischer Vorhersagen während der Satzverarbeitung untersucht. In Übereinstimmung mit der Idee des fehlerbasierten Lernens waren unerwartete Satzfortsetzungen in Studie 2 - gekennzeichnet durch große N400-Amplituden - durch erhöhtes impliziten Gedächtnis im Vergleich zu erwarteten Fortsetzungen gekennzeichnet. Darüber hinaus zeigte Studie 3, dass Vorhersagefehler nicht nur die Repräsentation des unerwarteten Wortes stärken, sondern auch zukünftige Vorhersagen aus dem jeweiligen Satzkontext aktualisieren. Die Studie liefert zudem erste Belege dafür, dass die Menge an nicht vorhergesagter Information, die sich auch in den N400-Amplituden widerspiegelt, die beschriebene Aktualisierung der Vorhersagen vorantreibt, unabhängig von der Stärke der ursprünglichen (widerlegten) Vorhersage. Zusammengenommen unterstützen diese Ergebnisse eine zentrale Annahme der Theorien zur prädiktiven Verarbeitung: Eine probabilistische prädiktive Repräsentation auf semantischer Ebene, die durch Vorhersagefehler aktualisiert wird. Außerdem stützen sie die Theorie der N400-ERP-Komponente als ein mögliches Lernsignal. Die Ergebnisse unterstreichen auch die Notwendigkeit weiterer Forschung hinsichtlich der Rolle der späten positiven ERP-Komponenten beim fehlerbasierten Lernen. Das in dieser Arbeit beschriebene kontinuierliche fehlerbasierte Lernen ermöglicht dem Gehirn, seine prädiktive Repräsentation zu verbessern, mit dem Ziel in Zukunft bessere Vorhersagen zu treffen. KW - electroencephalography KW - N400 KW - P600 KW - implicit memory KW - learning KW - language processing KW - prediction KW - Elektroenzephalographie KW - N400 KW - P600 KW - implizites Gedächtnis KW - Lernen KW - Sprachverarbeitung KW - Vorhersage Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-657179 ER - TY - THES A1 - Huegle, Johannes T1 - Causal discovery in practice: Non-parametric conditional independence testing and tooling for causal discovery T1 - Kausale Entdeckung in der Praxis: Nichtparametrische bedingte Unabhängigkeitstests und Werkzeuge für die Kausalentdeckung N2 - Knowledge about causal structures is crucial for decision support in various domains. For example, in discrete manufacturing, identifying the root causes of failures and quality deviations that interrupt the highly automated production process requires causal structural knowledge. However, in practice, root cause analysis is usually built upon individual expert knowledge about associative relationships. But, "correlation does not imply causation", and misinterpreting associations often leads to incorrect conclusions. Recent developments in methods for causal discovery from observational data have opened the opportunity for a data-driven examination. Despite its potential for data-driven decision support, omnipresent challenges impede causal discovery in real-world scenarios. In this thesis, we make a threefold contribution to improving causal discovery in practice. (1) The growing interest in causal discovery has led to a broad spectrum of methods with specific assumptions on the data and various implementations. Hence, application in practice requires careful consideration of existing methods, which becomes laborious when dealing with various parameters, assumptions, and implementations in different programming languages. Additionally, evaluation is challenging due to the lack of ground truth in practice and limited benchmark data that reflect real-world data characteristics. To address these issues, we present a platform-independent modular pipeline for causal discovery and a ground truth framework for synthetic data generation that provides comprehensive evaluation opportunities, e.g., to examine the accuracy of causal discovery methods in case of inappropriate assumptions. (2) Applying constraint-based methods for causal discovery requires selecting a conditional independence (CI) test, which is particularly challenging in mixed discrete-continuous data omnipresent in many real-world scenarios. In this context, inappropriate assumptions on the data or the commonly applied discretization of continuous variables reduce the accuracy of CI decisions, leading to incorrect causal structures. Therefore, we contribute a non-parametric CI test leveraging k-nearest neighbors methods and prove its statistical validity and power in mixed discrete-continuous data, as well as the asymptotic consistency when used in constraint-based causal discovery. An extensive evaluation of synthetic and real-world data shows that the proposed CI test outperforms state-of-the-art approaches in the accuracy of CI testing and causal discovery, particularly in settings with low sample sizes. (3) To show the applicability and opportunities of causal discovery in practice, we examine our contributions in real-world discrete manufacturing use cases. For example, we showcase how causal structural knowledge helps to understand unforeseen production downtimes or adds decision support in case of failures and quality deviations in automotive body shop assembly lines. N2 - Kenntnisse über die Strukturen zugrundeliegender kausaler Mechanismen sind eine Voraussetzung für die Entscheidungsunterstützung in verschiedenen Bereichen. In der Fertigungsindustrie beispielsweise erfordert die Fehler-Ursachen-Analyse von Störungen und Qualitätsabweichungen, die den hochautomatisierten Produktionsprozess unterbrechen, kausales Strukturwissen. In Praxis stützt sich die Fehler-Ursachen-Analyse in der Regel jedoch auf individuellem Expertenwissen über assoziative Zusammenhänge. Aber "Korrelation impliziert nicht Kausalität", und die Fehlinterpretation assoziativer Zusammenhänge führt häufig zu falschen Schlussfolgerungen. Neueste Entwicklungen von Methoden des kausalen Strukturlernens haben die Möglichkeit einer datenbasierten Betrachtung eröffnet. Trotz seines Potenzials zur datenbasierten Entscheidungsunterstützung wird das kausale Strukturlernen in der Praxis jedoch durch allgegenwärtige Herausforderungen erschwert. In dieser Dissertation leisten wir einen dreifachen Beitrag zur Verbesserung des kausalen Strukturlernens in der Praxis. (1) Das wachsende Interesse an kausalem Strukturlernen hat zu einer Vielzahl von Methoden mit spezifischen statistischen Annahmen über die Daten und verschiedenen Implementierungen geführt. Daher erfordert die Anwendung in der Praxis eine sorgfältige Prüfung der vorhandenen Methoden, was eine Herausforderung darstellt, wenn verschiedene Parameter, Annahmen und Implementierungen in unterschiedlichen Programmiersprachen betrachtet werden. Hierbei wird die Evaluierung von Methoden des kausalen Strukturlernens zusätzlich durch das Fehlen von "Ground Truth" in der Praxis und begrenzten Benchmark-Daten, welche die Eigenschaften realer Datencharakteristiken widerspiegeln, erschwert. Um diese Probleme zu adressieren, stellen wir eine plattformunabhängige modulare Pipeline für kausales Strukturlernen und ein Tool zur Generierung synthetischer Daten vor, die umfassende Evaluierungsmöglichkeiten bieten, z.B. um Ungenauigkeiten von Methoden des Lernens kausaler Strukturen bei falschen Annahmen an die Daten aufzuzeigen. (2) Die Anwendung von constraint-basierten Methoden des kausalen Strukturlernens erfordert die Wahl eines bedingten Unabhängigkeitstests (CI-Test), was insbesondere bei gemischten diskreten und kontinuierlichen Daten, die in vielen realen Szenarien allgegenwärtig sind, die Anwendung erschwert. Beispielsweise führen falsche Annahmen der CI-Tests oder die Diskretisierung kontinuierlicher Variablen zu einer Verschlechterung der Korrektheit der Testentscheidungen, was in fehlerhaften kausalen Strukturen resultiert. Um diese Probleme zu adressieren, stellen wir einen nicht-parametrischen CI-Test vor, der auf Nächste-Nachbar-Methoden basiert, und beweisen dessen statistische Validität und Trennschärfe bei gemischten diskreten und kontinuierlichen Daten, sowie dessen asymptotische Konsistenz in constraint-basiertem kausalem Strukturlernen. Eine umfangreiche Evaluation auf synthetischen und realen Daten zeigt, dass der vorgeschlagene CI-Test bestehende Verfahren hinsichtlich der Korrektheit der Testentscheidung und gelernter kausaler Strukturen übertrifft, insbesondere bei geringen Stichprobengrößen. (3) Um die Anwendbarkeit und Möglichkeiten kausalen Strukturlernens in der Praxis aufzuzeigen, untersuchen wir unsere Beiträge in realen Anwendungsfällen aus der Fertigungsindustrie. Wir zeigen an mehreren Beispielen aus der automobilen Karosseriefertigungen wie kausales Strukturwissen helfen kann, unvorhergesehene Produktionsausfälle zu verstehen oder eine Entscheidungsunterstützung bei Störungen und Qualitätsabweichungen zu geben. KW - causal discovery KW - causal structure learning KW - causal AI KW - non-parametric conditional independence testing KW - manufacturing KW - causal reasoning KW - mixed data KW - kausale KI KW - kausale Entdeckung KW - kausale Schlussfolgerung KW - kausales Strukturlernen KW - Fertigung KW - gemischte Daten KW - nicht-parametrische bedingte Unabhängigkeitstests Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635820 ER - TY - THES A1 - Hussein, Mahmoud T1 - Solvent engineering for highly-efficiency lead-free perovskite solar cells T1 - Lösungsmitteltechnik für hocheffiziente Zinn-Perowskit-Solarzellen N2 - Global warming, driven primarily by the excessive emission of greenhouse gases such as carbon dioxide into the atmosphere, has led to severe and detrimental environmental impacts. Rising global temperatures have triggered a cascade of adverse effects, including melting glaciers and polar ice caps, more frequent and intense heat waves disrupted weather patterns, and the acidification of oceans. These changes adversely affect ecosystems, biodiversity, and human societies, threatening food security, water availability, and livelihoods. One promising solution to mitigate the harmful effects of global warming is the widespread adoption of solar cells, also known as photovoltaic cells. Solar cells harness sunlight to generate electricity without emitting greenhouse gases or other pollutants. By replacing fossil fuel-based energy sources, solar cells can significantly reduce CO2 emissions, a significant contributor to global warming. This transition to clean, renewable energy can help curb the increasing concentration of greenhouse gases in the atmosphere, thereby slowing down the rate of global temperature rise. Solar energy’s positive impact extends beyond emission reduction. As solar panels become more efficient and affordable, they empower individuals, communities, and even entire nations to generate electricity and become less dependent on fossil fuels. This decentralized energy generation can enhance resilience in the face of climate-related challenges. Moreover, implementing solar cells creates green jobs and stimulates technological innovation, further promoting sustainable economic growth. As solar technology advances, its integration with energy storage systems and smart grids can ensure a stable and reliable energy supply, reducing the need for backup fossil fuel power plants that exacerbate environmental degradation. The market-dominant solar cell technology is silicon-based, highly matured technology with a highly systematic production procedure. However, it suffers from several drawbacks, such as: 1) Cost: still relatively high due to high energy consumption due to the need to melt and purify silicon, and the use of silver as an electrode, which hinders their widespread availability, especially in low-income countries. 2) Efficiency: theoretically, it should deliver around 29%; however, the efficiency of most of the commercially available silicon-based solar cells ranges from 18 – 22%. 3) Temperature sensitivity: The efficiency decreases with the increase in the temperature, affecting their output. 4) Resource constraints: silicon as a raw material is unavailable in all countries, creating supply chain challenges. Perovskite solar cells arose in 2011 and matured very rapidly in the last decade as a highly efficient and versatile solar cell technology. With an efficiency of 26%, high absorption coefficients, solution processability, and tunable band gap, it attracted the attention of the solar cells community. It represented a hope for cheap, efficient, and easily processable next-generation solar cells. However, lead toxicity might be the block stone hindering perovskite solar cells’ market reach. Lead is a heavy and bioavailable element that makes perovskite solar cells environmentally unfriendly technology. As a result, scientists try to replace lead with a more environmentally friendly element. Among several possible alternatives, tin was the most suitable element due to its electronic and atomic structure similarity to lead. Tin perovskites were developed to alleviate the challenge of lead toxicity. Theoretically, it shows very high absorption coefficients, an optimum band gap of 1.35 eV for FASnI3, and a very high short circuit current, which nominates it to deliver the highest possible efficiency of a single junction solar cell, which is around 30.1% according to Schockly-Quisser limit. However, tin perovskites’ efficiency still lags below 15% and is irreproducible, especially from lab to lab. This humble performance could be attributed to three reasons: 1) Tin (II) oxidation to tin (IV), which would happen due to oxygen, water, or even by the effect of the solvent, as was discovered recently. 2) fast crystallization dynamics, which occurs due to the lateral exposure of the P-orbitals of the tin atom, which enhances its reactivity and increases the crystallization pace. 3) Energy band misalignment: The energy bands at the interfaces between the perovskite absorber material and the charge selective layers are not aligned, leading to high interfacial charge recombination, which devastates the photovoltaic performance. To solve these issues, we implemented several techniques and approaches that enhanced the efficiency of tin halide perovskites, providing new chemically safe solvents and antisolvents. In addition, we studied the energy band alignment between the charge transport layers and the tin perovskite absorber. Recent research has shown that the principal source of tin oxidation is the solvent known as dimethylsulfoxide, which also happens to be one of the most effective solvents for processing perovskite. The search for a stable solvent might prove to be the factor that makes all the difference in the stability of tin-based perovskites. We started with a database of over 2,000 solvents and narrowed it down to a series of 12 new solvents that are suitable for processing FASnI3 experimentally. This was accomplished by looking into 1) the solubility of the precursor chemicals FAI and SnI2, 2) the thermal stability of the precursor solution, and 3) the potential to form perovskite. Finally, we show that it is possible to manufacture solar cells using a novel solvent system that outperforms those produced using DMSO. The results of our research give some suggestions that may be used in the search for novel solvents or mixes of solvents that can be used to manufacture stable tin-based perovskites. Due to the quick crystallization of tin, it is more difficult to deposit tin-based perovskite films from a solution than manufacturing lead-based perovskite films since lead perovskite is more often utilized. The most efficient way to get high efficiencies is to deposit perovskite from dimethyl sulfoxide (DMSO), which slows down the quick construction of the tin-iodine network that is responsible for perovskite synthesis. This is the most successful approach for achieving high efficiencies. Dimethyl sulfoxide, which is used in the processing, is responsible for the oxidation of tin, which is a disadvantage of this method. This research presents a potentially fruitful alternative in which 4-(tert-butyl) pyridine can substitute dimethyl sulfoxide in the process of regulating crystallization without causing tin oxidation to take place. Perovskite films that have been formed from pyridine have been shown to have a much-reduced defect density. This has resulted in increased charge mobility and better photovoltaic performance, making pyridine a desirable alternative for use in the deposition of tin perovskite films. The precise control of perovskite precursor crystallization inside a thin film is of utmost importance for optimizing the efficiency and manufacturing of solar cells. The deposition process of tin-based perovskite films from a solution presents difficulties due to the quick crystallization of tin compared to the more often employed lead perovskite. The optimal approach for attaining elevated efficiencies entails using dimethyl sulfoxide (DMSO) as a medium for depositing perovskite. This choice of solvent impedes the tin-iodine network’s fast aggregation, which plays a crucial role in the production of perovskite. Nevertheless, this methodology is limited since the utilization of dimethyl sulfoxide leads to the oxidation of tin throughout the processing stage. In this thesis, we present a potentially advantageous alternative approach wherein 4-(tert-butyl) pyridine is proposed as a substitute for dimethyl sulfoxide in regulating crystallization processes while avoiding the undesired consequence of tin oxidation. Films of perovskite formed using pyridine as a solvent have a notably reduced density of defects, resulting in higher mobility of charges and improved performance in solar applications. Consequently, the utilization of pyridine for the deposition of tin perovskite films is considered advantageous. Tin perovskites are suffering from an apparent energy band misalignment. However, the band diagrams published in the current body of research display contradictions, resulting in a dearth of unanimity. Moreover, comprehensive information about the dynamics connected with charge extraction is lacking. This thesis aims to ascertain the energy band locations of tin perovskites by employing the kelvin probe and Photoelectron yield spectroscopy methods. This thesis aims to construct a precise band diagram for the often-utilized device stack. Moreover, a comprehensive analysis is performed to assess the energy deficits inherent in the current energetic structure of tin halide perovskites. In addition, we investigate the influence of BCP on the improvement of electron extraction in C60/BCP systems, with a specific emphasis on the energy factors involved. Furthermore, transient surface photovoltage was utilized to investigate the charge extraction kinetics of frequently studied charge transport layers, such as NiOx and PEDOT as hole transport layers and C60, ICBA, and PCBM as electron transport layers. The Hall effect, KP, and TRPL approaches accurately ascertain the p-doping concentration in FASnI3. The results consistently demonstrated a value of 1.5 * 1017 cm-3. Our research findings highlight the imperative nature of autonomously constructing the charge extraction layers for tin halide perovskites, apart from those used for lead perovskites. The crystallization of perovskite precursors relies mainly on the utilization of two solvents. The first one dissolves the perovskite powder to form the precursor solution, usually called the solvent. The second one precipitates the perovskite precursor, forming the wet film, which is a supersaturated solution of perovskite precursor and in the remains of the solvent and the antisolvent. Later, this wet film crystallizes upon annealing into a full perovskite crystallized film. In our research context, we proposed new solvents to dissolve FASnI3, but when we tried to form a film, most of them did not crystallize. This is attributed to the high coordination strength between the metal halide and the solvent molecules, which is unbreakable by the traditionally used antisolvents such as Toluene and Chlorobenzene. To solve this issue, we introduce a high-throughput antisolvent screening in which we screened around 73 selected antisolvents against 15 solvents that can form a 1M FASnI3 solution. We used for the first time in tin perovskites machine learning algorithm to understand and predict the effect of an antisolvent on the crystallization of a precursor solution in a particular solvent. We relied on film darkness as a primary criterion to judge the efficacy of a solvent-antisolvent pair. We found that the relative polarity between solvent and antisolvent is the primary factor that affects the solvent-antisolvent interaction. Based on our findings, we prepared several high-quality tin perovskite films free from DMSO and achieved an efficiency of 9%, which is the highest DMSO tin perovskite device so far. N2 - Zinn ist eine der vielversprechendsten Alternativen zu Blei, um bleifreie Halogenidperowskite für die Optoelektronik herzustellen. Die Stabilität von Perowskiten auf Zinnbasis wird jedoch durch die Oxidation von Sn(II) zu Sn(IV) beeinträchtigt. Jüngste Arbeiten haben ergeben, dass Dimethylsulfoxid, eines der besten Lösungsmittel für die Verarbeitung von Perowskiten, die Hauptquelle für die Oxidation von Zinn ist. Die Suche nach einem stabilen Lösungsmittel könnte den Ausschlag für die Stabilität von Perowskiten auf Zinnbasis geben. Ausgehend von einer Datenbank mit über 2000 Lösungsmitteln haben wir eine Reihe von 12 neuen Lösungsmitteln identifiziert, die für die Verarbeitung von Formamidinium-Zinniodid-Perowskit (FASnI3) geeignet sind, indem wir 1) die Löslichkeit der Vorläuferchemikalien FAI und SnI2, 2) die thermische Stabilität der Vorläuferlösung und 3) die Möglichkeit zur Bildung von Perowskit experimentell untersucht haben. Schließlich demonstrieren wir ein neues Lösungsmittelsystem zur Herstellung von Solarzellen, das die auf DMSO basierenden Zellen übertrifft. Unsere Arbeit liefert Leitlinien für die weitere Identifizierung neuer Lösungsmittel oder Lösungsmittelmischungen zur Herstellung stabiler Perowskite auf Zinnbasis. Die genaue Steuerung der Kristallisation des Perowskit-Vorläufers in einer Dünnschicht ist entscheidend für die Effizienz und Produktion von Solarzellen. Die Abscheidung von Perowskit-Filmen auf Zinnbasis aus einer Lösung stellt aufgrund der schnellen Kristallisation von Zinn im Vergleich zu dem üblicherweise verwendeten Bleiperowskit eine Herausforderung dar. Die effektivste Methode zur Erzielung hoher Wirkungsgrade ist die Abscheidung von Perowskit aus Dimethylsulfoxid (DMSO), das den schnellen Aufbau des für die Perowskitbildung verantwortlichen Zinn-Jod-Netzwerks behindert. Dieser Ansatz hat jedoch einen Nachteil, da Dimethylsulfoxid während der Verarbeitung eine Zinnoxidation verursacht. In dieser Studie wird eine vielversprechende Alternative vorgestellt, bei der 4-(tert-Butyl)-pyridin Dimethylsulfoxid bei der Steuerung der Kristallisation ersetzen kann, ohne eine Zinnoxidation zu verursachen. Aus Pyridin abgeschiedene Perowskit-Filme weisen eine deutlich geringere Defektdichte auf, was zu einer erhöhten Ladungsbeweglichkeit und einer verbesserten photovoltaischen Leistung führt und es zu einer günstigen Wahl für die Abscheidung von Zinn-Perowskit-Filmen macht. Zinnperowskite haben sich als vielversprechender, umweltverträglicher Ersatz für Bleiperowskite erwiesen, vor allem wegen ihrer besseren optoelektronischen Eigenschaften und ihrer geringeren Bioverfügbarkeit. Dennoch gibt es mehrere Gründe, warum die Leistung von Zinnperowskiten nicht mit der von Bleiperowskiten verglichen werden kann. Einer dieser Gründe ist die Nichtübereinstimmung der Energiebänder zwischen dem Perowskit-Absorberfilm und den ladungstransportierenden Schichten (CTLs). Die in der vorhandenen Literatur dargestellten Banddiagramme sind jedoch uneinheitlich, was zu einem Mangel an Konsens führt. Außerdem ist das Verständnis der mit der Ladungsextraktion verbundenen Dynamik noch unzureichend. In dieser Studie sollen die Energiebandpositionen von Zinnperowskiten mit Hilfe der Kelvinsonde (KP) und der Photoelektronenausbeutespektroskopie (PYS) bestimmt werden. Ziel ist es, ein genaues Banddiagramm für den üblicherweise verwendeten Bauelementestapel zu erstellen. Darüber hinaus führen wir eine Diagnose der energetischen Unzulänglichkeiten durch, die im bestehenden energetischen Rahmen von Zinnhalogenid-Perowskiten vorhanden sind. Unser Ziel ist es, Folgendes zu klären den Einfluss von BCP auf die Verbesserung der Elektronenextraktion in C60/BCP-Systemen, wobei der Schwerpunkt auf den energetischen Aspekten liegt. Darüber hinaus haben wir die transiente Oberflächenphotospannung (tr-SPV) eingesetzt, um Einblicke in die Ladungsextraktionskinetik von allgemein bekannten CTLs zu gewinnen, einschließlich NiOx und PEDOT als Lochtransportschichten (HTLs) und C60, ICBA und PCBM als Elektronentransportschichten (ETLs). In diesem Kapitel verwenden wir den Halleffekt, KP- und TRPL-Techniken, um die genaue p-Dotierungskonzentration in FASnI3 zu bestimmen. Unsere Ergebnisse ergaben durchweg einen Wert von 1.5 * 1017 cm-3. Die Ergebnisse unserer Studie zeigen, dass es notwendig ist, die Ladungsextraktionsschichten von Zinnhalogenidperowskiten unabhängig von den Bleiperowskiten zu entwickeln. Die Kristallisation von Perowskit-Vorstufen beruht hauptsächlich auf der Verwendung von zwei Lösungsmitteln. Das erste löst das Perowskit-Pulver auf und bildet die Vorläuferlösung, die üblicherweise als Lösungsmittel bezeichnet wird. Mit dem zweiten wird der Perowskit-Precursor ausgefällt, wobei sich der Nassfilm bildet, der eine übersättigte Lösung des Perowskit-Precursors und der Reste des Lösungsmittels und des Antisolierungsmittels ist. Später kristallisiert dieser nasse Film beim Ausglühen zu einem vollständig kristallisierten Perowskit-Film. In unserem Forschungskontext haben wir neue Lösungsmittel vorgeschlagen, um FASnI3 aufzulösen, aber als wir versuchten, einen Film zu bilden, kristallisierten die meisten von ihnen nicht. Dies ist auf die hohe Koordinationsstärke zwischen dem Metallhalogenid und den Lösungsmittelmolekülen zurückzuführen, die von den traditionell verwendeten Antisolierungsmitteln wie Toluol und Chlorbenzol nicht aufgebrochen werden kann. Um dieses Problem zu lösen, haben wir ein Hochdurchsatz-Screening von Antisolventien durchgeführt, bei dem wir 73 ausgewählte Antisolventien mit 15 Lösungsmitteln verglichen haben, die eine 1M FASnI3-Lösung bilden können. Wir haben zum ersten Mal bei Zinnperowskiten einen Algorithmus für maschinelles Lernen verwendet, um die Wirkung eines Antisolvens auf die Kristallisation einer Vorläuferlösung in einem bestimmten Lösungsmittel zu verstehen und vorherzusagen. Wir stützten uns auf die Schwärzung des Films als primäres Kriterium zur Beurteilung der Wirksamkeit eines Lösungsmittel-Antisolierungsmittel-Paares. Wir fanden heraus, dass die relative Polarität zwischen Lösungsmittel und Antisolvent der wichtigste Faktor ist, der die Wechselwirkung zwischen Lösungsmittel und Antisolvent beeinflusst. Auf der Grundlage unserer Erkenntnisse haben wir mehrere hochwertige Zinn-Perowskit-Filme ohne DMSO hergestellt und einen Wirkungsgrad von 9 % erzielt, was die bisher höchste DMSO-Zinn-Perowskit-Vorrichtung darstellt. KW - perovskite solar cells KW - lead-free perovskites KW - tin perovskites KW - solar cells KW - perovskite KW - Perowskit-Solarzellen KW - photovoltaische Materialien KW - Solarzellen KW - Lösungsmittel KW - bleifreie Perowskit-Solarzellen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630375 ER - TY - THES A1 - Ketzer, Laura T1 - The impact of stellar activity evolution on atmospheric mass loss of young exoplanets T1 - Der Einfluss der stellaren Aktivitätsentwicklung auf den atmosphärischen Massenverlust von jungen Exoplaneten N2 - The increasing number of known exoplanets raises questions about their demographics and the mechanisms that shape planets into how we observe them today. Young planets in close-in orbits are exposed to harsh environments due to the host star being magnetically highly active, which results in high X-ray and extreme UV fluxes impinging on the planet. Prolonged exposure to this intense photoionizing radiation can cause planetary atmospheres to heat up, expand and escape into space via a hydrodynamic escape process known as photoevaporation. For super-Earth and sub-Neptune-type planets, this can even lead to the complete erosion of their primordial gaseous atmospheres. A factor of interest for this particular mass-loss process is the activity evolution of the host star. Stellar rotation, which drives the dynamo and with it the magnetic activity of a star, changes significantly over the stellar lifetime. This strongly affects the amount of high-energy radiation received by a planet as stars age. At a young age, planets still host warm and extended envelopes, making them particularly susceptible to atmospheric evaporation. Especially in the first gigayear, when X-ray and UV levels can be 100 - 10,000 times higher than for the present-day sun, the characteristics of the host star and the detailed evolution of its high-energy emission are of importance. In this thesis, I study the impact of stellar activity evolution on the high-energy-induced atmospheric mass loss of young exoplanets. The PLATYPOS code was developed as part of this thesis to calculate photoevaporative mass-loss rates over time. The code, which couples parameterized planetary mass-radius relations with an analytical hydrodynamic escape model, was used, together with Chandra and eROSITA X-ray observations, to investigate the future mass loss of the two young multiplanet systems V1298 Tau and K2-198. Further, in a numerical ensemble study, the effect of a realistic spread of activity tracks on the small-planet radius gap was investigated for the first time. The works in this thesis show that for individual systems, in particular if planetary masses are unconstrained, the difference between a young host star following a low-activity track vs. a high-activity one can have major implications: the exact shape of the activity evolution can determine whether a planet can hold on to some of its atmosphere, or completely loses its envelope, leaving only the bare rocky core behind. For an ensemble of simulated planets, an observationally-motivated distribution of activity tracks does not substantially change the final radius distribution at ages of several gigayears. My simulations indicate that the overall shape and slope of the resulting small-planet radius gap is not significantly affected by the spread in stellar activity tracks. However, it can account for a certain scattering or fuzziness observed in and around the radius gap of the observed exoplanet population. N2 - Die steigende Anzahl bekannter Exoplaneten wirft Fragen zu ihrer Demografie und den Mechanismen auf, die Planeten in ihre heutige beobachtete Form bringen. Junge Planeten, die sehr nah um ihren Wirtsstern kreisen, sind extremen Umgebungen ausgesetzt, da der Stern eine hohe magnetische Aktivität aufweist. Das führt wiederum dazu, dass der Planet einer enormen Röntgen- und Extrem-UV-Strahlung ausgesetzt ist. Ist der Planet über einen längeren Zeitraum dieser intensiven photoionisierenden Strahlung ausgesetzt, kann dies dazu führen, dass Planetenatmosphären sich aufheizen, ausdehnen und durch einen hydrodynamischen Entweichungsprozess namens Photoevaporation ins All entweichen, sozusagen verdampfen. Bei Planeten, in der Größenordnung von Super-Erden und Sub-Neptunen, kann dies sogar zur vollständigen Erosion ihrer Ur-Atmosphären führen. Ein interessanter Faktor, der für diesen Massenverlustprozess eine Rolle spielt, ist die Aktivitätsentwicklung des Wirtssterns. Die Rotation eines Sterns, die den Dynamo und damit die magnetische Aktivität antreibt, ändert sich im Laufe der Lebensdauer eines Sterns erheblich. Dies hat einen starken Einfluss auf die Menge der hochenergetischen Strahlung, den ein Planet mit zunehmendem Alter des Sterns empfängt. In jungen Jahren besitzen Planeten noch warme und ausgedehnte Hüllen, was sie besonders anfällig für atmosphärische Verdunstung macht. Insbesondere in den ersten Gigajahren, wenn die Röntgen- und UV-Strahlung 100 - 10,000 Mal höher sein kann als bei der heutigen Sonne, sind die Eigenschaften des Wirtssterns und die detaillierte Entwicklung seiner hochenergetischen Emission von Bedeutung. In dieser Arbeit untersuche ich die Auswirkungen der Entwicklung der stellaren Aktivität auf den durch hochenergetische Strahlung verursachten atmosphärischen Massenverlust junger Exoplaneten. Der PLATYPOS-Code wurde im Rahmen dieser Arbeit entwickelt, um die photoevaporativen Massenverlustraten für verschiedene stellare Alter zu berechnen. Der Code verknüpft parametrisierte Planetenmasse-Radius-Beziehungen mit einem analytischen Modell für den hydrodynamischen Massenverlust. Er wurde zusammen mit Chandra- und eROSITA-Röntgenbeobachtungen dazu verwendet, den zukünftigen Massenverlust der beiden jungen Mehrplanetensysteme V1298 Tau und K2-198 zu untersuchen. Darüber hinaus wurde in einer numerischen Ensemblestudie erstmals der Effekt einer realistischen Verteilung von stellaren Aktivitäts-Tracks auf das sogenannte Radius-Tal bei kleinen Planeten untersucht. Die Arbeiten in dieser Dissertation zeigen, dass für einzelne Systeme, insbesondere wenn die Planetenmassen unbestimmt sind, der Unterschied zwischen einem jungen Wirtsstern, der einem Track mit niedriger Aktivität gegenüber einem solchen mit hoher Aktivität folgt, gravierende Auswirkungen haben kann: Die genaue Form der Aktivitätsentwicklung kann darüber entscheiden, ob ein Planet einen Teil seiner Atmosphäre behält oder seine Hülle vollständig verliert und nur den nackten Gesteinskern behält. Für ein Ensemble von simulierten Planeten ändert eine durch Beobachtungen motivierte Verteilung von Aktivitäts-Tracks die endgültige Radiusverteilung der Planeten nach mehreren Gigajahren nicht wesentlich. Meine Simulationen deuten darauf hin, dass die Form und Steigung des sich ergebenden Radius-Tals bei Kleinplaneten nicht wesentlich von der Streuung der stellaren Aktivitäts-Tracks beeinflusst wird. Eine gewisse Streuung oder Unschärfe im Radius-Tal der beobachteten Exoplanetenpopulation kann damit allerdings durchaus erklärt werden. KW - Exoplaneten KW - star-planet interaction KW - stellar physics KW - exoplanets KW - exoplanet atmospheres KW - Sternphysik KW - Stern-Planeten-Wechselwirkung KW - Exoplanetenatmosphären Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626819 ER - TY - THES A1 - Kindermann, Liana T1 - Trees, shrubs, and land-use change T1 - Bäume, Büsche und Landnutzungswandel BT - The future of carbon storage in an African Savanna BT - Die Zukunft der Kohlenstoffspeicherung in einer Afrikanischen Savanne N2 - The global drylands cover nearly half of the terrestrial surface and are home to more than two billion people. In many drylands, ongoing land-use change transforms near-natural savanna vegetation to agricultural land to increase food production. In Southern Africa, these heterogenous savanna ecosystems are also recognized as habitats of many protected animal species, such as elephant, lion and large herds of diverse herbivores, which are of great value for the tourism industry. Here, subsistence farmers and livestock herder communities often live in close proximity to nature conservation areas. Although these land-use transformations are different regarding the future they aspire to, both processes, nature conservation with large herbivores and agricultural intensification, have in common, that they change the vegetation structure of savanna ecosystems, usually leading to destruction of trees, shrubs and the woody biomass they consist of. Such changes in woody vegetation cover and biomass are often regarded as forms of land degradation and forest loss. Global forest conservation approaches and international programs aim to stop degradation processes, also to conserve the carbon bound within wood from volatilization into earth’s atmosphere. In search for mitigation options against global climate change savannas are increasingly discussed as potential carbon sinks. Savannas, however, are not forests, in that they are naturally shaped by and adapted to disturbances, such as wildfires and herbivory. Unlike in forests, disturbances are necessary for stable, functioning savanna ecosystems and prevent these ecosystems from forming closed forest stands. Their consequently lower levels of carbon storage in woody vegetation have long been the reason for savannas to be overlooked as a potential carbon sink but recently the question was raised if carbon sequestration programs (such as REDD+) could also be applied to savanna ecosystems. However, heterogenous vegetation structure and chronic disturbances hamper the quantification of carbon stocks in savannas, and current procedures of carbon storage estimation entail high uncertainties due to methodological obstacles. It is therefore challenging to assess how future land-use changes such as agricultural intensification or increasing wildlife densities will impact the carbon storage balance of African drylands. In this thesis, I address the research gap of accurately quantifying carbon storage in vegetation and soils of disturbance-prone savanna ecosystems. I further analyse relevant drivers for both ecosystem compartments and their implications for future carbon storage under land-use change. Moreover, I show that in savannas different carbon storage pools vary in their persistence to disturbance, causing carbon bound in shrub vegetation to be most likely to experience severe losses under land-use change while soil organic carbon stored in subsoils is least likely to be impacted by land-use change in the future. I start with summarizing conventional approaches to carbon storage assessment and where and for which reasons they fail to accurately estimated savanna ecosystem carbon storage. Furthermore, I outline which future-making processes drive land-use change in Southern Africa along two pathways of land-use transformation and how these are likely to influence carbon storage. In the following chapters, I propose a new method of carbon storage estimation which is adapted to the specific conditions of disturbance-prone ecosystems and demonstrate the advantages of this approach in relation to existing forestry methods. Specifically, I highlight sources for previous over- and underestimation of savanna carbon stocks which the proposed methodology resolves. In the following chapters, I apply the new method to analyse impacts of land-use change on carbon storage in woody vegetation in conjunction with the soil compartment. With this interdisciplinary approach, I can demonstrate that indeed both, agricultural intensification and nature conservation with large herbivores, reduce woody carbon storage above- and belowground, but partly sequesters this carbon into the soil organic carbon stock. I then quantify whole-ecosystem carbon storage in different ecosystem compartments (above- and belowground woody carbon in shrubs and trees, respectively, as well as topsoil and subsoil organic carbon) of two savanna vegetation types (scrub savanna and savanna woodland). Moreover, in a space-for-time substitution I analyse how land-use changes impact carbon storage in each compartment and in the whole ecosystem. Carbon storage compartments are found to differ in their persistence to land-use change with carbon bound in shrub biomass being least persistent to future changes and subsoil organic carbon being most stable under changing land-use. I then explore which individual land-use change effects act as drivers of carbon storage through Generalized Additive Models (GAMs) and uncover non-linear effects, especially of elephant browsing, with implications for future carbon storage. In the last chapter, I discuss my findings in the larger context of this thesis and discuss relevant implications for land-use change and future-making decisions in rural Africa. N2 - Weltweit bedecken Trockengebiete fast die Hälfte der Erdoberfläche und sind die Heimat von mehr als zwei Milliarden Menschen. In vielen Regionen wird durch den fortschreitenden Landnutzungswandel die naturnahe Savannenvegetation in landwirtschaftliche Flächen umgewandelt, um die Nahrungsmittelproduktion zu steigern. Im südlichen Afrika sind diese diversen Savannenökosysteme auch als Lebensraum für viele geschützte Tierarten wie Elefanten, Löwen und große Herden vielfältiger Pflanzenfresser bekannt, die großen Wert für die Tourismusbranche haben. Im Umfeld vieler großer Schutzgebiete leben Kleinbauern und Viehhirten oft in unmittelbarer Nachbarschaft zu diesen – oft gefährlichen – Tieren. Obwohl sich beide Landnutzungen im Hinblick darauf unterscheiden welche Zukunftsvision verfolgt wird, haben sie doch beide gemeinsam, dass sowohl Schutzgebiete mit großen Pflanzenfressern wie Elefanten als auch die Landwirtschaft, die Vegetationsstruktur von Savannenökosystemen verändern. In der Regel reduzieren beide Prozesse die holzige Biomasse im Ökosystem, indem Bäume und Sträucher entfernt, zerstört oder durch Fraßverhalten und Holzeinschlag geschädigt werden. Solche Veränderungen der holzigen Vegetationsschicht samt Einflüssen auf die Biomasse werden oft als Formen von Umweltzerstörung oder Waldverlust betrachtet. Globale Waldschutzkonzepte und internationale Programme zielen darauf ab, solche Degradationsprozesse zu stoppen und den im Holz gebundenen Kohlenstoff vor der Verflüchtigung in die Erdatmosphäre zu bewahren. Auf der Suche nach Möglichkeiten zur Eindämmung des globalen Klimawandels werden Savannen zunehmend als potenzielle Kohlenstoffsenken diskutiert. Savannen sind von Wäldern jedoch fundamental verschieden, da sie von Natur aus durch starke Störungen, wie z. B. Elefantenfraß und Buschfeuer, geprägt und an diese evolutionär angepasst sind. Anders als in Wäldern sind hier Störungen für Funktion und Stabilität von offenen Savannenökosysteme notwendig und verhindern, dass sie sich zu geschlossenen Waldbeständen oder undurchdringlichen Gestrüppen entwickeln. Folglich ist die Kohlenstoffspeicherung in der holzigen Vegetation in Savannen geringer als in Wäldern und dies war lange Zeit der Grund dafür, dass Savannen keine Beachtung als potenzielle Kohlenstoffsenke fanden. In letzter Zeit wurde jedoch zunehmend die Frage aufgeworfen, ob Programme zur Kohlenstoffbindung (wie REDD+) auch auf Savannenökosysteme angewendet werden könnten. Die heterogene Vegetationsstruktur und chronischen Störungen erschweren jedoch erheblich die Quantifizierung der Kohlenstoffvorräte in Savannen, so dass die derzeitigen Verfahren zur Schätzung der Kohlenstoffspeicherung aufgrund methodischer Hindernisse mit großen Unsicherheiten verbunden sind. Daher ist es auch schwierig abzuschätzen, wie sich künftige Landnutzungsänderungen wie die Intensivierung der Landwirtschaft oder die Erhöhung von Wildtierdichten auf die Kohlenstoffspeicher der afrikanischen Trockengebiete auswirken werden. In dieser Arbeit fasse ich zunächst die konventionellen Ansätze zur Quantifizierung von Kohlenstoffspeichern zusammen und zeige auf, wo und aus welchen Gründen sie in Savannenökosystemen versagen. Darüber hinaus skizziere ich entlang zweier Pfade der Landnutzungsänderung, welche Zukunftsvorstellungen den Landnutzungswandel im südlichen Afrika vorantreiben und wie diese voraussichtlich die Kohlenstoffspeicherung beeinflussen werden. In den folgenden Kapiteln entwickele ich eine neue Methode zur Schätzung der Kohlenstoffspeicherung, die an die spezifischen Bedingungen störungsanfälliger Ökosysteme angepasst ist, und zeige die Vorteile dieses Ansatzes gegenüber den bisherigen forstwirtschaftlichen Methoden auf. In den beiden daran anschließenden Kapiteln wende ich die neue Methode an, um die Auswirkungen von Landnutzungsänderungen auf die Kohlenstoffspeicherung zu analysieren und berücksichtige dabei auch das Verhältnis von holziger Biomasse zu im Boden gespeichertem Kohlenstoff. Mit diesem interdisziplinären Ansatz kann ich zeigen, dass sowohl die Intensivierung der Landwirtschaft als auch der Naturschutz mit großen Pflanzenfressern die ober- und unterirdische Kohlenstoffspeicherung in Büschen und Bäumen verringern, dieser Kohlenstoff jedoch nicht verloren geht, sondern teilweise in den organischen Kohlenstoffbestand des Bodens eingelagert wird. Anschließend quantifiziere ich die Kohlenstoffspeicherung im gesamten Ökosystem sowie in verschiedenen Ökosystemkompartimenten (ober- und unterirdischer Holzkohlenstoff in Sträuchern bzw. Bäumen sowie organischer Kohlenstoff im Ober- und Unterboden) von zwei verschiedenen Vegetationstypen der Studienregion. Darüber hinaus analysiere ich in einer Raum-Zeit-Substitution, wie sich zukünftige Landnutzungsänderungen auf die Kohlenstoffspeicherung in jedem Kompartiment und im gesamten Ökosystem auswirken. Die hier untersuchten Kohlenstoffspeicher unterscheiden sich in ihrer Beständigkeit gegenüber Landnutzungsänderungen, wobei jener Kohlenstoff, der in der Strauchbiomasse gebunden ist sich als am wenigsten beständig gegenüber künftigen Änderungen herausgestellt hat; demgegenüber ist der organische Kohlenstoff im Unterboden bei veränderter Landnutzung am stabilsten. Anschließend untersuche ich mit Hilfe von statistischen Modellen (Generalized Additive Models, GAMs), welche individuellen Landnutzungsfaktoren die Kohlenstoffspeicherung beeinflussen, und decke nichtlineare Effekte auf. Insbesondere Elefantenfraß kann zunächst positive Auswirkungen auf die Kohlenstoffspeicherung haben, die sich bei weiterer Intensivierung jedoch ins Gegenteil verkehrt. Dies muss bei zukünftigen Planungen berücksichtigt werden. Im letzten Kapitel diskutiere ich meine Ergebnisse im größeren Kontext dieser Arbeit und erörtere relevante Implikationen für Landnutzungsänderungen und zukünftige Entscheidungen. KW - biology KW - plant ecology KW - carbon storage KW - savanna KW - woodland KW - vegetation ecology KW - disturbance ecology KW - soil organic carbon KW - Biologie KW - Kohlenstoffspeicherung KW - Störungsökologie KW - Pflanzenökologie KW - Savanne KW - Organischer Bodenkohlenstoff KW - Vegetationsökologie KW - Baumsavanne Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648943 ER -