TY - THES A1 - Hodapp, Alice T1 - Error-based learning in predictive language processing at the level of meaning T1 - Fehlerbasiertes lernen in prädiktiver Sprachverarbeitung auf semantischer Ebene N2 - Prediction is often regarded as a central and domain-general aspect of cognition. This proposal extends to language, where predictive processing might enable the comprehension of rapidly unfolding input by anticipating upcoming words or their semantic features. To make these predictions, the brain needs to form a representation of the predictive patterns in the environment. Predictive processing theories suggest a continuous learning process that is driven by prediction errors, but much is still to be learned about this mechanism in language comprehension. This thesis therefore combined three electroencephalography (EEG) experiments to explore the relationship between prediction and implicit learning at the level of meaning. Results from Study 1 support the assumption that the brain constantly infers und updates probabilistic representations of the semantic context, potentially across multiple levels of complexity. N400 and P600 brain potentials could be predicted by semantic surprise based on a probabilistic estimate of previous exposure and a more complex probability representation, respectively. Subsequent work investigated the influence of prediction errors on the update of semantic predictions during sentence comprehension. In line with error-based learning, unexpected sentence continuations in Study 2 ¬– characterized by large N400 amplitudes ¬– were associated with increased implicit memory compared to expected continuations. Further, Study 3 indicates that prediction errors not only strengthen the representation of the unexpected word, but also update specific predictions made from the respective sentence context. The study additionally provides initial evidence that the amount of unpredicted information as reflected in N400 amplitudes drives this update of predictions, irrespective of the strength of the original incorrect prediction. Together, these results support a central assumption of predictive processing theories: A probabilistic predictive representation at the level of meaning that is updated by prediction errors. They further propose the N400 ERP component as a possible learning signal. The results also emphasize the need for further research regarding the role of the late positive ERP components in error-based learning. The continuous error-based adaptation described in this thesis allows the brain to improve its predictive representation with the aim to make better predictions in the future. N2 - Prädiktive Verarbeitung wird häufig als zentraler und domänenübergreifender Aspekt der Kognition betrachtet. Diese Idee bezieht sich auch auf Sprachverarbeitung, wo die Antizipation kommender Wörter oder ihrer semantischen Merkmale die Verarbeitung von sich schnell entfaltendem Sprachinput ermöglichen könnte. Um solche Vorhersagen treffen zu können, muss das Gehirn eine Repräsentation der prädiktiven Muster in der Umgebung aufbauen. Theorien zur prädiktiven Verarbeitung gehen von einem kontinuierlichen Lernprozess aus, welcher durch Vorhersagefehler angetrieben wird. Dennoch bleiben noch viele Fragen über diesen Mechanismus der Sprachverarbeitung offen. In dieser Arbeit wurden daher drei Elektroenzephalographie (EEG) Experimente kombiniert, um die Beziehung zwischen Vorhersage und implizitem Lernen auf semantischer Ebene zu untersuchen. Die Ergebnisse aus Studie 1 unterstützen die Annahme, dass das Gehirn kontinuierlich probabilistische Repräsentationen des semantischen Kontexts ableitet und aktualisiert, möglicherweise über mehrere Komplexitätsebenen hinweg. N400- und P600-Gehirnpotenziale konnten durch überraschende Information in Bezug auf eine probabilistische Schätzung vorhergesagt werden, welche entweder auf bisheriger Exposition oder einer komplexeren Wahrscheinlichkeitsrepräsentation basierte. In einer weiteren Arbeit wurde der Einfluss von Vorhersagefehlern auf die Aktualisierung semantischer Vorhersagen während der Satzverarbeitung untersucht. In Übereinstimmung mit der Idee des fehlerbasierten Lernens waren unerwartete Satzfortsetzungen in Studie 2 - gekennzeichnet durch große N400-Amplituden - durch erhöhtes impliziten Gedächtnis im Vergleich zu erwarteten Fortsetzungen gekennzeichnet. Darüber hinaus zeigte Studie 3, dass Vorhersagefehler nicht nur die Repräsentation des unerwarteten Wortes stärken, sondern auch zukünftige Vorhersagen aus dem jeweiligen Satzkontext aktualisieren. Die Studie liefert zudem erste Belege dafür, dass die Menge an nicht vorhergesagter Information, die sich auch in den N400-Amplituden widerspiegelt, die beschriebene Aktualisierung der Vorhersagen vorantreibt, unabhängig von der Stärke der ursprünglichen (widerlegten) Vorhersage. Zusammengenommen unterstützen diese Ergebnisse eine zentrale Annahme der Theorien zur prädiktiven Verarbeitung: Eine probabilistische prädiktive Repräsentation auf semantischer Ebene, die durch Vorhersagefehler aktualisiert wird. Außerdem stützen sie die Theorie der N400-ERP-Komponente als ein mögliches Lernsignal. Die Ergebnisse unterstreichen auch die Notwendigkeit weiterer Forschung hinsichtlich der Rolle der späten positiven ERP-Komponenten beim fehlerbasierten Lernen. Das in dieser Arbeit beschriebene kontinuierliche fehlerbasierte Lernen ermöglicht dem Gehirn, seine prädiktive Repräsentation zu verbessern, mit dem Ziel in Zukunft bessere Vorhersagen zu treffen. KW - electroencephalography KW - N400 KW - P600 KW - implicit memory KW - learning KW - language processing KW - prediction KW - Elektroenzephalographie KW - N400 KW - P600 KW - implizites Gedächtnis KW - Lernen KW - Sprachverarbeitung KW - Vorhersage Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-657179 ER - TY - THES A1 - Hameed, Mazhar T1 - Structural preparation of raw data files T1 - Strukturelle Aufbereitung von unverarbeiteten Dateien N2 - Data preparation stands as a cornerstone in the landscape of data science workflows, commanding a significant portion—approximately 80%—of a data scientist's time. The extensive time consumption in data preparation is primarily attributed to the intricate challenge faced by data scientists in devising tailored solutions for downstream tasks. This complexity is further magnified by the inadequate availability of metadata, the often ad-hoc nature of preparation tasks, and the necessity for data scientists to grapple with a diverse range of sophisticated tools, each presenting its unique intricacies and demands for proficiency. Previous research in data management has traditionally concentrated on preparing the content within columns and rows of a relational table, addressing tasks, such as string disambiguation, date standardization, or numeric value normalization, commonly referred to as data cleaning. This focus assumes a perfectly structured input table. Consequently, the mentioned data cleaning tasks can be effectively applied only after the table has been successfully loaded into the respective data cleaning environment, typically in the later stages of the data processing pipeline. While current data cleaning tools are well-suited for relational tables, extensive data repositories frequently contain data stored in plain text files, such as CSV files, due to their adaptable standard. Consequently, these files often exhibit tables with a flexible layout of rows and columns, lacking a relational structure. This flexibility often results in data being distributed across cells in arbitrary positions, typically guided by user-specified formatting guidelines. Effectively extracting and leveraging these tables in subsequent processing stages necessitates accurate parsing. This thesis emphasizes what we define as the “structure” of a data file—the fundamental characters within a file essential for parsing and comprehending its content. Concentrating on the initial stages of the data preprocessing pipeline, this thesis addresses two crucial aspects: comprehending the structural layout of a table within a raw data file and automatically identifying and rectifying any structural issues that might hinder its parsing. Although these issues may not directly impact the table's content, they pose significant challenges in parsing the table within the file. Our initial contribution comprises an extensive survey of commercially available data preparation tools. This survey thoroughly examines their distinct features, the lacking features, and the necessity for preliminary data processing despite these tools. The primary goal is to elucidate the current state-of-the-art in data preparation systems while identifying areas for enhancement. Furthermore, the survey explores the encountered challenges in data preprocessing, emphasizing opportunities for future research and improvement. Next, we propose a novel data preparation pipeline designed for detecting and correcting structural errors. The aim of this pipeline is to assist users at the initial preprocessing stage by ensuring the correct loading of their data into their preferred systems. Our approach begins by introducing SURAGH, an unsupervised system that utilizes a pattern-based method to identify dominant patterns within a file, independent of external information, such as data types, row structures, or schemata. By identifying deviations from the dominant pattern, it detects ill-formed rows. Subsequently, our structure correction system, TASHEEH, gathers the identified ill-formed rows along with dominant patterns and employs a novel pattern transformation algebra to automatically rectify errors. Our pipeline serves as an end-to-end solution, transforming a structurally broken CSV file into a well-formatted one, usually suitable for seamless loading. Finally, we introduce MORPHER, a user-friendly GUI integrating the functionalities of both SURAGH and TASHEEH. This interface empowers users to access the pipeline's features through visual elements. Our extensive experiments demonstrate the effectiveness of our data preparation systems, requiring no user involvement. Both SURAGH and TASHEEH outperform existing state-of-the-art methods significantly in both precision and recall. N2 - Die Datenaufbereitung ist ein wesentlicher Bestandteil von Data-Science-Workflows und nimmt einen beträchtlichen Teil - etwa 80% - der Zeit eines Datenwissenschaftlers in Anspruch. Der hohe Zeitaufwand für die Datenaufbereitung ist in erster Linie auf die komplizierte Herausforderung zurückzuführen, der sich Datenwissenschaftler bei der Entwicklung maßgeschneiderter Lösungen für nachgelagerte Aufgaben gegenübersehen. Diese Komplexität wird noch verstärkt durch die unzureichende Verfügbarkeit von Metadaten, den oft ad-hoc-Charakter der Aufbereitungsaufgaben und die Notwendigkeit für Datenwissenschaftler, sich mit einer Vielzahl von hochentwickelten Tools auseinanderzusetzen, von denen jedes seine eigenen Schwierigkeiten und Anforderungen an dessen Beherrschung aufweist. Bisherige Forschung im Bereich der Datenverwaltung konzentriert sich traditionell auf die Aufbereitung der Inhalte innerhalb der Spalten und Zeilen einer relationalen Tabelle und befasst sich mit Aufgaben wie der Disambiguierung von Zeichenketten, der Standardisierung von Datumsangaben oder der Normalisierung numerischer Werte, die gemeinhin unter dem Begriff der Datenbereinigung zusammengefasst werden. Dieser Forschungsschwerpunkt geht von einer perfekt strukturierten Eingabetabelle aus. Folglich können die genannten Datenbereinigungsaufgaben erst dann effektiv durchgeführt werden, wenn die Tabelle erfolgreich in die entsprechende Datenbereinigungsumgebung geladen wurde, was in der Regel in den späteren Phasen der Datenverarbeitungspipeline geschieht. Während aktuelle Datenbereinigungstools gut für relationale Tabellen geeignet sind, enthalten große Datenrrepositories aufgrund ihres flexiblen Standards häufig Daten, die in reinen Textdateien, wie z. B. CSV-Dateien, gespeichert sind. Folglich weisen diese Dateien oft Tabellen mit einem flexiblen Layout von Zeilen und Spalten auf, denen eine relationale Struktur fehlt. Diese Flexibilität führt häufig dazu, dass die Daten beliebig über die einzelnen Zellen der Tabelle verteilt sind, was in der Regel durch benutzerdefinierte Formatierungsrichtlinien gesteuert wird. Um diese Tabellen effektiv zu extrahieren und in den nachgelagerten Verarbeitungsschritten nutzen zu können, ist ein präzises Parsen erforderlich. In dieser Arbeit wird der Schwerpunkt auf das gelegt, was wir als “Struktur” einer Datendatei definieren - die grundlegenden Zeichen innerhalb einer Datei, die für das Parsen und Verstehen ihres Inhalts wesentlich sind. Die vorliegende Arbeit konzentriert sich auf die ersten Stufen der Datenvorverarbeitung und behandelt zwei entscheidende Aspekte: Das Verstehen des strukturellen Layouts einer Tabelle in einer Rohdatendatei und das automatische Erkennen und Korrigieren von strukturellen Problemen, die das Parsen der Datei erschweren könnten. Auch wenn sich diese Probleme nicht direkt auf den Inhalt der Tabelle auswirken, stellen sie eine große Herausforderung beim Parsen der Tabelle in der Datei dar. Unser erster Beitrag besteht aus einem umfassenden Überblick über kommerziell verfügbare Datenaufbereitungstools. In dieser Übersicht werden ihre besonderen Merkmale, die fehlenden Merkmale und die Notwendigkeit einer vorläufigen Datenverarbeitung trotz dieser Werkzeuge eingehend untersucht. Das primäre Ziel ist es, den aktuellen Stand der Technik bei den Datenaufbereitungssystemen zu ermitteln und gleichzeitig Bereiche zu identifizieren, die verbessert werden können. Darüber hinaus werden die bei der Datenvorverarbeitung aufgetretenen Herausforderungen untersucht und Möglichkeiten für künftige Forschung und Weiterentwicklungen aufgezeigt. Als Nächstes schlagen wir eine neuartige Datenaufbereitungspipeline zur Erkennung und Korrektur von strukturellen Fehlern vor. Ziel dieser Pipeline ist es, die Nutzer in der anfänglichen Vorverarbeitungsphase zu unterstützen, indem das korrekte Laden ihrer Daten in ihre bevorzugten Systeme sichergestellt wird. Unser Ansatz beginnt mit der Einführung von SURAGH, einem unüberwachten System, das eine musterbasierte Methode verwendet, um dominante Muster innerhalb einer Datei zu identifizieren, unabhängig von externen Informationen wie Datentypen, Zeilenstrukturen oder Schemata. Durch die Identifizierung von Abweichungen vom vorherrschenden Muster werden fehlerhafte Zeilen erkannt. Anschließend sammelt unser Strukturkorrektursystem, TASHEEH, die identifizierten fehlerhaften Zeilen zusammen mit den dominanten Mustern und verwendet eine neuartige Mustertransformationsalgebra, um Fehler automatisch zu korrigieren. Unsere Pipeline dient als End-to-End-Lösung, die eine strukturell fehlerhafte CSV-Datei in eine gut formatierte Datei umwandelt, die in der Regel für ein nahtloses Laden geeignet ist. Schließlich stellen wir MORPHER vor, eine benutzerfreundliche GUI, die die Funktionen von SURAGH und TASHEEH integriert. Mit Hilfe von visuellen Elementen ermöglicht diese Schnittstelle den Benutzern den Zugriff auf die Funktionen der Pipeline. Unsere umfangreichen Experimente zeigen die Effektivität unserer Datenaufbereitungssysteme, die kein Eingreifen des Benutzers erfordern. Sowohl SURAGH als auch TASHEEH übertreffen bestehende State-of-the-Art-Methoden in den beiden Metriken Precision und Recall deutlich. KW - Datenaufbereitung KW - Datenintegration KW - Datenverwaltung KW - Datenqualität KW - data preparation KW - data integration KW - data management KW - data quality Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-655678 ER - TY - THES A1 - Wolf, Alexander Karsten T1 - Pfadbrechende und pfadbestätigende Dienstleistungspotenziale in der deutschen Gesundheitswirtschaft durch Quantified-Self-Applikationen BT - Eine Delphi-Studie BT - A Delphi study N2 - Quantified Self, die pro-aktive Selbstvermessung von Menschen, hat sich in den letzten Jahren von einer Nischenanwendung zu einem Massenphänomen entwickelt. Dabei stehen den Nutzern heute vielfältige technische Unterstützungsmöglichkeiten, beispielsweise in Form von Smartphones, Fitness-Trackern oder Gesundheitsapps zur Verfügung, welche eine annähernd lückenlose Überwachung unterschiedlicher Kontextfaktoren einer individuellen Lebenswirklichkeit erlauben. In der Folge widmet sich diese Arbeit unter anderem der Fragestellung, inwieweit diese intensive und eigen-initiierte Beschäftigung, insbesondere mit gesundheitsbezogenen Daten, die weitgehend als objektiviert und damit belastbar gelten, die Gesundheitskompetenz derart aktiver Menschen erhöhen kann. Darüber hinaus werden Aspekte untersucht, inwieweit die neuen Technologien in der Lage sind, spezifische medizinische Erkenntnisse zu vertiefen und in der Konsequenz die daraus resultierenden Behandlungsprozesse zu verändern. Während der Ursprung des Quantified Self im 2. Gesundheitsmarkt liegt, geht die vorliegende Arbeit der Frage nach, welche strukturellen, personellen und prozessualen Anknüpfungspunkte perspektivisch im 1. Gesundheitsmarkt existieren werden, wenn ein potentieller Patient in einer stärker emanzipierten Weise den Wunsch verspürt, oder eine entsprechende Forderung stellt, seine gesammelten Gesundheitsdaten in möglichst umfassender Form in eine medizinische Behandlung zu integrieren. Dabei werden auf der einen Seite aktuelle Entwicklungen im 2. Gesundheitsmarkt untersucht, die gekennzeichnet sind von einer hohen Dynamik und einer großen Intransparenz. Auf der anderen Seite steht der als stark reguliert und wenig digitalisiert geltende 1. Gesundheitsmarkt mit seinen langen Entwicklungszyklen und ausgeprägten Partikularinteressen der verschiedenen Stakeholder. In diesem Zuge werden aktuelle Entwicklungen des zugrunde liegenden Rechtsrahmens, speziell im Hinblick auf stärker patientenzentrierte und digitalisierte Normen untersucht, wobei insbesondere das Digitale Versorgung Gesetz eine wichtige Rolle einnimmt. Ziel der Arbeit ist die stärkere Durchdringung von Wechselwirkungen an der Schnittstelle zwischen den beiden Gesundheitsmärkten in Bezug auf die Verwendung von Technologien der Selbstvermessung, um in der Folge zukünftige Geschäftspotentiale für existierende oder neu in den Markt drängende Dienstleister zu eruieren. Als zentrale Methodik kommt hier eine Delphi-Studie zum Einsatz, die in einem interprofessionellen Ansatz versucht, ein Zukunftsbild dieser derzeit noch sehr jungen Entwicklungen für das Jahr 2030 aufzuzeigen. Eingebettet werden die Ergebnisse in die Untersuchung einer allgemeinen gesellschaftlichen Akzeptanz der skizzierten Veränderungen. N2 - Quantified Self, the proactive self-measurement of people, has developed from a niche application to a mass phenomenon in recent years. A wide range of technical support options are available to users today, for example in the form of smartphones, fitness trackers or health apps, which allow almost complete monitoring of different contextual factors of an individual's everyday reality. As a result, this work is devoted, among other things, to the question of the extent to which this intensive and self-initiated occupation, in particular with health-related data, which are largely considered objectified and therefore reliable, can increase the health competence of such active people. In addition, aspects are examined to determine to what extent the new technologies are able to deepen specific medical knowledge and consequently to change the resulting treatment processes. While the origin of the Quantified Self lies in the 2nd healthcare market (“2. Gesundheitsmarkt”), this work investigates which structural, personal and procedural points of contact will exist in the 1st first healthcare market (“1. Gesundheitsmarkt”) if a potential patient feels the desire in a more emancipated way, or a corresponding demand, to integrate the collected health data in the most comprehensive form possible into a medical treatment. On the one hand, current developments in the 2nd second healthcare market are being examined, which are characterized by high dynamics and a great lack of transparency. On the other hand, there is the 1st healthcare market, which is considered to be heavily regulated but not very digitalized, with its long development cycles and distinct particular interests of the various stakeholders. In this context, current developments in the underlying legal framework, especially with regard to more patient-centric and digitized norms, are examined, with the Digital Healthcare Act (“Digitale Versorgung Gesetz”) playing an important role. The aim of the work is the stronger penetration of interactions at the interface between the two healthcare markets in relation to the use of self-monitoring technologies in order to subsequently determine future business potential for existing or new service providers entering the market. A Delphi study is used as the central methodology here, which uses an interprofessional approach to try to show a future picture of these currently very young developments for the year 2030. The results are embedded in the investigation of general social acceptance of the changes outlined. T2 - Path-breaking and path-confirming service potentials in the German healthcare industry through Quantified-Self applications KW - Delphi KW - Quantified Self KW - Gesundheitswirtschaft KW - Dienstleistungspotenziale KW - Zukunftsforschung KW - Delphi KW - service potentials KW - healthcare industry KW - quantified self KW - future studies Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651384 ER - TY - THES A1 - Brinkmann, Charlotte T1 - Molecular characterisation of the Xanthomonas type III effector XopM T1 - Funktionelle Charakterisierung des Typ-III-Effektors XopM aus Xanthomonas N2 - Due to their sessile lifestyle, plants are constantly exposed to pathogens and possess a multi-layered immune system that prevents infection. The first layer of immunity called pattern-triggered immunity (PTI), enables plants to recognise highly conserved molecules that are present in pathogens, resulting in immunity from non-adaptive pathogens. Adapted pathogens interfere with PTI, however the second layer of plant immunity can recognise these virulence factors resulting in a constant evolutionary battle between plant and pathogen. Xanthomonas campestris pv. vesicatoria (Xcv) is the causal agent of bacterial leaf spot disease in tomato and pepper plants. Like many Gram-negative bacteria, Xcv possesses a type-III secretion system, which it uses to translocate type-III effectors (T3E) into plant cells. Xcv has over 30 T3Es that interfere with the immune response of the host and are important for successful infection. One such effector is the Xanthomonas outer protein M (XopM) that shows no similarity to any other known protein. Characterisation of XopM and its role in virulence was the focus of this work. While screening a tobacco cDNA library for potential host target proteins, the vesicle-associated membrane protein (VAMP)-associated protein 1-2 like (VAP12) was identified. The interaction between XopM and VAP12 was confirmed in the model species Nicotiana benthamiana and Arabidopsis as well as in tomato, a Xcv host. As plants possess multiple VAP proteins, it was determined that the interaction of XopM and VAP is isoform specific. It could be confirmed that the major sperm protein (MSP) domain of NtVAP12 is sufficient for binding XopM and that binding can be disrupted by substituting one amino acid (T47) within this domain. Most VAP interactors have at least one FFAT (two phenylalanines [FF] in an acidic tract) related motif, screening the amino acid sequence of XopM showed that XopM has two FFAT-related motifs. Substitution of the second residue of each FFAT motif (Y61/F91) disrupts NtVAP12 binding, suggesting that these motifs cooperatively mediate this interaction. Structural modelling using AlphaFold further confirmed that the unstructured N-terminus of XopM binds NtVAP12 at its MSP domain, which was further confirmed by the generation of truncated XopM variants. Infection of pepper leaves, with a XopM deficient Xcv strain did not result in a reduction of virulence in comparison to the Xcv wildtype, showing that the function of XopM during infection is redundant. Virus-induced gene silencing of NbVAP12 in N. benthamiana plants also did not affect Xcv virulence, which further indicated that interaction with VAP12 is also non-essential for Xcv virulence. Despite such findings, ectopic expression of wildtype XopM and XopMY61A/F91A in transgenic Arabidopsis seedlings enhanced the growth of a non-pathogenic Pseudomonas syringae pv. tomato (Pst) DC3000 strain. XopM was found to interfere with the PTI response allowing Pst growth independent of its binding to VAP. Furthermore, transiently expressed XopM could suppress reactive oxygen species (ROS; one of the earliest PTI responses) production in N. benthamiana leaves. The FFAT double mutant XopMY61A/F91A as well as the C-terminal truncation variant XopM106-519 could still suppress the ROS response while the N-terminal variant XopM1-105 did not. Suppression of ROS production is therefore independent of VAP binding. In addition, tagging the C-terminal variant of XopM with a nuclear localisation signal (NLS; NLS-XopM106-519) resulted in significantly higher ROS production than the membrane localising XopM106-519 variant, indicating that XopM-induced ROS suppression is localisation dependent. To further characterise XopM, mass spectrometry techniques were used to identify post-translational modifications (PTM) and potential interaction partners. PTM analysis revealed that XopM contains up to 21 phosphorylation sites, which could influence VAP binding. Furthermore, proteins of the Rab family were identified as potential plant protein interaction partners. Rab proteins serve a multitude of functions including vesicle trafficking and have been previously identified as T3E host targets. Taking this into account, a model of virulence of XopM was proposed, with XopM anchoring itself to VAP proteins to potentially access plasma membrane associated proteins. XopM possibly interferes with vesicle trafficking, which in turn suppresses ROS production through an unknown mechanism. In this work it was shown that XopM targets VAP proteins. The data collected suggests that this T3E uses VAP12 to anchor itself into the right place to carry out its function. While more work is needed to determine how XopM contributes to virulence of Xcv, this study sheds light onto how adapted pathogens overcome the immune response of their hosts. It is hoped that such knowledge will contribute to the development of crops resistant to Xcv in the future. N2 - Aufgrund ihrer sessilen Lebensweise sind Pflanzen ständig Pathogenen ausgesetzt und verfügen über ein mehrschichtiges Immunsystem, das Infektionen verhindert. Die erste Barriere dieser Abwehr, genannt PTI (von pattern-triggered immunity) erkennt hochkonservierte Moleküle von Krankheitserregern und ermöglicht somit eine Immunität gegen unspezifische nicht-angepasste Pathogene. Die zweite Barriere der Immunität erkennt Virulenzfaktoren von angepassten Krankheitserregern. Xanthomonas campestris pv. vesicatoria (Xcv) ist der Erreger der die Fleckenkrankheit bei Tomaten- und Paprikapflanzen verursacht. Xcv besitzt ein Typ-III-Sekretionssystem, mit dem es Typ-III-Effektoren (T3E) in Pflanzenzellen einschleust. Einer dieser Effektoren ist XopM, dass keine Ähnlichkeit mit anderen bekannten Proteinen aufweist. Daher war die Charakterisierung von XopM und dessen Rolle in der Virulenz das Ziel dieser Arbeit. VAP12 (von vesicle-associated membrane protein (VAMP)-associated protein 1-2) wurde als Interaktionspartner von XopM und damit als dessen potenzielles Wirtszellziel in Tabak identifiziert. Die Interaktion zwischen XopM und VAP12 wurde mit den homologen Proteinen der Modellpflanzen Nicotiana benthamiana und Arabidopsis sowie in Tomaten, einem Xcv-Wirt, bestätigt. Da Pflanzen mehrere VAP-Proteine besitzen, wurde festgestellt, dass die Interaktion mit XopM spezifisch für eine bestimmte Gruppe von VAPs ist. Es konnte zudem bestätigt werden, dass die MSP-Domäne von NtVAP12 ausreicht, um XopM zu binden, und dass die Bindung durch den Austausch einer Aminosäure (T47) in dieser Domäne gestört werden kann. Die meisten VAP-Interaktoren weisen mindestens ein FFAT (von two phenylalanines [FF] in an acidic tract) -ähnliches Motiv auf. Die Sequenzanalyse von XopM zeigte, dass XopM zwei FFAT-ähnliche Motive aufweist. Der Austausch der zweiten Aminosäure jedes FFAT-Motivs (Y61/F91) führt zum Verlust der Bindung an NtVAP12 und legt nahe, dass diese Motive kooperativ die Interaktion mit NtVAP12 vermitteln. Eine Strukturmodellierung mittels AlphaFold bestätigte darüber hinaus, dass der unstrukturierte N-Terminus von XopM an der MSP-Domäne von NtVAP12 bindet. Verkürzte XopM Varianten, bspw. der Verlust des N- oder C-Terminus, bestätigten diese Beobachtung. Die Infektion von Paprikablättern mit einem XopM-defizienten Xcv-Stamm führte im Vergleich zum Xcv-Wildtyp nicht zu einer Verringerung der Virulenz, was darauf hindeutet, dass die Funktion von XopM während der Infektion redundant ist. Die Virus-induzierte Genstilllegung von NbVAP12 in N. benthamiana Pflanzen beeinflusste ebenfalls nicht die Virulenz von Xcv, was darauf hinweist, dass die Wechselwirkung mit VAP12 für die Virulenz von Xcv ebenfalls nicht essentiell ist. Im Gegensatz dazu verbesserte die induzierte Expression von Wildtyp-XopM und XopMY61A/F91A in transgenen Arabidopsis Sämlingen das Wachstum eines nicht-pathogenen Pseudomonas syringae pv. tomato (Pst) DC3000 Stammes. Somit beeinträchtigt XopM die PTI-Reaktion und stärkt das Pst Wachstum, unabhängig von der Bindung an VAP. Darüber hinaus konnte XopM die Produktion von reaktiven Sauerstoffspezies (ROS; eine der frühesten PTI-Reaktionen) in N. benthamiana-Blättern unterdrücken. Dieselbe Beobachtung konnte für die FFAT-Doppelmutante XopMY61A/F91A sowie die C-terminale verkürzte XopM106-519 Variante gemacht werden, während die N-terminale Variante XopM1-105 dies nicht vermochte. Die Unterdrückung der ROS-Produktion ist daher unabhängig von der VAP-Bindung. Zusätzlich führte das Anbringen eines Kernlokalisationssignals (NLS; NLS- XopM106-519) an die C-terminale Variante von XopM zu einer signifikant höheren ROS-Produktion als bei der membranlokalisierenden XopM106-519-Variante, was darauf hinweist, dass die XopM-induzierte ROS-Unterdrückung lokalisationsabhängig ist. Um XopM weiter zu charakterisieren, wurden massenspektrometrische Techniken zur Identifizierung posttranslationaler Modifikationen (PTM) und potenzieller Interaktionspartner verwendet. Die PTM-Analyse ergab, dass XopM bis zu 21 Phosphorylierungsstellen enthält, die die VAP-Bindung potenziell beeinflussen könnten. Darüber hinaus wurden Proteine der Rab-Familie als potenzielle Interaktionspartner von Pflanzenproteinen identifiziert. Rab-Proteine erfüllen vielfältige Funktionen, einschließlich des Vesikeltransports, und wurden bereits zuvor als T3E-Wirtsziele identifiziert. Unter Berücksichtigung dieser Erkenntnisse wurde ein Modell der Virulenz von XopM vorgeschlagen, bei dem die Bindung mit VAP plasmamembran-assoziierte Proteinen für XopM leichter zugänglich macht. XopM beeinträchtigt womöglich den Vesikeltransport, was wiederum die ROS-Produktion durch einen unbekannten Mechanismus unterdrückt. In dieser Arbeit wurde gezeigt, dass der Xcv T3E XopM die sogenannten VAP-Proteine als Ziel hat. Die gesammelten Daten legen nahe, dass XopM für die Vermittlung seiner Virulenz VAP12 nutzt, um sich in der Wirtszelle ortsspezifisch zu verankern. Dies erlaubt XopM seine Virulenz Funktion auszuführen. Obwohl weitere Untersuchungen erforderlich sind, um festzustellen, wie XopM mechanistisch zur Virulenz von Xcv beiträgt, beleuchtet diese Studie, wie angepasste Pathogene die Immunantwort ihrer Wirte überwinden können. Dieses Wissen könnte dazu beitragen, dass in der Zukunft krankheitsresistente Pflanzen gegen Xcv entwickelt werden. KW - Xanthomonas KW - type-III effector KW - VAP protein KW - VAP Protein KW - Xanthomonas KW - Typ-III-Effektor Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648985 ER - TY - THES A1 - Wilke, Heinrich T1 - The order of destruction BT - monoculture in colonial Caribbean literature, c. 1640-1800 T2 - Transdisciplinary souths N2 - This book studies sugarcane monoculture, the dominant form of cultivation in the colonial Caribbean, in the later 1600s and 1700s up to the Haitian Revolution. Researching travel literature, plantation manuals, Georgic poetry, letters, and political proclamations, this book interprets texts by Richard Ligon, Henry Drax, James Grainger, Janet Schaw, and Toussaint Louverture. As the first extended investigation into its topic, this book reads colonial Caribbean monoculture as the conjunction of racial capitalism and agrarian capitalism in the tropics. Its eco-Marxist perspective highlights the dual exploitation of the soil and of enslaved agricultural producers under the plantation regime, thereby extending Marxist analysis to the early colonial Caribbean. By focusing on textual form (in literary and non-literary texts alike), this study discloses the bearing of monoculture on contemporary writers' thoughts. In the process, it emphasizes the significance of a literary tradition that, despite its ideological importance, is frequently neglected in (postcolonial) literary studies and the environmental humanities. Located at a crossroads of disciplines and perspectives, this study will be of interest to literary critics and historians working in the early Americas, to students and scholars of agriculture, colonialism, and (racial) capitalism, to those working in the environmental humanities, and to Marxist academics. It will be of great interest to scholars and researchers of language and literature, post-colonial studies, cultural studies, diaspora studies, and the Global South studies Y1 - 2024 SN - 978-1-032-51416-1 SN - 978-1-003-46593-5 SN - 978-1-003-78128-0 U6 - https://doi.org/10.4324/9781003465935 PB - Routledge CY - London ER - TY - THES A1 - Bauer, Stephan T1 - Efraim Frisch und Albrecht Mendelssohn Bartholdy BT - Stationen und Kontexte einer intellektuellen Doppelbiografie (1900–1939) N2 - Efraim Frisch (1873–1942) und Albrecht Mendelssohn Bartholdy (1874–1936) waren im klassischen Zeitalter der Intellektuellen (neben anderem) Zeitschriftenentrepeneure und Gründer der kleinen Zeitschriften Der Neue Merkur (1914–1916/1919–1925) und Europäische Gespräche (1923–1933). Sie stehen (nicht nur mit ihren Zeitschriften) für einen der wiederholt in der Moderne unternommenen Versuche, die in der Aufklärung erschlossenen Ressourcen – demokratischer Republikanismus und universelle und gleiche Rechte für alle Menschen – im Vertrauen auf ihre globale Umsetzbarkeit zu aktivieren. In der Zeit der Weimarer Republik gehörten sie zu den Republikanern, „die Weimar als Symbol ernst nahmen und zäh und mutig bemüht waren, dem Ideal konkreten Inhalt zu verleihen“ (Peter Gay). Ihr bislang unüberliefert gebliebenes Beispiel fügt sich ein in die Demokratiegeschichte der europäischen Moderne, in die Geschichte internationaler Gesellschaftsbeziehungen und die Geschichte der Selbstbehauptung intellektueller Autonomie. Die zäsurenübergreifend den Zeitraum von 1900 bis ca. 1940 untersuchende Studie ermöglicht wesentliche Einblicke in die Biografien Frischs und Mendelssohn Bartholdys, in die deutsch-französische/europäisch-transatlantische Welt der kleinen (literarisch-politischen) Zeitschriften des frühen 20. Jahrhunderts sowie in das medien-intellektuelle Feld des späten Kaiserreiches und der Weimarer Republik in seiner humanistisch-demokratisch-republikanischen Tendenz. Darüber hinaus beinhaltet sie neue Erkenntnisse zur Geschichte der ‚Heidelberger Vereinigung‘ – der Arbeitsgemeinschaft für eine Politik des Rechts – um Prinz Max von Baden, zur deutschen Friedensdelegation in Versailles 1919 und ihrem Hamburger Nachleben, zum Handbuch der Politik sowie zur ersten amtlichen Aktenpublikation des Auswärtigen Amtes – der Großen Politik der Europäischen Kabinette 1871–1914. Schließlich zu den Bemühungen der ‚Internationalists‘ der 1920er Jahre, eine effektive Ächtung des Angriffskrieges herbeizuführen. N2 - Based on their estates this work examines the life stories of Efraim Frisch (1873, Stryj, Galicia/1942, Ascona) and Albrecht Mendelssohn Bartholdy (1874, Karlsruhe/1936, Oxford). The focus of the study is on their intellectual careers, which are examined across periods from 1900 to around 1939. Of central importance is the literary-political journal Der Neue Merkur (1914–1916/1919–1925), which was published by Frisch, the Hamburg Institute for Foreign Policy directed by Mendelssohn Bartholdy and its organ, the Europäische Gespräche (1923–1933), as well the bilingual magazine for intellectual understanding (Hamburg-) Amerika-Post (1929–1933). This work provides new insights, for example, on the intellectual assertion of autonomy in the 1920s, on the history of democracy in Germany in the early 20th century and on the history of liberal internationalism as a political project, furthermore on the history of the 'Heidelberger Vereinigung' around Prince Max von Baden, on the publication of the Große Politik der Europäischen Kabinette 1871–1914 (the first official file edition of the Foreign Office), on the civil society efforts to reach understanding after the First World War and on the global networking of political science research institutes in the 1920s and early 1930s. The relevance of the example of Efraim Frisch and Albrecht Mendelssohn Bartholdy lays in their hopeful advocacy for the Weimar Republic and their involvement in European/transatlantic intellectual relations after the First World War. KW - Weimarer Republik KW - Intellektuelle KW - Intellectual History KW - Biografie KW - Demokratiegeschichte KW - Geschichte der internationalen Gesellschaftsbeziehungen KW - Geschichte des 20. Jahrhunderts Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-629846 SN - 978-3-86956-577-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wamwanduka, Leo T1 - Examining the translation of gender norms in Southern Africa BT - the case of convention on the Elimination of Discrimination Against Women (CEDAW) translation by Zimbabwe's Public Sector to Address Violence Against Women (VAW) Y1 - 2024 ER - TY - THES A1 - Gladkaya, Margarita T1 - Essays on the digitization of the individual BT - affordances, use patterns, outcomes Y1 - 2024 ER - TY - THES A1 - Liu, Qingting T1 - Regulation of Starch Granule Morphogenesis in Arabidopsis thaliana N2 - Carbohydrates play a vital role in all living organisms; serving as a cornerstone in primary metabolism through the release of energy from their hydrolysis and subsequent re-utilization (Apriyanto et al., 2022). Starch is the principal carbohydrate reserve in plants, providing essential energy for plant growth. Furthermore, starch serves as a significant carbohydrate source in the human diet. Beyond its nutritional value, starch has extensive industrial application associated with many aspects of human society, such as feed, pharmacy, textiles, and the production of biodegradable plastics. Understanding the mechanisms underlying starch metabolism in plants carries multifaceted benefits. Not only does it contribute to increasing crop yield and refining grain quality, but also can improve the efficiency of industrial applications. Starch in plants is categorized into two classes based on their location and function: transitory starch and storage starch. Transitory starch is produced in chloroplasts of autotrophic tissues/organs, such as leaves. It is synthesized during the day and degraded during the night. Storage starch is synthesized in heterotrophic tissues/organs, such as endosperm, roots and tubers, which is utilized for plant reproduction and industrial application in human life. Most studies aiming to comprehend starch metabolism of Arabidopsis thaliana primarily focus on transitory starch. Starch is stored as granular form in chloroplast and amyloplast. The parameters of starch granules, including size, morphology, and quantity per chloroplast serve as indicators of starch metabolism status. However, the understanding of their regulatory mechanism is still incomplete. In this research, I initially employed a simple and adapted method based on laser confocal scanning microscopy (LCSM) to observe size, morphology and quantity of starch granules within chloroplasts in Arabidopsis thaliana in vivo. This method facilitated a rapid and versatile analysis of starch granule parameters across numerous samples. Utilizing this approach, I compared starch granule number per chloroplast between mesophyll cells and guard cells in both wild type plants (Col-0) and several starch related mutants. The results revealed that the granule number is distinct between mesophyll cells and guard cells, even within the same genetic background, suggesting that guard cells operate a unique regulatory mechanism of starch granule number. Subsequently, I redirected my attention toward examining starch morphology. Through microscopy analyses, I observed a gradual alteration in starch granule morphology in certain mutants during leaf aging. Specifically, in mutants such as sex1-8 and dpe2phs1ss4, there was a progressive alteration in starch granule morphology over time. Conversely, in Col-0 and ss4 mutant, these morphological alterations were not evident. This discovery suggests a new perspective to understand the development of starch morphology. Further investigation revealed that mutants lacking either Disproportionating enzyme 2 (DPE2) or MALTOSE-EXCESS 1 (MEX1) exhibited gradual alterations in starch morphology with leaf aging. Notably, the most severe effects on starch morphology occurred in double mutants lacking either DPE2 or MEX1 in conjunction with a lack of starch synthase 4 (SS4). In these mutations, a transformation of the starch granule morphology from the typical discoid morphology to oval and eventually to a spherical shape. To investigate the changes in the internal structure of starch during this alteration, I analyzed the chain length distribution (CLD) of the amylopectin of young, intermediate and old leaves of the mutants. Throughout starch granule development, I found an increased presence of short glucan chains within the granules, particularly evident in dpe2ss4 and mex1ss4 mutants, as well as their parental single mutants. Notably, the single mutant ss4 also showed an affected granule morphology, albeit not influenced by leaf aging.. The CLD pattern of the amylopectin reflects an integrative regulation involving several participants in starch synthesis, including starch synthases (SSs), starch branching/debranching enzymes (SBEs/DBEs). Therefore, I further detected the expression of related genes on transcription level and the enzymatic activity of their respective proteins. Results indicated altered gene expression of several regulators in these mutants, particularly demonstrating dramatic alterations in dpe2 and dpe2ss4 with leaf aging. These changes corresponded with the observed alterations in starch granule morphology. Taken together, I have identified and characterized a progressive alteration in starch granule morphology primarily resulting from the deficiencies in DPE2 and MEX1. Furthermore, I have associated the CLD pattern with the granule morphogenesis, as well as the gene expression and enzymatic activity of proteins involved in starch synthesis. Unlike SS4, which is implicated in starch initiation, MEX1 and DPE2 are involved into starch degradation. MEX1 is located in chloroplast envelope and DPE2 is situated in the cytosol. Considering the locations and known functions of DPE2/MEX1 and SS4, I infer that there might be two pathways influencing starch morphology: an initiation-affected pathway via SS4 and a degradation-affected pathway via DPE2/MEX1. N2 - Kohlenhydrate spielen eine wichtige Rolle in allen lebenden Organismen, als Grundpfeiler im primären Stoffwechsel, indem sie Energie durch ihre Hydrolyse freisetzen und anschließend wiederverwendet werden können (Apriyanto et al., 2022). Stärke ist die Hauptreserve an Kohlenhydraten in Pflanzen und liefert die essentielle Energie für das Pflanzenwachstum. Darüber hinaus dient Stärke als bedeutende Kohlenhydratquelle in der menschlichen Ernährung. Abgesehen von ihrem Nährwert hat Stärke umfangreiche industrielle Anwendungen in Bereichen wie Futtermittel, Pharmazie, Textilien und der Herstellung biologisch abbaubarer Kunststoffe. Das Verständnis der Mechanismen, die dem Stoffwechsel von Stärke in Pflanzen zugrunde liegen, birgt vielfältige Vorteile. Es trägt nicht nur zur Steigerung des Ernteertrags und zur Verbesserung der Kornqualität bei, sondern kann auch die Effizienz industrieller Anwendungen verbessern. Stärke in Pflanzen wird je nach ihrem Ort und ihrer Funktion in zwei Klassen eingeteilt: transitorische Stärke und Speicherstärke. Transitorische Stärke wird in Chloroplasten autotropher Gewebe/Organe wie Blätter produziert. Sie wird tagsüber synthetisiert und nachts abgebaut. Speicherstärke wird in heterotrophen Geweben/Organen wie Endosperm, Wurzeln und Knollen synthetisiert und für die Pflanzenreproduktion sowie industrielle Anwendungen im menschlichen Leben genutzt. Die meisten Studien zur Aufklärung des Stärkestoffwechsels von Arabidopsis thaliana konzentrieren sich hauptsächlich auf transitorische Stärke. Stärke wird in granularer Form in Chloroplasten und Amyloplasten gespeichert. Die Parameter der Stärkegranula, einschließlich Größe, Morphologie und Anzahl pro Chloroplast, dienen als Indikatoren für den Status des Stärkestoffwechsels. Das Verständnis ihrer regulatorischen Mechanismen ist jedoch noch unvollständig. In meiner Forschung habe ich zunächst eine Methode auf Basis der laser-konfokalen Rastermikroskopie (LCSM) etabliert, um Größe, Morphologie und Anzahl der Stärkegranula innerhalb der Chloroplaste von Arabidopsis thaliana in vivo zu beobachten. Diese Methode ermöglicht eine schnelle und vielseitige Analyse der Parameter der Stärkegranula in zahlreichen Proben. Unter Verwendung dieses Ansatzes verglich ich die Anzahl der Stärkegranula pro Chloroplast zwischen Mesophyllzellen und Schließzellen sowohl bei Wildtyp-Pflanzen (Col-0) als auch bei verschiedenen stärkebezogenen Mutanten. Die Ergebnisse zeigten, dass die Granulanzahl zwischen Mesophyllzellen und Schließzellen, selbst im identischen genetischen Hintergrund, unterschiedlich ist, was darauf hindeutet, dass Schließzellen einen einzigartigen regulatorischen Mechanismus der Stärkegranulanzahl aufweisen. Anschließend richtete ich meine Aufmerksamkeit darauf, die Stärkemorphologie zu untersuchen. Durch mikroskopische Analysen beobachtete ich eine allmähliche Veränderung der Stärkegranulamorphologie bei bestimmten Mutanten während des Blattalters. Insbesondere bei Mutanten wie sex1-8 und dpe2phs1ss4 gab es im Laufe der Zeit eine fortschreitende Veränderung der Stärkegranulamorphologie. Im Gegensatz dazu waren bei Col-0 und den ss4-Mutanten diese morphologischen Veränderungen nicht erkennbar. Diese Entdeckung ermöglicht eine neue Perspektive, um die Entwicklung der Stärkemorphologie zu verstehen. Weitere Untersuchungen zeigten, dass Mutanten, denen entweder das Disproportionierende Enzym 2 (DPE2) oder MALTOSE-EXCESS 1 (MEX1) fehlen, im Laufe des Blattalters allmähliche Veränderungen in der Stärkemorphologie aufwiesen. Bemerkenswerterweise traten die schwerwiegendsten Auswirkungen auf die Stärkemorphologie bei Doppelmutanten auf, die entweder DPE2 oder MEX1 in Verbindung mit einem Mangel an Stärkesynthase 4 (SS4) aufwiesen. Bei diesen Mutationen wurde eine Transformation der Stärkegranulamorphologie von der typischen scheibenförmigen Morphologie zu ovalen und schließlich zu einer kugelförmigen Form festgestellt. Um die Veränderungen in der inneren Struktur der Stärke während dieser Veränderung zu untersuchen, analysierte ich die Kettenlängenverteilung (KLV) des Amylopektins von jungen, mittleren und alten Blättern der Mutanten. Während der Entwicklung der Stärkegranula fand ich eine vermehrte Anwesenheit kurzer Glukanketten innerhalb der Granula, insbesondere bei den Mutanten dpe2ss4 und mex1ss4 sowie der zugrundeliegenden Einzelmutanten. Bemerkenswerterweise zeigte auch die Einzelmutant ss4 eine beeinträchtigte Granulamorphologie, die jedoch nicht durch das Blattalter beeinflusst wurde. Das KLV-Muster des Amylopektins spiegelt eine integrierte Regulation mehrerer an der Stärkesynthese Beteiligter Enzyme wider, einschließlich Stärkesynthasen (SSs) und Stärkeverzweigungs-/entzweigungs-Enzymen (SBEs/DBEs). Daher habe ich die Expression der beteiligten Gene auf Transkriptionsebene und die enzymatische Aktivität ihrer entsprechenden Proteine weiter untersucht. Die Ergebnisse deuten auf veränderte Genexpression mehrerer Regulatoren in diesen Mutanten hin, insbesondere auf dramatische Veränderungen bei dpe2 und dpe2ss4 mit zunehmendem Blattalter. Diese Veränderungen korrelieren mit den beobachteten Veränderungen in der Stärkegranulamorphologie. Zusammenfassend habe ich eine fortschreitende Veränderung der Stärkegranulat-Morphologie identifiziert und charakterisiert, die hauptsächlich auf Defizite in DPE2 und MEX1 zurückzuführen ist. Des Weiteren habe ich das KLV-Muster mit der Granulatmorphogenese sowie der Genexpression und enzymatischen Aktivität von Proteinen, die an der Stärkesynthese beteiligt sind, in Verbindung gebracht. Im Gegensatz zu SS4, dass in die Stärkeinitiierung involviert ist, spielen MEX1 und DPE2 eine Rolle bei Stärkeabbauprozessen. MEX1 befindet sich in der Chloroplastenhülle und DPE2 im Zytoplasma. Unter Berücksichtigung der Lokalisationen und bekannten Funktionen von DPE2, MEX1 und SS4 schließe ich darauf, dass es möglicherweise zwei Wege gibt, die die Stärkemorphologie beeinflussen: einen unter Beeinflussung von SS4 der mit dem Initiierungsprozess verknüpft ist und einen durch den Stärkeabbauprozess beeinflussten verbunden mit DPE2 bzw. MEX1. T2 - Regulation der Stärkegranulat-Morphogenese in Arabidopsis thaliana KW - Arabidopsis thaliana KW - transitory starch KW - starch granule morphology KW - starch metabolism KW - maltose KW - SS4 KW - DPE2 KW - MEX1 Y1 - 2024 ER - TY - THES A1 - Pauli, Daniel T1 - Unraveling massive star and binary physics in the nearby low-metallicity galaxy, the Small Magellanic Cloud, as a proxy for high-redshift galaxies N2 - Massive stars (Mini > 8 Msol) are the key feedback agents within galaxies, as they shape their surroundings via their powerful winds, ionizing radiation, and explosive supernovae. Most massive stars are born in binary systems, where interactions with their companions significantly alter their evolution and the feedback they deposit in their host galaxy. Understanding binary evolution, particularly in the low-metallicity environments as proxies for the Early Universe, is crucial for interpreting the rest-frame ultraviolet spectra observed in high-redshift galaxies by telescopes like Hubble and James Webb. This thesis aims to tackle this challenge by investigating in detail massive binaries within the low-metallicity environment of the Small Magellanic Cloud galaxy. From ultraviolet and multi-epoch optical spectroscopic data, we uncovered post-interaction binaries. To comprehensively characterize these binary systems, their stellar winds, and orbital parameters, we use a multifaceted approach. The Potsdam Wolf-Rayet stellar atmosphere code is employed to obtain the stellar and wind parameters of the stars. Additionally, we perform consistent light and radial velocity fitting with the Physics of Eclipsing Binaries software, allowing for the independent determination of orbital parameters and component masses. Finally, we utilize these results to challenge the standard picture of stellar evolution and improve our understanding of low-metallicity stellar populations by calculating our binary evolution models with the Modules for Experiments in Stellar Astrophysics code. We discovered the first four O-type post-interaction binaries in the SMC (Chapters 2, 5, and 6). Their primary stars have temperatures similar to other OB stars and reside far from the helium zero-age main sequence, challenging the traditional view of binary evolution. Our stellar evolution models suggest this may be due to enhanced mixing after core-hydrogen burning. Furthermore, we discovered the so-far most massive binary system undergoing mass transfer (Chapter 3), offering a unique opportunity to test mass-transfer efficiency in extreme conditions. Our binary evolution calculations revealed unexpected evolutionary pathways for accreting stars in binaries, potentially providing the missing link to understanding the observed Wolf-Rayet population within the SMC (Chapter 4). The results presented in this thesis unveiled the properties of massive binaries at low-metallicity which challenge the way the spectra of high-redshift galaxies are currently being analyzed as well as our understanding of massive-star feedback within galaxies. N2 - Massereiche Sterne (Mini > 8 Msonne ) beeinflussen ihre Umgebung durch ihre starke Winde, ionisierende Strahlung und wenn sie als Supernova explodieren. Sie sind daher die Schlüsselfaktoren für die Rückkopplungsprozesse innerhalb von Galaxien. Die meisten massereichen Sterne entstehen in Doppelsternsystemen, in welchen sie mit ihren Begleitern interagieren können, was weitreichende Konsequenzen für ihre weitere Entwicklung und die Rückkopplung auf ihre Galaxie beeinflusst. Ein tiefgreifendes Verständnis der Entwicklung von Doppelsternen, insbesondere in metallarmen Umgebungen als Näherung für Sterne im frühe Universum, ist entscheidend für die richtige Interpretation der Spektren von Galaxies bei hohen Rotverschiebungen die von Weltraumteleskopen wie Hubble und James Webb beobachtet werden. Diese Dissertation widmet sich der Herausforderung für ein besseres Verständnis von Doppelsternsystemen, indem sie massereiche Doppelsterne in der metallarmen Umgebung der Galaxie „Kleinen Magellanischen Wolke“ detailliert untersucht. Anhand von zahlreichen ultravioletten und optischen Spektroskopiedaten konnten Doppelsterne, die schon miteinander interagiert haben, entdeckt werden. Um diese Doppelsternsysteme, die Parameter der einzelnen Sterne und ihrer Sternwinde sowie die Bahnparameter zu erhalten und zu charakterisieren, verwenden wir einen mehrteiligen Ansatz. Als erstes, um die Parameter der Sterne und ihrer Winde zu gewinnen, wird der Potsdamer Wolf-Rayet-Sternatmosphärencode eingesetzt. Darüber hinaus führen wir mit der Software „Physics of Eclipsing Binaries“ eine konsistente Licht- und Radialgeschwindigkeitsanpassung durch, die eine unabhängige Bestimmung der Bahnparameter und Komponentenmassen ermöglicht. Abschließend werden diese Ergebnisse verwendet, um die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage zu stellen und unser Verständnis von Sternpopulationen mit geringer Metallizität zu verbessern, indem wir Evolutionsmodelle von Doppelsternen mithilfe des Codes „Modules for Experiments in Stellar Astrophysics“ berechnen. In dieser Arbeit konnten erstmalig vier massereiche O-Typ-Doppelsterne nach einer Wechselwirkung innerhalb der Kleinen Magellanischen Wolke entdeckt werden (Kapitel 2, 5 und 6). Überraschenderweise sind die Temperaturen der Massegeber vergleichbar mit denen anderer OB-Sterne und daher kühler als zuvor erwartet. Dies stellt die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage. Unsere Sternenentwicklungsmodelle deuten darauf hin, dass die beobachtete Diskrepanz gelöst werden kann wenn man eine stärkere Durchmischung nach dem Wasserstoffbrennen im Kern annimmt. Darüber hinaus haben wir das bisher massereichste Doppelsternsystem entdeckt, welches sich gerade in einem Massenaustausch befindet (Kapitel 3). Dieses System bietet eine einzigartige Gelegenheit, die Effizienz des Massentransfers unter extremen Bedingungen zu testen. Des Weiteren haben unsere Berechnungen zur Doppelsternentwicklung unerwartete Entwicklungspfade für akkretierende Sterne in Doppelsternsystemen enthüllten, die möglicherweise das fehlende Bindeglied zum Verständnis der beobachteten Wolf-Rayet-Population in der Kleinen Magellanschen Wolke darstellen (Kapitel 4). Die in dieser Dissertation präsentierten Ergebnisse enthüllen die einzigartigen Eigenschaften von massereichen Doppelsternen in metallarmen Umgebungen, die sowohl die aktuelle Analyse der Spektren von Galaxien mit hoher Rotverschiebung als auch unser Verständnis der Rückkopplungsprozesse von massereichen Sternen in Galaxien in Frage stellen. T2 - Entschlüsselung der Physik massereicher Sterne und Doppelsternsysteme in der nahegelegenen, metallarmen Galaxie, der Kleinen Magellanschen Wolke, als Vertreter für Galaxien mit hoher Rotverschiebung KW - Massereiche Sterne KW - massive stars KW - Sternwind KW - stellar winds KW - Doppelstern KW - binary stars KW - Spektralanalyse KW - spectral analysis KW - Orbitalanalyse KW - orbital analysis KW - Sternenentwicklung KW - stellar evolution KW - OB-Sterne KW - OB-type stars KW - Wolf-Rayet Sterne KW - Wolf-Rayet stars KW - Kleine Magellansche Wolke KW - Small Magellanic Cloud Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-653184 ER - TY - THES A1 - Fulat, Karol T1 - Electron acceleration at quasi-perpendicular shocks in supernova remnants N2 - Astrophysical shocks, driven by explosive events such as supernovae, efficiently accelerate charged particles to relativistic energies. The majority of these shocks occur in collisionless plasmas where the energy transfer is dominated by particle-wave interactions.Strong nonrelativistic shocks found in supernova remnants are plausible sites of galactic cosmic ray production, and the observed emission indicates the presence of nonthermal electrons. To participate in the primary mechanism of energy gain - Diffusive Shock Acceleration - electrons must have a highly suprathermal energy, implying a need for very efficient pre-acceleration. This poorly understood aspect of the shock acceleration theory is known as the electron injection problem. Studying electron-scale phenomena requires the use of fully kinetic particle-in-cell (PIC) simulations, which describe collisionless plasma from first principles. Most published studies consider a homogenous upstream medium, but turbulence is ubiquitous in astrophysical environments and is typically driven at magnetohydrodynamic scales, cascading down to kinetic scales. For the first time, I investigate how preexisting turbulence affects electron acceleration at nonrelativistic shocks using the fully kinetic approach. To accomplish this, I developed a novel simulation framework that allows the study of shocks propagating in turbulent media. It involves simulating slabs of turbulent plasma separately, which are further continuously inserted into a shock simulation. This demands matching of the plasma slabs at the interface. A new procedure of matching electromagnetic fields and currents prevents numerical transients, and the plasma evolves self-consistently. The versatility of this framework has the potential to render simulations more consistent with turbulent systems in various astrophysical environments. In this Thesis, I present the results of 2D3V PIC simulations of high-Mach-number nonrelativistic shocks with preexisting compressive turbulence in an electron-ion plasma. The chosen amplitudes of the density fluctuations ($\lesssim15\%$) concord with \textit{in situ} measurements in the heliosphere and the local interstellar medium. I explored how these fluctuations impact the dynamics of upstream electrons, the driving of the plasma instabilities, electron heating and acceleration. My results indicate that while the presence of the turbulence enhances variations in the upstream magnetic field, their levels remain too low to influence the behavior of electrons at perpendicular shocks significantly. However, the situation is different at oblique shocks. The external magnetic field inclined at an angle between $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relative to the shock normal allows the escape of fast electrons toward the upstream region. An extended electron foreshock region is formed, where these particles drive various instabilities. Results of an oblique shock with $\theta_\text{Bn}=60^\circ$ propagating in preexisting compressive turbulence show that the foreshock becomes significantly shorter, and the shock-reflected electrons have higher temperatures. Furthermore, the energy spectrum of downstream electrons shows a well-pronounced nonthermal tail that follows a power law with an index up to -2.3. The methods and results presented in this Thesis could serve as a starting point for more realistic modeling of interactions between shocks and turbulence in plasmas from first principles. N2 - Astrophysikalische Schocks, die durch explosive Ereignisse wie Supernovae ausgelöst werden, beschleunigen geladene Teilchen effizient auf relativistische Energien. Die meisten dieser Schocks treten in kollisionsfreien Plasmen auf, in denen die Energieübertragung durch Teilchen-Wellen-Wechselwirkungen dominiert wird. Starke nichtrelativistische Schocks, die in Supernovaüberresten gefunden werden, sind plausible Orte der galaktischen kosmischen Strahlungsproduktion, und die beobachtete Emission deutet auf das Vorhandensein von nichtthermischen Elektronen hin. Um am primären Mechanismus der Energiegewinnung - der diffusiven Schockbeschleunigung - teilzunehmen, müssen die Elektronen eine hochgradig suprathermische Energie haben, was eine sehr effiziente Vorbeschleunigung voraussetzt. Dieser schlecht verstandene Aspekt der Stoßbeschleunigungstheorie ist als Elektroneninjektionsproblem bekannt. Die Untersuchung von Phänomenen auf der Elektronenskala erfordert den Einsatz von vollständig kinetischen Partikel-in-Zellen-Simulationen (PIC), die ein kollisionsfreies Plasma nach ersten Prinzipien beschreiben. Die meisten veröffentlichten Studien gehen von einem homogenen stromaufwärts gelegenen Medium aus, aber Turbulenzen sind in astrophysikalischen Umgebungen allgegenwärtig und werden typischerweise auf magnetohydrodynamischen Skalen angetrieben und kaskadieren hinunter zu kinetischen Skalen. Zum ersten Mal untersuche ich, wie sich eine bereits vorhandene Turbulenz auf die Elektronenbeschleunigung an nichtrelativistischen Schocks auswirkt, indem ich einen vollständig kinetischen Ansatz verwende. Zu diesem Zweck habe ich einen neuartigen Simulationsrahmen entwickelt, der die Untersuchung von Schocks ermöglicht, die sich in turbulenten Medien ausbreiten. Dabei werden die Platten des turbulenten Plasmas separat simuliert, die dann kontinuierlich in eine Schocksimulation eingefügt werden. Dies erfordert eine Anpassung der Plasmaplatten an der Grenzfläche. Ein neues Verfahren zur Anpassung elektromagnetischer Felder und Ströme verhindert numerische Transienten, und das Plasma entwickelt sich selbstkonsistent. Die Vielseitigkeit dieses Rahmens hat das Potenzial, Simulationen mit turbulenten Systemen in verschiedenen astrophysikalischen Umgebungen konsistenter zu machen. In dieser Arbeit präsentiere ich die Ergebnisse von 2D3V PIC-Simulationen von nichtrelativistischen Schocks mit hoher Mach-Zahl und bereits vorhandener kompressiver Turbulenz in einem Elektron-Ionen-Plasma. Die gewählten Amplituden der Dichtefluktuationen ($\lesssim15\%$) stimmen mit \textit{in situ} Messungen in der Heliosphäre und dem lokalen interstellaren Medium überein. Ich habe untersucht, wie sich diese Fluktuationen auf die Dynamik der stromaufwärts befindlichen Elektronen, den Antrieb der Plasmainstabilitäten, die Elektronenheizung und -beschleunigung auswirken. Meine Ergebnisse deuten darauf hin, dass das Vorhandensein von Turbulenzen zwar die Schwankungen des stromaufwärts gelegenen Magnetfelds verstärkt, dass aber die Schwankungen zu gering sind, um das Verhalten der Elektronen an senkrechten Schocks wesentlich zu beeinflussen. Bei schrägen Stößen ist die Situation jedoch anders. Das äußere Magnetfeld, das in einem Winkel zwischen $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relativ zur Schocknormalen ermöglicht das Entweichen schneller Elektronen in Richtung der stromaufwärts gelegenen Region. Es bildet sich eine ausgedehnte Elektronenvorstoßregion, in der diese Teilchen verschiedene Instabilitäten auslösen. Die Ergebnisse eines schrägen Schocks mit $\theta_\text{Bn}=60^\circ$, der sich in einer vorher existierenden kompressiven Turbulenz ausbreitet, zeigen, dass der Vorschock deutlich kürzer wird und die vom Schock reflektierten Elektronen höhere Temperaturen aufweisen. Darüber hinaus zeigt das Energiespektrum der stromabwärts gerichteten Elektronen einen ausgeprägten nichtthermischen Schweif, der einem Potenzgesetz mit einem Index von bis zu -2,3 folgt. Die in dieser Arbeit vorgestellten Methoden und Ergebnisse könnten als Ausgangspunkt für eine realistischere Modellierung der Wechselwirkungen zwischen Schocks und Turbulenz in Plasmen nach ersten Prinzipien dienen. T2 - Elektronenbeschleunigung bei quasi senkrechten Schocks in Supernovaüberresten KW - astrophysical shocks KW - plasma physics KW - particle acceleration KW - astrophysikalische Schocks KW - Plasmaphysik KW - Teilchenbeschleunigung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651365 ER - TY - THES A1 - Valencia Sanmiguel, Antonio T1 - Condensation and crystallization on patterned surfaces N2 - Condensation and crystallization are omnipresent phenomena in nature. The formation of droplets or crystals on a solid surface are familiar processes which, beyond their scientific interest, are required in many technological applications. In recent years, experimental techniques have been developed which allow patterning a substrate with surface domains of molecular thickness, surface area in the mesoscopic scale, and different wettabilities (i.e., different degrees of preference for a substance that is in contact with the substrate). The existence of new patterned surfaces has led to increased theoretical efforts to understand wetting phenomena in such systems. In this thesis, we deal with some problems related to the equilibrium of phases (e.g., liquid-vapor coexistence) and the kinetics of phase separation in the presence of chemically patterned surfaces. Two different cases are considered: (i) patterned surfaces in contact with liquid and vapor, and (ii) patterned surfaces in contact with a crystalline phase. One of the problems that we have studied is the following: It is widely believed that if air containing water vapor is cooled to its dew point, droplets of water are immediately formed. Although common experience seems to support this view, it is not correct. It is only when air is cooled well below its dew point that the phase transition occurs immediately. A vapor cooled slightly below its dew point is in a metastable state, meaning that the liquid phase is more stable than the vapor, but the formation of droplets requires some time to occur, which can be very long. It was first pointed out by J. W. Gibbs that the metastability of a vapor depends on the energy necessary to form a nucleus (a droplet of a critical size). Droplets smaller than the critical size will tend to disappear, while droplets larger than the critical size will tend to grow. This is consistent with an energy barrier that has its maximum at the critical size, as is the case for droplets formed directly in the vapor or in contact with a chemically uniform planar wall. Classical nucleation theory describes the time evolution of the condensation in terms of the random process of droplet growth through this energy barrier. This process is activated by thermal fluctuations, which eventually will form a droplet of the critical size. We consider nucleation of droplets from a vapor on a substrate patterned with easily wettable (lyophilic) circular domains. Under certain conditions of pressure and temperature, the condensation of a droplet on a lyophilic circular domain proceeds through a barrier with two maxima (a double barrier). We have extended classical nucleation theory to account for the kinetics of nucleation through a double barrier, and applied this extension to nucleation on lyophilic circular domains. N2 - Kondensation und Kristallisation sind allgegenwärtige Phänomene in der Natur. Die Bildung von Tröpfchen oder Kristallen auf einer festen Oberfläche sind vertraute Prozesse, die über ihr wissenschaftliches Interesse hinaus in vielen technologischen Anwendungen erforderlich sind. In den letzten Jahren wurden experimentelle Techniken entwickelt, die es ermöglichen, ein Substrat mit Oberflächendomänen von molekularer Dicke, mesoskopischer Oberflächengröße und unterschiedlichen Benetzbarkeiten (d.h. unterschiedlichen Graden der Präferenz für eine Substanz, die mit dem Substrat in Kontakt steht) zu strukturieren. Die Existenz neuer strukturierter Oberflächen hat zu verstärkten theoretischen Bemühungen geführt, Benetzungsphänomene in solchen Systemen zu verstehen. In dieser Arbeit befassen wir uns mit einigen Problemen im Zusammenhang mit dem Gleichgewicht von Phasen (z.B. Flüssig-Dampf-Koexistenz) und der Kinetik der Phasentrennung in Gegenwart von chemisch strukturierten Oberflächen. Zwei verschiedene Fälle werden betrachtet: (i) strukturierte Oberflächen in Kontakt mit Flüssigkeit und Dampf und (ii) strukturierte Oberflächen in Kontakt mit einer kristallinen Phase. Eines der Probleme, die wir untersucht haben, ist das folgende: Es wird allgemein angenommen, dass sich bei Abkühlung von wasserdampfhaltiger Luft auf ihren Taupunkt sofort Wassertröpfchen bilden. Obwohl die allgemeine Erfahrung diese Ansicht zu unterstützen scheint, ist sie nicht korrekt. Erst wenn die Luft deutlich unter ihren Taupunkt gekühlt wird, tritt der Phasenübergang sofort ein. Ein leicht unter seinen Taupunkt gekühlter Dampf befindet sich in einem metastabilen Zustand, was bedeutet, dass die flüssige Phase stabiler als der Dampf ist, aber die Bildung von Tröpfchen einige Zeit benötigt, die sehr lang sein kann. J. W. Gibbs wies erstmals darauf hin, dass die Metastabilität eines Dampfes von der Energie abhängt, die zur Bildung eines Keims (eines Tröpfchens kritischer Größe) notwendig ist. Tröpfchen, die kleiner als die kritische Größe sind, neigen dazu zu verschwinden, während Tröpfchen, die größer als die kritische Größe sind, dazu neigen zu wachsen. Dies stimmt mit einer Energiebarriere überein, die ihr Maximum bei der kritischen Größe hat, wie es bei Tröpfchen der Fall ist, die sich direkt im Dampf oder in Kontakt mit einer chemisch einheitlichen ebenen Wand bilden. Die klassische Nukleationstheorie beschreibt die zeitliche Entwicklung der Kondensation als zufälligen Prozess des Tröpfchenwachstums durch diese Energiebarriere. Dieser Prozess wird durch thermische Fluktuationen aktiviert, die schließlich ein Tröpfchen kritischer Größe bilden. Wir betrachten die Nukleation von Tröpfchen aus einem Dampf auf einem Substrat, das mit leicht benetzbaren (lyophilen) kreisförmigen Domänen strukturiert ist. Unter bestimmten Druck- und Temperaturbedingungen verläuft die Kondensation eines Tröpfchens auf einer lyophilen kreisförmigen Domäne durch eine Barriere mit zwei Maxima (eine Doppelbarriere). Wir haben die klassische Nukleationstheorie erweitert, um die Kinetik der Nukleation durch eine Doppelbarriere zu berücksichtigen, und haben diese Erweiterung auf die Nukleation auf lyophilen kreisförmigen Domänen angewendet. KW - Chemical physics KW - Condensation KW - Nucleation KW - Crystallization KW - Computer simulation KW - Soft condensed matter KW - Phase transitions KW - Chemically patterned surfaces KW - Monte Carlo simulation KW - Kondensation KW - Kristallisation KW - Oberfläche KW - Keimbildung KW - Mathematisches Modell Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651950 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Schauer, Lina Marie T1 - Reputation auf Online-Plattformen T2 - Datenrecht und neue Technologien N2 - Wie ist der „gute Ruf“ von Unternehmen und Einzelpersonen im Umfeld von Online-Bewertungsplattformen geschützt? Das Werk erforscht, ob und inwieweit das geltende Recht einen adäquaten und lückenlosen Schutz für die unternehmerische und personelle Reputation gewährleitstet. Die Systematisierung und Untersuchung des bestehenden Regelungsgefüges konzentriert sich auf das Lauterkeitsrecht und das allgemeine Deliktsrecht unter besonderer Berücksichtigung der rechtlichen Innovationen auf nationaler (UWG-Reform 2022) und europäischer (New Deal for Consumers, Digital Services Act) Ebene. Die Dissertation wurde für den ›Justizpreis Berlin-Brandenburg – Carl Gottlieb Svarez 2024‹ vorgeschlagen. KW - Social Media KW - Soziale Netzwerke KW - Wettbewerbsrecht KW - Deliktsrecht KW - Competition Law KW - Lauterkeitsrecht KW - tort law KW - Reputation KW - Bewertungsplattformen KW - Plattformbetreiber KW - Online-Plattformen KW - Rezension KW - Like KW - Digital Services Act KW - Fake KW - DSA KW - New Deal for Consumers KW - Digitalrecht KW - Corporate Reputation KW - online platforms KW - Bewertungen KW - unfair competition law KW - Onlineplattformen KW - good reputation KW - guter Ruf KW - personal reputation KW - reputation protection KW - review platforms KW - personelle Reputation KW - UWG reform 2022 KW - Reputationsschutz KW - unternehmerische Reputation KW - UWG-Reform 2022 Y1 - 2024 SN - 978-3-7560-1720-1 SN - 978-3-7489-4449-2 U6 - https://doi.org/10.5771/9783748944492 SN - 2749-7534 VL - 10 PB - Nomos CY - Baden-Baden ET - 1 ER - TY - THES A1 - Mayer, Selina T1 - Understanding the impact of design thinking on organizations and individuals N2 - Organizations are investing billions on innovation and agility initiatives to stay competitive in their increasingly uncertain business environments. Design Thinking, an innovation approach based on human-centered exploration, ideation and experimentation, has gained increasing popularity. The market for Design Thinking, including software products and general services, is projected to reach 2.500 million $ (US-Dollar) by 2028. A dispersed set of positive outcomes have been attributed to Design Thinking. However, there is no clear understanding of what exactly comprises the impact of Design Thinking and how it is created. To support a billion-dollar market, it is essential to understand the value Design Thinking is bringing to organizations not only to justify large investments, but to continuously improve the approach and its application. Following a qualitative research approach combined with results from a systematic literature review, the results presented in this dissertation offer a structured understanding of Design Thinking impact. The results are structured along two main perspectives of impact: the individual and the organizational perspective. First, insights from qualitative data analysis demonstrate that measuring and assessing the impact of Design Thinking is currently one central challenge for Design Thinking practitioners in organizations. Second, the interview data revealed several effects Design Thinking has on individuals, demonstrating how Design Thinking can impact boundary management behaviors and enable employees to craft their jobs more actively. Contributing to innovation management research, the work presented in this dissertation systematically explains the Design Thinking impact, allowing other researchers to both locate and integrate their work better. The results of this research advance the theoretical rigor of Design Thinking impact research, offering multiple theoretical underpinnings explaining the variety of Design Thinking impact. Furthermore, this dissertation contains three specific propositions on how Design Thinking creates an impact: Design Thinking creates an impact through integration, enablement, and engagement. Integration refers to how Design Thinking enables organizations through effectively combining things, such as for example fostering balance between exploitation and exploration activities. Through Engagement, Design Thinking impacts organizations involving users and other relevant stakeholders in their work. Moreover, Design Thinking creates impact through Enablement, making it possible for individuals to enact a specific behavior or experience certain states. By synthesizing multiple theoretical streams into these three overarching themes, the results of this research can help bridge disciplinary boundaries, for example between business, psychology and design, and enhance future collaborative research. Practitioners benefit from the results as multiple desirable outcomes are detailed in this thesis, such as successful individual job crafting behaviors, which can be expected from practicing Design Thinking. This allows practitioners to enact more evidence-based decision-making concerning Design Thinking implementation. Overall, considering multiple levels of impact as well as a broad range of theoretical underpinnings are paramount to understanding and fostering Design Thinking impact. N2 - Unternehmen geben Milliarden für Innovations- und Agilitätsinitiativen aus. Sie wenden zunehmend agile und innovative Ansätze an, um komplexe Probleme zu erkunden und zu lösen. So stellen sie ihre Wettbewerbsfähigkeit sicher, da das heutige Geschäftsumfeld immer unsicherer und mehrdeutiger wird. Design Thinking ist ein immer beliebter werdender Innovationsansatz, der auf menschenzentrierter Erkundung, Ideenfindung und Experimenten basiert. Marktforschungen schätzen, dass der Design Thinking-Markt, einschließlich Softwareprodukten und allgemeinen Dienstleistungen, bis 2028 ein Volumen von 2,5 Milliarden US-Dollar erreichen wird. Zwar wurden Design Thinking vereinzelt positive Ergebnisse zugeschrieben (z. B. bessere Identifizierung von Kundenbedürfnissen, höhere Innovationsfähigkeiten, bessere Innovationsergebnisse), doch gibt es kein klares Verständnis darüber, was genau die Wirkung und den Mehrwert von Design Thinking ausmacht und wie diese Wirkung entsteht. Um einen Milliardenmarkt zu erhalten und zu rechtfertigen, ist es wichtig zu verstehen, welchen Wert Design Thinking für Unternehmen bringt. Dabei kommt es nicht nur darauf an, hohe Investitionen zu rechtfertigen, sondern auch darauf, den Ansatz und seine Einsatzgebiete kontinuierlich zu verbessern. Basierend auf qualitativen Interviewdaten und einer systematischen Literaturrecherche bietet diese Dissertation ein strukturiertes Verständnis der Wirkung von Design Thinking an. Die Ergebnisse sind entlang zweier Hauptwirkungsperspektiven gegliedert, der individuellen und der organisationalen Perspektive. Erstens zeigen Erkenntnisse aus der qualitativen Datenanalyse, dass die Messung und Bewertung der Auswirkungen von Design Thinking derzeit eine zentrale Herausforderung für Design Thinking-Praktiker in Organisationen darstellt. Zweitens zeigten die Interviewdaten mehrere Auswirkungen, die Design Thinking auf Einzelpersonen hat. Im Detail zeig die Arbeit, wie Design Thinking es MitarbeiterInnen ermöglich, ihre Grenzen zu managenen (= „Boundary Management“ zu betreiben), oder, auch, wie sie durch sogennantes „Job Crafting“ ihre Arbeit aktiv gestalten können. Als Beitrag zur Innovationsmanagementforschung erläutert diese Dissertation systematisch die Auswirkungen von Design Thinking und ermöglicht es anderen Forschern, ihre Arbeit besser zu lokalisieren und zu integrieren. Die Ergebnisse dieser Forschung erweitern die theoretische Integration der Design Thinking-Forschung und bieten mehrere theoretische Grundlagen, die die Vielfalt der Design Thinking-Wirkung erklären. Darüber hinaus schlägt diese Dissertation drei konkrete Thesen vor, wie Design Thinking Wirkung erzeugt: Design Thinking erzeugt Wirkung durch Integration, Enablement und Engagement. Integration bezieht sich darauf, wie Design Thinking Organisationen durch die effektive Kombination von Dingen unterstützt, beispielsweise durch die Förderung eines Gleichgewichts zwischen Exploration und Exploitation im Sinne der Ambidextrie. Durch Engagement wirkt sich Design Thinking auf Organisationen aus, die Benutzer und andere relevante Stakeholder in ihre Arbeit einbeziehen. Und Design Thinking erzeugt durch Enablement Wirkung und ermöglicht es Einzelpersonen, ein bestimmtes Verhalten auszuführen oder bestimmte Zustände zu erleben. Durch die Zusammenfassung mehrerer theoretischer Strömungen zu diesen drei übergreifenden Themen können die Ergebnisse dieser Forschung dazu beitragen, disziplinäre Grenzen, beispielsweise zwischen Wirtschaft, Psychologie und Design, zu überbrücken und zukünftige gemeinsame Forschung zu verbessern. Praktiker profitieren von den Ergebnissen, da diese Arbeit Ergebnisse detailliert beschreibt, die von zukünftigen Design Thinking-Aktivitäten erwartet werden können, sodass Praktiker eine evidenzbasiertere Entscheidung hinsichtlich der Design Thinking-Implementierung treffen können. Insgesamt ist die Berücksichtigung mehrerer Wirkungsebenen sowie einer breiten Palette theoretischer Grundlagen von größter Bedeutung, um die Wirkung von Design Thinking zu verstehen und zu fördern. T2 - Die Auswirkungen von Design Thinking auf Organisationen und Individuen KW - Design Thinking KW - Impact KW - Grounded Theory KW - Theoretical Foundations KW - Design Thinking KW - Grounded Theory KW - Auswirkungen KW - theoretische Grundlagen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651541 ER - TY - THES A1 - Heckenbach, Esther Lina T1 - Geodynamic modeling of process interactions at continental plate boundaries N2 - Plate tectonic boundaries constitute the suture zones between tectonic plates. They are shaped by a variety of distinct and interrelated processes and play a key role in geohazards and georesource formation. Many of these processes have been previously studied, while many others remain unaddressed or undiscovered. In this work, the geodynamic numerical modeling software ASPECT is applied to shed light on further process interactions at continental plate boundaries. In contrast to natural data, geodynamic modeling has the advantage that processes can be directly quantified and that all parameters can be analyzed over the entire evolution of a structure. Furthermore, processes and interactions can be singled out from complex settings because the modeler has full control over all of the parameters involved. To account for the simplifying character of models in general, I have chosen to study generic geological settings with a focus on the processes and interactions rather than precisely reconstructing a specific region of the Earth. In Chapter 2, 2D models of continental rifts with different crustal thicknesses between 20 and 50 km and extension velocities in the range of 0.5-10 mm/yr are used to obtain a speed limit for the thermal steady-state assumption, commonly employed to address the temperature fields of continental rifts worldwide. Because the tectonic deformation from ongoing rifting outpaces heat conduction, the temperature field is not in equilibrium, but is characterized by a transient, tectonically-induced heat flow signal. As a result, I find that isotherm depths of the geodynamic evolution models are shallower than a temperature distribution in equilibrium would suggest. This is particularly important for deep isotherms and narrow rifts. In narrow rifts, the magnitude of the transient temperature signal limits a well-founded applicability of the thermal steady-state assumption to extension velocities of 0.5-2 mm/yr. Estimation of the crustal temperature field affects conclusions on all temperature-dependent processes ranging from mineral assemblages to the feasible exploitation of a geothermal reservoir. In Chapter 3, I model the interactions of different rheologies with the kinematics of folding and faulting using the example of fault-propagation folds in the Andean fold-and-thrust belt. The evolution of the velocity fields from geodynamic models are compared with those from trishear models of the same structure. While the latter use only geometric and kinematic constraints of the main fault, the geodynamic models capture viscous, plastic, and elastic deformation in the entire model domain. I find that both models work equally well for early, and thus relatively simple stages of folding and faulting, while results differ for more complex situations where off-fault deformation and secondary faulting are present. As fault-propagation folds can play an important role in the formation of reservoirs, knowledge of fluid pathways, for example via fractures and faults, is crucial for their characterization. Chapter 4 deals with a bending transform fault and the interconnections between tectonics and surface processes. In particular, the tectonic evolution of the Dead Sea Fault is addressed where a releasing bend forms the Dead Sea pull-apart basin, while a restraining bend further to the North resulted in the formation of the Lebanese mountains. I ran 3D coupled geodynamic and surface evolution models that included both types of bends in a single setup. I tested various randomized initial strain distributions, showing that basin asymmetry is a consequence of strain localization. Furthermore, by varying the surface process efficiency, I find that the deposition of sediment in the pull-apart basin not only controls basin depth, but also results in a crustal flow component that increases uplift at the restraining bend. Finally, in Chapter 5, I present the computational basis for adding further complexity to plate boundary models in ASPECT with the implementation of earthquake-like behavior using the rate-and-state friction framework. Despite earthquakes happening on a relatively small time scale, there are many interactions between the seismic cycle and the long time spans of other geodynamic processes. Amongst others, the crustal state of stress as well as the presence of fluids or changes in temperature may alter the frictional behavior of a fault segment. My work provides the basis for a realistic setup of involved structures and processes, which is therefore important to obtain a meaningful estimate for earthquake hazards. While these findings improve our understanding of continental plate boundaries, further development of geodynamic software may help to reveal even more processes and interactions in the future. N2 - Plattentektonische Grenzen bilden die Nahtstellen zwischen tektonischen Platten. Sie werden durch eine Vielzahl von unterschiedlichen und miteinander verknüpften Prozessen geformt und spielen eine Schlüsselrolle im Bereich der Georisiken und der Entstehung von Georessourcen. Viele dieser Prozesse sind bereits erforscht, während viele andere noch unbearbeitet oder unentdeckt sind. In dieser Arbeit wird die geodynamische numerische Modellierungssoftware ASPECT verwendet, um weitere Prozessinteraktionen an kontinentalen Plattengrenzen zu untersuchen. Im Gegensatz zu natürlichen Daten hat die geodynamische Modellierung den Vorteil, dass Prozesse direkt quantifiziert und alle Parameter über die gesamte Entwicklung einer Struktur analysiert werden können. Außerdem können Prozesse und Wechselwirkungen aus komplexen Zusammenhängen herausgefiltert werden, da der Modellierer volle Kontrolle über alle beteiligten Parameter hat. Um dem vereinfachenden Charakter von Modellen im Allgemeinen Rechnung zu tragen, habe ich mich für die Untersuchung allgemeiner geologischer Gegeben-heiten entschieden, wobei der Schwerpunkt auf den Prozessen und Wechselwirkungen liegt, anstatt eine bestimmte Region der Erde genau zu rekonstruieren. In Kapitel 2 werden 2D-Modelle von kontinentalen Rifts mit unterschiedlichen Krustendicken zwischen 20 und 50 km, sowie Extensionsgeschwindigkeiten im Bereich von 0,5-10 mm/Jahr verwendet, um eine Geschwindigkeitsgrenze für die Annahme eines thermischen Gleichgewichtszustandes zu erhalten, welcher üblicherweise verwendet wird, um die Temperaturfelder kontinentaler Rifts weltweit zu beschreiben. Da die Geschwindigkeit der tektonischen Deformation die der Wärmeleitung übersteigt, befindet sich das Temperaturfeld nicht im Gleichgewicht, sondern ist durch ein transientes, tektonisch induziertes Wärmestromsignal gekennzeichnet. Daraus ergibt sich, dass die Tiefen der Isothermen in den geodynamischen Entwicklungsmodellen flacher liegen, als es eine Temperaturverteilung im Gleichgewichtszustand vermuten ließe. Dies macht sich besondersbei tiefen Isothermen und narrow Rifts bemerkbar. In narrow Rifts begrenzt die Magnitude des transienten Temperatursignals eine fundierte Anwendbarkeit der thermischen Gleichgewichtsannahme auf Extensionsgeschwindigkeiten im Bereich von 0,5-2 mm/Jahr. Die Abschätzung des Temperaturfeldes der Erdkruste wirkt sich auf alle temperaturabhängigen Prozesse aus, von der Mineralzusammensetzung bis hin zur möglichen Nutzung eines geothermischen Reservoirs. In Kapitel 3 modelliere ich die Wechselwirkungen verschiedener Rheologien mit der Kinematik von Auffaltungen und Verwerfungen am Beispiel von fault-propagation folds im andinen Falten- und Überschiebungsgürtel. Die Entwicklung der Geschwindigkeitsfelder aus geodynamischen Modellen wird mit denen aus Trishear-Modellen für dieselbe Struktur verglichen. Während letztere nur geometrische und kinematische Charakteristika der Hauptverwerfung verwenden, erfassen die geodynamischen Modelle sowohl viskose, wie auch plastische und elastische Verformung im gesamten Modellbereich. Meine Forschung zeigt, dass beide Modelle für frühe und damit vergleichbar einfache Phasen der Auffaltung und Verwerfung gleichermaßen gut anwendbar sind, während die Ergebnisse für komplexere Situationen, in denen Verfor-mungen außerhalb der Hauptstörung sowie sekundäre Verwerfungen auftreten, auseinander gehen. Da fault-propagation folds eine wichtige Rolle bei der Bildung von Lagerstätten spielen können, ist Kenntnis zu Migrationswegen von Fluiden, zum Beispiel über Klüfte und Verwerfungen, für ihre Charakterisierung von entscheidender Bedeutung. Kapitel 4 befasst sich mit Biegungen von Transformstörungen sowie den Zusammenhängen zwischen Tektonik und Oberflächenprozessen. Insbesondere wird die tektonische Entwicklung der Verwerfung am Toten Meer behandelt, wo eine von Extension geprägte Biegung der Verwerfung das Pull-Apart-Becken des Toten Meeres bildet, während eine weiter nördlich gelegene von Kompression geprägte Biegung zur Bildung eines Gebirgszuges im Libanon führte. Für dieses Kapitel habe ich gekoppelte 3D Modelle der Geodynamik und Oberflächenentwicklung genutzt sowie beide Arten von Biegungen in einem Modell erforscht. Das Testen von verschiedenen, zufälligen Initialspannungsverteilungen zeigte, dass die Asymmetrie des Beckens eine Folge der Spannungslokalisierung ist. Außerdem habe ich durch Variation der Oberflächenprozesseffizienz herausgearbeitet, dass die Sedimentierung im Pull-Apart-Becken nicht nur die Beckentiefe steuert, sondern auch zu einer Strömungskomponente von Erdkrustenmaterial führt, die die Ablift an der von Kompression geprägten Biegung der Transformstörung erhöht. Anschließend stelle ich in Kapitel 5 die Implementierung von erdbebenähnlichem Verhalten unter Verwendung der Rate-and-State Gleichungen vor, welche die Grundlage für die Erweiterung der Komplexität von Plattengrenzenmodellen in ASPECT bildet. Obwohl Erdbeben auf einer relativ kurzen Zeitskala stattfinden, gibt es viele Wechselwirkungen zwischen dem seismischen Zyklus und den langen Zeitspannen anderer geodynamischer Prozesse. Unter anderem können der Spannungszustand der Kruste sowie das Vorhandensein von Fluiden oder Änderungen der Temperatur das Reibungsverhalten eines Störungssegmentes verändern. Meine Arbeit liefert die Grundlage für einen realistischen Aufbau der beteiligten Strukturen und Prozesse, der wichtig ist, um eine aussagekräftige Abschätzung der Erdbebengefährdung zu erhalten. Während diese Ergebnisse unser Verständnis der kontinentalen Plattengrenzen verbessern, kann die Weiterentwicklung geodynamischer Software dazu beitragen, in Zukunft weitere Prozesse und Wechselwirkungen aufzudecken. T2 - Geodynamische Modellierung von Prozessinteraktionen an kontinentalen Plattengrenzen KW - geodynamic modeling KW - plate boundaries KW - continental crust KW - heat flow KW - landscape evolution KW - geodynamische Modellierung KW - Plattengrenzen KW - kontinentale Kruste KW - Wärmediffusion KW - Oberflächenmodellierung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647500 ER - TY - THES A1 - Mirzaee, Zohreh T1 - Ecology and phylogeny of Mantodea of Iran and adjacent areas N2 - Mantodea, commonly known as mantids, have captivated researchers owing to their enigmatic behavior and ecological significance. This order comprises a diverse array of predatory insects, boasting over 2,400 species globally and inhabiting a wide spectrum of ecosystems. In Iran, the mantid fauna displays remarkable diversity, yet numerous facets of this fauna remain poorly understood, with a significant dearth of systematic and ecological research. This substantial knowledge gap underscores the pressing need for a comprehensive study to advance our understanding of Mantodea in Iran and its neighboring regions. The principal objective of this investigation was to delve into the ecology and phylogeny of Mantodea within these areas. To accomplish this, our research efforts concentrated on three distinct genera within Iranian Mantodea. These genera were selected due to their limited existing knowledge base and feasibility for in-depth study. Our comprehensive methodology encompassed a multifaceted approach, integrating morphological analysis, molecular techniques, and ecological observations. Our research encompassed a comprehensive revision of the genus Holaptilon, resulting in the description of four previously unknown species. This extensive effort substantially advanced our understanding of the ecological roles played by Holaptilon and refined its systematic classification. Furthermore, our investigation into Nilomantis floweri expanded its known distribution range to include Iran. By conducting thorough biological assessments, genetic analyses, and ecological niche modeling, we obtained invaluable insights into distribution patterns and genetic diversity within this species. Additionally, our research provided a thorough comprehension of the life cycle, behaviors, and ecological niche modeling of Blepharopsis mendica, shedding new light on the distinctive characteristics of this mantid species. Moreover, we contributed essential knowledge about parasitoids that infect mantid ootheca, laying the foundation for future studies aimed at uncovering the intricate mechanisms governing ecological and evolutionary interactions between parasitoids and Mantodea. N2 - Mantodea, gemeinhin als Gottesanbeterinnen bekannt, haben Forscher aufgrund ihres rätselhaften Verhaltens und ihrer ökologischen Bedeutung in ihren Bann gezogen. Diese Ordnung umfasst eine Vielzahl räuberischer Insekten, von denen es weltweit über 2 400 Arten gibt und die ein breites Spektrum von Ökosystemen bewohnen. Im Iran weist die Gottesanbeterinnen-Fauna eine bemerkenswerte Vielfalt auf, doch zahlreiche Aspekte dieser Fauna sind nach wie vor nur unzureichend erforscht, und es besteht ein erheblicher Mangel an systematischen und ökologischen Untersuchungen. Diese beträchtliche Wissenslücke unterstreicht den dringenden Bedarf an einer umfassenden Studie, um unser Verständnis der Mantodea im Iran und den angrenzenden Regionen zu verbessern. Das Hauptziel dieser Untersuchung bestand darin, die Ökologie und Phylogenie der Mantodea in diesen Gebieten zu erforschen. Um dies zu erreichen, konzentrierten sich unsere Forschungsarbeiten auf drei verschiedene Gattungen innerhalb der iranischen Mantodea. Diese Gattungen wurden aufgrund ihrer begrenzten Wissensbasis und ihrer Eignung für eingehende Untersuchungen ausgewählt. Unsere umfassende Methodik umfasste einen vielschichtigen Ansatz, der morphologische Analysen, molekulare Techniken und ökologische Beobachtungen einbezog. Unsere Forschung umfasste eine umfassende Revision der Gattung Holaptilon, die zur Beschreibung von vier bisher unbekannten Arten führte. Diese umfangreichen Arbeiten haben unser Verständnis der ökologischen Rolle von Holaptilon wesentlich verbessert und die systematische Einordnung der Gattung verfeinert. Darüber hinaus konnten wir durch die Untersuchung von Nilomantis floweri ihr bekanntes Verbreitungsgebiet auf den Iran ausweiten. Durch gründliche biologische Untersuchungen, genetische Analysen und ökologische Nischenmodellierung erhielten wir unschätzbare Einblicke in die Verbreitungsmuster und die genetische Vielfalt dieser Art. Darüber hinaus lieferten unsere Forschungsarbeiten ein umfassendes Verständnis des Lebenszyklus, der Verhaltensweisen und der ökologischen Nischenmodellierung von Blepharopsis mendica und warfen ein neues Licht auf die besonderen Merkmale dieser Mantidenart. Darüber hinaus lieferten wir wichtige Erkenntnisse über Parasitoide, die Ootheken von Gottesanbeterinnen befallen, und legten damit den Grundstein für künftige Studien, die darauf abzielen, die komplizierten Mechanismen aufzudecken, die die ökologischen und evolutionären Wechselwirkungen zwischen Parasitoiden und Mantodea steuern. T2 - Ökologie und Phylogenie der Mantodea des Iran und angrenzender Gebiete KW - Mantodea KW - Ecology KW - Phylogeny KW - Mantodea KW - Ökologie KW - Phylogeni Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-652739 ER - TY - THES A1 - Mielke, Lucas T1 - Schernikau und die Poetik der Affirmation T2 - Deutsche Literatur : Studien und Quellen N2 - Die Arbeit ist der Versuch einer zusammenhängenden historisierenden Lektüre der wichtigsten Essays und fiktionalen Prosatexte des Schriftstellers Ronald M. Schernikau (1960-1991). Der schwule Kommunist erklärte das Lob zur künstlerischen Strategie, formulierte gleichzeitig eine avancierte Gesellschaftskritik und verteidigte den realen Sozialismus auch gegen die Realität. Im Verlauf mehrerer Einzelstudien werden Themen, Schreibweisen und schließlich auch die Widersprüche, in die sich ein solches Projekt verstricken muss, analysiert. Vor dem Hintergrund zentraler politischer und ästhetischer Debatten der 1970er und -80er Jahre werden so die Umrisse einer politischen Poetik nachgezeichnet, die der Schönheit verpflichtet ist. Ein weiteres Augenmerk liegt dabei auf theorie- und bewegungsgeschichtlichen Aspekten. Gibt es ein schwules Schreiben jenseits einer auktorialen Selbstpositionierung? Was würde eine kommunistische Literatur auszeichnen? Schernikau verhandelt poetologische Fragen um die Konzepte Autorschaft, Realismus und Werk, die nicht nur an gegenwärtige Diskurse anschlussfähig sind, sondern auf die Kernprobleme der politischen Literatur des Zwanzigsten Jahrhunderts verweisen. KW - Schernikau KW - Poetologie KW - Erzählforschung KW - Queer-Theory Y1 - 2024 SN - 9783111441221 SN - 9783111436906 U6 - https://doi.org/10.1515/9783111441221 SN - 2198-932X VL - 48 PB - De Gruyter CY - Berlin ; Boston, Mass ER - TY - THES A1 - Shigeyama, Jotaro T1 - Virtual reality at 1:1 scale in small physical spaces N2 - Virtual Reality (VR) leads to the highest level of immersion if presented using a 1:1 mapping of virtual space to physical space—also known as real walking. The advent of inexpensive consumer virtual reality (VR) headsets, all capable of running inside-out position tracking, has brought VR to the home. However, many VR applications do not feature full real walking, but instead, feature a less immersive space-saving technique known as instant teleportation. Given that only 0.3% of home users run their VR experiences in spaces more than 4m2, the most likely explanation is the lack of the physical space required for meaningful use of real walking. In this thesis, we investigate how to overcome this hurdle. We demonstrate how to run 1:1-mapped VR experiences in small physical spaces and we explore the trade-off between space and immersion. (1) We start with a space limit of 15cm. We present DualPanto, a device that allows (blind) VR users to experience the virtual world from a 1:1 mapped bird’s eye perspective—by leveraging haptics. (2) We then relax our space constraints to 50cm, which is what seated users (e.g., on an airplane or train ride) have at their disposal. We leverage the space to represent a standing user in 1:1 mapping, while only compressing the user’s arm movement. We demonstrate our 4 prototype VirtualArms at the example of VR experiences limited to arm movement, such as boxing. (3) Finally, we relax our space constraints further to 3m2 of walkable space, which is what 75% of home users have access to. As well- established in the literature, we implement real walking with the help of portals, also known as “impossible spaces”. While impossible spaces on such dramatic space constraints tend to degenerate into incomprehensible mazes (as demonstrated, for example, by “TraVRsal”), we propose plausibleSpaces: presenting meaningful virtual worlds by adapting various visual elements to impossible spaces. Our techniques push the boundary of spatially meaningful VR interaction in various small spaces. We see further future challenges for new design approaches to immersive VR experiences for the smallest physical spaces in our daily life. N2 - Virtuelle Realität (VR) erzeugt die größte Immersion, wenn sie mit einer 1:1-Abbildung des virtuellen Raums auf den physischen Raum verwendet wird – dem sogenannten Real Walking. Das Aufkommen preiswerter VR-Headsets, die alle zu Inside-Out Positionstracking fähig sind, hat VR in die Haushalte von Heimanwendern gebracht. Viele VR-Anwendungen ermöglichen jedoch kein Real Walking, sondern bieten stattdessen eine weniger immersive, raumsparende Technik an, die als Instant Teleportation bekannt ist. In Anbetracht der Tatsache, dass nur 0,3% der Nutzer ihre VR-Anwendungen in Räumen von mehr als 4m² verwenden, ist die wahrscheinlichste Erklärung dafür der Mangel an physischem Raum, der für eine sinnvolle Nutzung des Real Walking erforderlich wäre. In dieser Arbeit untersuchen wir, wie diese Hürde überwunden werden kann. Wir zeigen, wie man 1:1 skalierte VR-Interaktionen in kleinen Räumen durchführen kann, und wir erforschen den Kompromiss zwischen der verfügbaren Menge an Raum und der Immersion. (1) Wir beginnen mit einer Raumbegrenzung von 15cm. Wir stellen DualPanto vor, ein Gerät, welches (blinden) VR-Benutzern ermöglicht, die virtuelle Welt aus einer 1:1 skalierten Vogelperspektive zu erleben indem es Haptik verwendet. (2) Dann lockern wir unsere räumliche Beschränkung auf 50 cm, ein Raum der sitzenden Benutzern (z.B. in einem Flugzeug oder Zug) zur Verfügung steht. Wir nutzen diesen Raum, um einen stehenden Benutzer in einer 1:1-Abbildung darzustellen, während wir nur die Armbewegung des Benutzers erfassen. Wir demonstrieren unseren Prototyp VirtualArms am Beispiel von VR-Erfahrungen, die auf Armbewegungen beschränkt sind, wie z.B. einem Boxkampf. (3) Schließlich lockern wir unsere räumlichen Beschränkungen weiter auf 3m² begehbare Fläche, welche 75% der Heimanwender zur Verfügung steht. Wie bereits in der Literatur etabliert, implementieren wir Real Walking mit Hilfe von Portalen, auch bekannt als Impossible Spaces. Während Impossible Spaces bei solch dramatisch begrenzten Platzverhältnissen dazu neigen, zu unverständlichen Labyrinthen zu werden (wie z.B. bei TraVRsal), schlagen wir plausibleSpaces vor: die Präsentation räumlich bedeutsamer virtueller Welten durch die Anpassung verschiedener visueller Elemente an Impossible Spaces. Unsere Techniken verschieben die Grenzen der räumlich bedeutsamen VR-Interaktion in verschiedenen kleinen Räumen. Als zukünftige Herausforderung sehen wir die Entwicklung neuer Designansätze für immersive VR-Erfahrungen für die kleinsten physischen Räume in unserem Alltag. T2 - Virtuelle Realität im Maßstab 1:1 in kleinem physischen Raum KW - virtual reality KW - haptics KW - human-computer interaction KW - Haptik KW - Mensch-Computer-Interaktion KW - Virtuelle Realität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649000 ER - TY - THES A1 - Odanga, Denish Otieno T1 - Phobic cosmopolitanism BT - navigating ambivalent belonging in contemporary Somali diasporic literature KW - phobia cosmopolitanism KW - Somali KW - eurocentrism Y1 - 2024 ER - TY - THES A1 - Kaun, Mario T1 - Begrenztes Cottbus? BT - Perspektiven auf die Lebenswelt der Cottbuser Exklavengesellschaft 1740–1806 T2 - Schriften des Frühneuzeitzentrums Potsdam N2 - In diesem Band ermöglicht Mario Kaun ausgewählte Einblicke in die Lebenswelt der Cottbuser Exklavengesellschaft des 18. Jahrhunderts. Erstmalig erscheint hiermit für diesen Untersuchungsraum eine grundlegende Studie, die in umfassender Weise die Exklave und das Verhältnis von Militär und Gesellschaft näher erforscht sowie die wirtschaftliche Funktion der Garnison in einer aufstrebenden Stadt kritisch hinterfragt. Der Autor lenkt hierbei das Augenmerk auf etliche, bisher völlig unbekannte Perspektiven, die darüber hinaus einen wichtigen Beitrag zur Stadt- und Regionalgeschichtsforschung von Cottbus und der Niederlausitz leisten. Insbesondere die Befassung mit der brandenburgisch-preußischen Exklave stellt eine wertvolle Ergänzung zur bislang rudimentären Forschungslage dar. N2 - In this volume, Mario Kaun provides selected perspectives into the lifeworld of the Cottbus exclave society of the 18th century. This is the first time that a fundamental study has been published for this research area, which comprehensively explores the exclave and the relationship between the military and society in more detail and critically scrutinizes the economic function of the garrison in an up-and-coming town. The author draws attention to a great deal of previously unknown information, which also makes an important contribution to urban and regional history research on Cottbus and Lower Lusatia. In particular, the treatment of the Brandenburg-Prussian exclave represents a valuable addition to the hitherto rudimentary research situation. Y1 - 2024 SN - 978-3-8471-1726-1 SN - 2198-5251 VL - 13 PB - V & R Unipress CY - Göttingen ER - TY - THES A1 - Karakas, Esra T1 - High-resolution studies of epistasis in tomato metabolism T1 - Hochauflösende Studien zur Epistasierung des Tomatenstoffwechsels N2 - The inclusion of exotic germplasm serves as a crucial means to enhance allelic and consequently phenotypic diversity in inbred crop species. Such species have experienced a reduction in diversity due to artificial selection focused on a limited set of traits. The natural biodiversity within ecosystems presents an opportunity to explore various traits influencing plant survival, reproductive fitness and yield potential. In agricultural research, the study of wild species closely related to cultivated plants serves as a means to comprehend the genetic foundations of past domestication events and the polymorphisms essential for future breeding efforts to develop superior varieties. In order to examine the metabolic composition, pinpoint quantitative trait loci (QTL) and facilitate their resolution an extensive large-scale analysis of metabolic QTL (mQTL) was conducted on tomato backcross inbred lines (BILs) derived from a cross between the wild species S. pennellii (5240) incorporated into the background of S. lycopersicum cv. LEA determinate inbred which can be grown in open fields and cv. TOP indeterminate which can be grown in greenhouse conditions. A large number of mQTL associated with primary secondary and lipid metabolism in fruit were identified across the two BIL populations. Epistasis, the interactions between genes at different loci, has been an interest in molecular and quantitative genetics for many decades. The study of epistasis requires the analysis of very large populations with multiple independent genotypes that carry specific genomic regions. In order to understand the genetic basis of tomato fruit metabolism, I extended the work to investigate epistatic interactions of the genomic regions. In addition, two candidate genes were identified through quantitative trait loci underlying fruit-specific sucrose and jasmonic acid derivatives. Finally, in this study, I assessed the genetic framework of fruit metabolic traits with a high level of detail, utilizing the newly created Solanum pennellii (5240) backcrossed introgression lines (n=3000). This investigation resulted in the discovery of promising candidate loci associated with significant fruit quality traits, including those to the abundance of glutamic acid and aspartic acid crucial elements contributing to the development of acidity and flavors. N2 - Die Einbeziehung von exotischem Keimplasma ist ein wichtiges Mittel zur Verbesserung der allelischen und folglich auch der phänotypischen Vielfalt bei Inzuchtpflanzenarten. Bei diesen Arten hat die künstliche Selektion, die sich auf eine begrenzte Anzahl von Merkmalen konzentriert, zu einem Rückgang der Vielfalt geführt. Die natürliche Artenvielfalt in Ökosystemen bietet die Möglichkeit, verschiedene Merkmale zu erforschen, die das Überleben, die Reproduktionsfähigkeit und das Ertragspotenzial von Pflanzen beeinflussen. In der Agrarforschung dient die Untersuchung von Wildarten, die eng mit Kulturpflanzen verwandt sind, als Mittel zum Verständnis der genetischen Grundlagen vergangener Domestizierungsereignisse und der Polymorphismen, die für künftige Züchtungsbemühungen zur Entwicklung besserer Sorten wichtig sind. Um die metabolische Zusammensetzung zu untersuchen, quantitative Merkmalsloci (QTL) zu identifizieren und ihre Auflösung zu erleichtern, wurde eine umfangreiche Analyse metabolischer QTL (mQTL) an Tomaten-Rückkreuzungs-Inzuchtlinien (BILs) durchgeführt, die aus einer Kreuzung zwischen der Wildart S. pennellii (5240), die in den Hintergrund von S. lycopersicum cv. LEA determinate inbred, die im Freiland angebaut werden kann, und cv. TOP indeterminate, die unter Gewächshausbedingungen angebaut werden kann. In den beiden BIL-Populationen wurde eine große Anzahl von mQTL identifiziert, die mit dem primären Sekundär- und Lipidstoffwechsel in der Frucht in Verbindung stehen. Epistase, die Wechselwirkungen zwischen Genen an verschiedenen Loci, ist seit vielen Jahrzehnten ein Thema in der molekularen und quantitativen Genetik. Die Untersuchung der Epistase erfordert die Analyse sehr großer Populationen mit mehreren unabhängigen Genotypen, die bestimmte genomische Regionen tragen. Um die genetischen Grundlagen des Tomatenfruchtstoffwechsels zu verstehen, habe ich die Arbeit erweitert, um epistatische Interaktionen der genomischen Regionen zu untersuchen. Darüber hinaus wurden zwei Kandidatengene identifiziert, die über quantitative Merkmalsloci den fruchttypischen Saccharose- und Jasmonsäurederivaten zugrunde liegen. Schließlich habe ich in dieser Studie das genetische Gerüst der Fruchtstoffwechselmerkmale mit einem hohen Detaillierungsgrad bewertet, wobei ich die neu geschaffenen Solanum pennellii (5240) Rückkreuzungslinien (n=3000) verwendet habe. Diese Untersuchung führte zur Entdeckung vielversprechender Kandidatenloci, die mit bedeutenden Fruchtqualitätsmerkmalen assoziiert sind, einschließlich derjenigen, die mit der Fülle von Glutaminsäure und Asparaginsäure in Verbindung stehen - entscheidende Elemente, die zur Entwicklung von Säure und Aromen beitragen. KW - Epistasis KW - QTL mapping KW - metabolomics KW - backcross inbred line (BIL) KW - Epistase KW - QTL KW - Metabolomik KW - Rückkreuzungsinzuchtlinie (BIL) Y1 - 2024 ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Reuß, Maximilian T1 - Laborexperimente, Überwachung und Simulation einer reaktiven Wand zur Abreinigung von eisen- und sulfathaltigen Bergbauwässern bei sauren und neutralen pH-Bedingungen T1 - Optical in-situ monitoring of acid and neutral mine drainage remediation: Laboratory and model investigation N2 - In dieser Arbeit wurde eine reaktive Wand in einem kleinskaligen Laborma\ss stab (Länge~=~40\,cm) entwickelt, die Eisen- und Sulfatbelastungen aus sauren Minenabwässern (engl. \textit{acid mine drainage} (AMD)) mit einer Effizienz von bis zu 30.2 bzw. 24.2\,\% über einen Zeitraum von 146~Tagen (50\,pv) abreinigen können sollte. Als reaktives Material wurde eine Mischung aus Gartenkompost, Buchenholz, Kokosnussschale und Calciumcarbonat verwendet. Die Zugabebedingungen waren eine Eisenkonzentration von 1000\,mg/L, eine Sulfatkonzentration von 3000\,mg/L und ein pH-Wert von 6.2. Unterschiede in der Materialzusammensetzung ergaben keine grö\ss eren Änderungen in der Sanierungseffizienz von Eisen- und Sulfatbelastungen (12.0 -- 15.4\,\% bzw. 7.0 -- 10.1\,\%) über einen Untersuchungszeitraum von 108~Tagen (41 -- 57\,pv). Der wichtigste Einflussfaktor auf die Abreinigungsleistung von Sulfat- und Eisenbelastungen war die Verweilzeit der AMD-Lösung im reaktiven Material. Diese kann durch eine Verringerung des Durchflusses oder eine Erhöhung der Länge der reaktiven Wand (engl. \textit{Permeable Reactive Barrier} (PRB)) erhöht werden. Ein halbierter Durchfluss erhöhte die Sanierungseffizienzen von Eisen und Sulfat auf 23.4 bzw. 32.7\,\%. Weiterhin stieg die Sanierungseffizienz der Eisenbelastungen auf 24.2\,\% bei einer Erhöhung der Sulfatzugabekonzentration auf 6000\,mg/L. Saure Startbedingungen (pH~=~2.2) konnten, durch das Calciumcarbonat im reaktiven Material, über einen Zeitraum von 47~Tagen (24\,pv) neutralisiert werden. Durch die Neutralisierung der sauren Startbedingungen wurde Calciumcarbonat in der \gls{prb} verbraucht und Calcium-Ionen freigesetzt, die die Sulfatsanierungseffizienz erhöht haben (24.9\,\%). Aufgrund einer Vergrö\ss erung der \gls{prb} in Breite und Tiefe und einer 2D-Parameterbestimmung konnten Randläufigkeiten beobachtet werden, ohne deren Einfluss sich die Sanierungseffizienz für Eisen- und Sulfatbelastungen erhöht (30.2 bzw. 24.2\,\%). \par Zur \textit{in-situ} Überwachung der \gls{prb} wurden optische Sensoren verwendet, um den pH-Wert, die Sauerstoffkonzentration und die Temperatur zu ermitteln. Es wurden, nach dem Ort und der Zeit aufgelöst, stabile Sauerstoffkonzentrationen und pH-Verläufe detektiert. Auch die Temperatur konnte nach dem Ort aufgelöst ermittelt werden. Damit zeigte diese Arbeit, dass optische Sensoren zur Überwachung der Stabilität einer \gls{prb} für die Reinigung von \gls{amd} verwendet werden können. \par Mit dem Simulationsprogramm MIN3P wurde eine Simulation erstellt, die die entwickelte PRB darstellt. Die Simulation kann die erhaltenen Laborergebnisse gut wiedergeben. Anschlie\ss end wurde eine simulierte \gls{prb} bei unterschiedlichen Filtergeschwindigkeiten ((4.0 -- 23.5)~$\cdot~\mathrm{10^{-7}}$\,m/s) und Längen der PRB (25 -- 400\,cm) untersucht. Es wurden Zusammenhänge der untersuchten Parameter mit der Sanierungseffizienz von Eisen- und Sulfatbelastungen ermittelt. Diese Zusammenhänge können verwendet werden, um die benötigte Verweilzeit der AMD-Lösung in einem zukünftigen PRB-System, die für die maximal mögliche Sanierungsleistung notwendig ist, zu berechnen. N2 - A subsurface permeable reactive barrier (\gls{prb}) can be deployed to remediate acid mine drainage (AMD). The performance of a \gls{prb} material under different boundary conditions (pH, flow velocity, sulfate concentration, dimension) was investigated in a series of column experiments applying in situ optical sensing methods for pH and oxygen detection. The reactive material consisted of organic components (compost, wood and coconut shell) mixed with calcium carbonate and fine gravel. The input concentrations were around 1000\,mg/L for iron and 3000\,mg/L for sulfate and the pH value was 6.2. The remediation efficiency could reach was 30.2\,\% in case of iron and for sulfate 24.2\,\% for a 40\,cm \gls{prb} for a duration time of 146~days (50\,pv). It can be expected to scale up when moving to a field-site \gls{prb} with greater thickness. The differences in organic material composition as chosen appeared minor (12.0 -- 15.4\,\% for iron and 7.0 -- 10.1\,\% for sulfate). Decreasing the flow velocity and increasing the sulfate input concentration and the pH value influenced the iron and sulfate removal. Low pH boundary conditions (pH = 2.2) were neutralized in the \gls{prb} by calcium carbonate during an experiment duration of 47~days (24\,pv). When enlarging the set-up to have a 2D dimension and expanding the parameter detection accordingly, boundary effects were seen, which decrease the remediation efficiency. Without these boundary effects the remediation efficiency of iron and sulfate increase to 30.0 and 24.2\,\%, respectively. \par This study also demonstrated the application of optical oxygen, pH and temperature monitoring in PRBs. Stable oxygen concentration and pH cources could be monitored time- and location-dependent. Also location-dependent temperature monitoring could be shown in this study. In this context, they can be used to monitor the stability of a \gls{prb} for the remediation of \gls{amd}. \par The modelling program MIN3P was used to create a simulation of the laboratory experiments. Additionally, different flow velocities and length of PRB were investigated with the simulation. This helps to design parameters, e.g. the residence time in the \gls{prb}, which is necessary for close to 100\,\% remediation efficiency. KW - Reaktive Wand KW - Saures Mienenwasser KW - faseroptische chemische Sensoren KW - permeable reactive barrier KW - acid mine drainage KW - fiber optical chemical sensors Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648564 ER - TY - THES A1 - Kindermann, Liana T1 - Trees, shrubs, and land-use change T1 - Bäume, Büsche und Landnutzungswandel BT - The future of carbon storage in an African Savanna BT - Die Zukunft der Kohlenstoffspeicherung in einer Afrikanischen Savanne N2 - The global drylands cover nearly half of the terrestrial surface and are home to more than two billion people. In many drylands, ongoing land-use change transforms near-natural savanna vegetation to agricultural land to increase food production. In Southern Africa, these heterogenous savanna ecosystems are also recognized as habitats of many protected animal species, such as elephant, lion and large herds of diverse herbivores, which are of great value for the tourism industry. Here, subsistence farmers and livestock herder communities often live in close proximity to nature conservation areas. Although these land-use transformations are different regarding the future they aspire to, both processes, nature conservation with large herbivores and agricultural intensification, have in common, that they change the vegetation structure of savanna ecosystems, usually leading to destruction of trees, shrubs and the woody biomass they consist of. Such changes in woody vegetation cover and biomass are often regarded as forms of land degradation and forest loss. Global forest conservation approaches and international programs aim to stop degradation processes, also to conserve the carbon bound within wood from volatilization into earth’s atmosphere. In search for mitigation options against global climate change savannas are increasingly discussed as potential carbon sinks. Savannas, however, are not forests, in that they are naturally shaped by and adapted to disturbances, such as wildfires and herbivory. Unlike in forests, disturbances are necessary for stable, functioning savanna ecosystems and prevent these ecosystems from forming closed forest stands. Their consequently lower levels of carbon storage in woody vegetation have long been the reason for savannas to be overlooked as a potential carbon sink but recently the question was raised if carbon sequestration programs (such as REDD+) could also be applied to savanna ecosystems. However, heterogenous vegetation structure and chronic disturbances hamper the quantification of carbon stocks in savannas, and current procedures of carbon storage estimation entail high uncertainties due to methodological obstacles. It is therefore challenging to assess how future land-use changes such as agricultural intensification or increasing wildlife densities will impact the carbon storage balance of African drylands. In this thesis, I address the research gap of accurately quantifying carbon storage in vegetation and soils of disturbance-prone savanna ecosystems. I further analyse relevant drivers for both ecosystem compartments and their implications for future carbon storage under land-use change. Moreover, I show that in savannas different carbon storage pools vary in their persistence to disturbance, causing carbon bound in shrub vegetation to be most likely to experience severe losses under land-use change while soil organic carbon stored in subsoils is least likely to be impacted by land-use change in the future. I start with summarizing conventional approaches to carbon storage assessment and where and for which reasons they fail to accurately estimated savanna ecosystem carbon storage. Furthermore, I outline which future-making processes drive land-use change in Southern Africa along two pathways of land-use transformation and how these are likely to influence carbon storage. In the following chapters, I propose a new method of carbon storage estimation which is adapted to the specific conditions of disturbance-prone ecosystems and demonstrate the advantages of this approach in relation to existing forestry methods. Specifically, I highlight sources for previous over- and underestimation of savanna carbon stocks which the proposed methodology resolves. In the following chapters, I apply the new method to analyse impacts of land-use change on carbon storage in woody vegetation in conjunction with the soil compartment. With this interdisciplinary approach, I can demonstrate that indeed both, agricultural intensification and nature conservation with large herbivores, reduce woody carbon storage above- and belowground, but partly sequesters this carbon into the soil organic carbon stock. I then quantify whole-ecosystem carbon storage in different ecosystem compartments (above- and belowground woody carbon in shrubs and trees, respectively, as well as topsoil and subsoil organic carbon) of two savanna vegetation types (scrub savanna and savanna woodland). Moreover, in a space-for-time substitution I analyse how land-use changes impact carbon storage in each compartment and in the whole ecosystem. Carbon storage compartments are found to differ in their persistence to land-use change with carbon bound in shrub biomass being least persistent to future changes and subsoil organic carbon being most stable under changing land-use. I then explore which individual land-use change effects act as drivers of carbon storage through Generalized Additive Models (GAMs) and uncover non-linear effects, especially of elephant browsing, with implications for future carbon storage. In the last chapter, I discuss my findings in the larger context of this thesis and discuss relevant implications for land-use change and future-making decisions in rural Africa. N2 - Weltweit bedecken Trockengebiete fast die Hälfte der Erdoberfläche und sind die Heimat von mehr als zwei Milliarden Menschen. In vielen Regionen wird durch den fortschreitenden Landnutzungswandel die naturnahe Savannenvegetation in landwirtschaftliche Flächen umgewandelt, um die Nahrungsmittelproduktion zu steigern. Im südlichen Afrika sind diese diversen Savannenökosysteme auch als Lebensraum für viele geschützte Tierarten wie Elefanten, Löwen und große Herden vielfältiger Pflanzenfresser bekannt, die großen Wert für die Tourismusbranche haben. Im Umfeld vieler großer Schutzgebiete leben Kleinbauern und Viehhirten oft in unmittelbarer Nachbarschaft zu diesen – oft gefährlichen – Tieren. Obwohl sich beide Landnutzungen im Hinblick darauf unterscheiden welche Zukunftsvision verfolgt wird, haben sie doch beide gemeinsam, dass sowohl Schutzgebiete mit großen Pflanzenfressern wie Elefanten als auch die Landwirtschaft, die Vegetationsstruktur von Savannenökosystemen verändern. In der Regel reduzieren beide Prozesse die holzige Biomasse im Ökosystem, indem Bäume und Sträucher entfernt, zerstört oder durch Fraßverhalten und Holzeinschlag geschädigt werden. Solche Veränderungen der holzigen Vegetationsschicht samt Einflüssen auf die Biomasse werden oft als Formen von Umweltzerstörung oder Waldverlust betrachtet. Globale Waldschutzkonzepte und internationale Programme zielen darauf ab, solche Degradationsprozesse zu stoppen und den im Holz gebundenen Kohlenstoff vor der Verflüchtigung in die Erdatmosphäre zu bewahren. Auf der Suche nach Möglichkeiten zur Eindämmung des globalen Klimawandels werden Savannen zunehmend als potenzielle Kohlenstoffsenken diskutiert. Savannen sind von Wäldern jedoch fundamental verschieden, da sie von Natur aus durch starke Störungen, wie z. B. Elefantenfraß und Buschfeuer, geprägt und an diese evolutionär angepasst sind. Anders als in Wäldern sind hier Störungen für Funktion und Stabilität von offenen Savannenökosysteme notwendig und verhindern, dass sie sich zu geschlossenen Waldbeständen oder undurchdringlichen Gestrüppen entwickeln. Folglich ist die Kohlenstoffspeicherung in der holzigen Vegetation in Savannen geringer als in Wäldern und dies war lange Zeit der Grund dafür, dass Savannen keine Beachtung als potenzielle Kohlenstoffsenke fanden. In letzter Zeit wurde jedoch zunehmend die Frage aufgeworfen, ob Programme zur Kohlenstoffbindung (wie REDD+) auch auf Savannenökosysteme angewendet werden könnten. Die heterogene Vegetationsstruktur und chronischen Störungen erschweren jedoch erheblich die Quantifizierung der Kohlenstoffvorräte in Savannen, so dass die derzeitigen Verfahren zur Schätzung der Kohlenstoffspeicherung aufgrund methodischer Hindernisse mit großen Unsicherheiten verbunden sind. Daher ist es auch schwierig abzuschätzen, wie sich künftige Landnutzungsänderungen wie die Intensivierung der Landwirtschaft oder die Erhöhung von Wildtierdichten auf die Kohlenstoffspeicher der afrikanischen Trockengebiete auswirken werden. In dieser Arbeit fasse ich zunächst die konventionellen Ansätze zur Quantifizierung von Kohlenstoffspeichern zusammen und zeige auf, wo und aus welchen Gründen sie in Savannenökosystemen versagen. Darüber hinaus skizziere ich entlang zweier Pfade der Landnutzungsänderung, welche Zukunftsvorstellungen den Landnutzungswandel im südlichen Afrika vorantreiben und wie diese voraussichtlich die Kohlenstoffspeicherung beeinflussen werden. In den folgenden Kapiteln entwickele ich eine neue Methode zur Schätzung der Kohlenstoffspeicherung, die an die spezifischen Bedingungen störungsanfälliger Ökosysteme angepasst ist, und zeige die Vorteile dieses Ansatzes gegenüber den bisherigen forstwirtschaftlichen Methoden auf. In den beiden daran anschließenden Kapiteln wende ich die neue Methode an, um die Auswirkungen von Landnutzungsänderungen auf die Kohlenstoffspeicherung zu analysieren und berücksichtige dabei auch das Verhältnis von holziger Biomasse zu im Boden gespeichertem Kohlenstoff. Mit diesem interdisziplinären Ansatz kann ich zeigen, dass sowohl die Intensivierung der Landwirtschaft als auch der Naturschutz mit großen Pflanzenfressern die ober- und unterirdische Kohlenstoffspeicherung in Büschen und Bäumen verringern, dieser Kohlenstoff jedoch nicht verloren geht, sondern teilweise in den organischen Kohlenstoffbestand des Bodens eingelagert wird. Anschließend quantifiziere ich die Kohlenstoffspeicherung im gesamten Ökosystem sowie in verschiedenen Ökosystemkompartimenten (ober- und unterirdischer Holzkohlenstoff in Sträuchern bzw. Bäumen sowie organischer Kohlenstoff im Ober- und Unterboden) von zwei verschiedenen Vegetationstypen der Studienregion. Darüber hinaus analysiere ich in einer Raum-Zeit-Substitution, wie sich zukünftige Landnutzungsänderungen auf die Kohlenstoffspeicherung in jedem Kompartiment und im gesamten Ökosystem auswirken. Die hier untersuchten Kohlenstoffspeicher unterscheiden sich in ihrer Beständigkeit gegenüber Landnutzungsänderungen, wobei jener Kohlenstoff, der in der Strauchbiomasse gebunden ist sich als am wenigsten beständig gegenüber künftigen Änderungen herausgestellt hat; demgegenüber ist der organische Kohlenstoff im Unterboden bei veränderter Landnutzung am stabilsten. Anschließend untersuche ich mit Hilfe von statistischen Modellen (Generalized Additive Models, GAMs), welche individuellen Landnutzungsfaktoren die Kohlenstoffspeicherung beeinflussen, und decke nichtlineare Effekte auf. Insbesondere Elefantenfraß kann zunächst positive Auswirkungen auf die Kohlenstoffspeicherung haben, die sich bei weiterer Intensivierung jedoch ins Gegenteil verkehrt. Dies muss bei zukünftigen Planungen berücksichtigt werden. Im letzten Kapitel diskutiere ich meine Ergebnisse im größeren Kontext dieser Arbeit und erörtere relevante Implikationen für Landnutzungsänderungen und zukünftige Entscheidungen. KW - biology KW - plant ecology KW - carbon storage KW - savanna KW - woodland KW - vegetation ecology KW - disturbance ecology KW - soil organic carbon KW - Biologie KW - Kohlenstoffspeicherung KW - Störungsökologie KW - Pflanzenökologie KW - Savanne KW - Organischer Bodenkohlenstoff KW - Vegetationsökologie KW - Baumsavanne Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648943 ER - TY - THES A1 - Novaković-Marinković, Nina T1 - Optical control of bubble domains and skyrmions in thin films T1 - Optische Kontrolle von Blasendomänen und Skyrmionen in dünnen Schichten N2 - Laser induced switching offers an attractive possibility to manipulate small magnetic domains for prospective memory and logic devices on ultrashort time scales. Moreover, optical control of magnetization without high applied magnetic fields allows manipulation of magnetic domains individually and locally, without expensive heat dissipation. One of the major challenges for developing novel optically controlled magnetic memory and logic devices is reliable formation and annihilation of non-volatile magnetic domains that can serve as memory bits in ambient conditions. Magnetic skyrmions, topologically nontrivial spin textures, have been studied intensively since their discovery due to their stability and scalability in potential spintronic devices. However, skyrmion formation and, especially, annihilation processes are still not completely understood and further investigation on such mechanisms are needed. The aim of this thesis is to contribute to better understanding of the physical processes behind the optical control of magnetism in thin films, with the goal of optimizing material parameters and methods for their potential use in next generation memory and logic devices. First part of the thesis is dedicated to investigation of all-optical helicity-dependent switching (AO-HDS) as a method for magnetization manipulation. AO-HDS in Co/Pt multilayer and CoFeB alloys with and without the presence of Dzyaloshinskii-Moriya interaction (DMI), which is a type of exchange interaction, have been investigated by magnetic imaging using photo-emission electron microscopy (PEEM) in combination with X-ray magnetic circular dichroism (XMCD). The results show that in a narrow range of the laser fluence, circularly polarized laser light induces a drag on domain walls. This enables a local deterministic transformation of the magnetic domain pattern from stripes to bubbles in out-of-plane magnetized Co/Pt multilayers, only controlled by the helicity of ultrashort laser pulses. The temperature and characteristic fields at which the stripe-bubble transformation occurs has been calculated using theory for isolated magnetic bubbles, using as parameters experimentally determined average size of stripe domains and the magnetic layer thickness. The second part of the work aims at purely optical formation and annihilation of magnetic skyrmions by a single laser pulse. The presence of a skyrmion phase in the investigated CoFeB alloys was first confirmed using a Kerr microscope. Then the helicity-dependent skyrmion manipulation was studied using AO-HDS at different laser fluences. It was found that formation or annihilation individual skyrmions using AO-HDS is possible, but not always reliable, as fluctuations in the laser fluence or position can easily overwrite the helicity-dependent effect of AO-HDS. However, the experimental results and magnetic simulations showed that the threshold values for the laser fluence for the formation and annihilation of skyrmions are different. A higher fluence is required for skyrmion formation, and existing skyrmions can be annihilated by pulses with a slightly lower fluence. This provides a further option for controlling formation and annihilation of skyrmions using the laser fluence. Micromagnetic simulations provide additional insights into the formation and annihilation mechanism. The ability to manipulate the magnetic state of individual skyrmions is of fundamental importance for magnetic data storage technologies. Our results show for the first time that the optical formation and annihilation of skyrmions is possible without changing the external field. These results enable further investigations to optimise the magnetic layer to maximise the energy gap between the formation and annihilation barrier. As a result, unwanted switching due to small laser fluctuations can be avoided and fully deterministic optical switching can be achieved. N2 - Laser induziertes Schalten bietet eine attraktive Möglichkeit zur Manipulation kleiner magnetischer Domänen für zukünftige Speicher- und Logikbauteile auf ultrakurzen Zeitskalen. Darüber hinaus ermöglicht die rein optische Kontrolle der Magnetisierung ohne hohe angelegte Magnetfelder eine individuelle und lokale Manipulation magnetischer Domänen ohne teure Wärmeverluste. Eine der größten Herausforderungen bei der Entwicklung neuartiger optisch kontrollierter magnetischer Speicher- und Logikbauteile ist das zuverlässige Schreiben stabiler magnetischer Domänen, die unter Umgebungsbedingungen als Speicherbits dienen können. Magnetische Skyrmionen, topologisch nichttriviale wirbelf¨ormige Spin-Texturen, wurden seit ihrer Entdeckung aufgrund ihrer Stabilität und Skalierbarkeit in potenziellen spintronischen Bauelementen intensiv untersucht. Allerdings sind die Prozesse der Skyrmionenbildung und vor allem der Skyrmionenvernichtung noch immer nicht vollständig verstanden, so dass weitere Untersuchungen zu diesen Mechanismen erforderlich sind. Ziel dieser Arbeit ist es, zu einem besseren Verständnis der physikalischen Prozesse beizutragen, die der optischen Kontrolle magnetischer Texturen in dünnen Filmen zugrunde liegen, mit dem Ziel, die Materialparameter und Methoden für ihren potenziellen Einsatz in Speicher- und Logikbauteilen der nächsten Generation zu optimieren. Der erste Teil der Arbeit widmet sich der Untersuchung des rein optischen helizitätsabhängigen Schaltens (AO-HDS) als Methode zur Manipulation der Magnetisierung. AO-HDS wurde in Co/Pt-Multilayern und CoFeB-Legierungen mit und ohne DMI (Dzyaloshinskii-Moriya-Wechselwirkung), einer Art Austauschwechselwirkung, mittels magnetischer Bildgebung durch Photoemissions-Elektronenmikroskopie (PEEM) in Kombination mit magnetischem Röntgendichroismus (XMCD) untersucht. Die Ergebnisse zeigen, dass zirkular polarisiertes Licht in einem bestimmten Bereich der Laserfluenz einen Zug auf Domänenwände ausübt. Dies ermöglicht eine lokale deterministische Umwandlung des magnetischen Domänenmusters von Streifen zu Blasen Domänen in unmagnetisierten Co/Pt- Multilagen, die ausschließlich durch die Helizität der ultrakurzen Laserpulse gesteuert wird. Die Temperatur und die charakteristischen Felder, bei denen die Umwandlung von Streifen zu Blasen Domänen stattfindet, wurden mithilfe der Theorie für isolierte magnetische Blasen berechnet, wobei die experimentell ermittelte durchschnittliche Größe der Streifendom¨anen und die Dicke der magnetischen Schicht als Parameter verwendet wurden. Der zweite Teil der Arbeit zielt darauf ab, optimale Parameter zu ermitteln, die für das rein optische Schreiben und Löschen von magnetischen Skyrmionen in einem einzigen Laser Puls erforderlich sind. Das Vorhandensein einer Skyrmion-Phase in dafür verwendeten CoFeB-Legierungen wurde zunächst mit Hilfe eines Kerr-Mikroskops bestätigt. Dann wurde die helizitätsabhängige Skyrmion-Manipulation mittels AOHDS für verschiedene Laserfluenzen untersucht. Es zeigte sich, dass eine Schreiben oder Löschen einzelner Skyrmionen mittels AO-HDS zwar möglich ist, aber nicht immer zuverlässig, da Fluktuationen in der Laserfluenz oder Position den helizitätsabhängigen Effekt von AO-HDS leicht überschreiben können. Die experimentellen Ergebnisse und magnetischen Simulationen zeigten allerdings, dass die Schwellenwerte für die Laserfluenz zur Bildung und Vernichtung von Skyrmionen unterschiedlich sind. Für die Skyrmionenbildung wird eine höhere Fluenz benötigt, und bereits existierende Skyrmionen können durch Laser Pulse mit etwas geringerer Fluenz gelöscht werden. Dadurch bietet sich eine weitere Möglichkeit das Schreiben und Löschen von Skyrmionen durch die Laserfluenz zu kontrollieren. Mikromagnetische Simulationen liefern zusätzliche Erkenntnisse über den Schreib- und Löschmechanismus. Die Möglichkeit, den magnetischen Zustand einzelner Skyrmionen zu manipulieren, ist von grundlegender Bedeutung für magnetische Datenspeichertechnologien. Unsere Ergebnisse zeigen erstmalig, dass die optische Bildung und Vernichtung von Skyrmionen ohne Änderung des externen Feldes möglich ist. Diese Ergebnisse ermöglichen weitere Untersuchungen zur Optimierung der magnetischen Schicht, um die Energielücke zwischen Bildungs- und Vernichtungsbarriere zu maximieren. Dadurch kann unerwünschtes Schalten aufgrund kleiner Laserfluktuationen vermieden und vollständig deterministisches optisches Schalten erreicht werden. KW - Skyrmions KW - bubble domains KW - magnetism KW - Skyrmionen KW - Blasendomänen KW - Magnetismus KW - dünne Schichten KW - thin films Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647069 ER - TY - THES A1 - Kucharzewski, Tim T1 - Wars and the world BT - the Russian army in Afghanistan, Chechnya, Georgia, and popular culture N2 - This book offers a descriptive analysis of the Soviet/Russian wars in Afghanistan, Chechnya, and Georgia, as well as an in-depth exploration of the ways in which these wars are framed in the collective consciousness created by global popular culture. Russian and Western modalities of remembrance have been, and remain, engaged in a world war that takes place (not exclusively, but intensively) on the level of popular culture. The action/reaction dynamic, confrontational narratives and othering between the two "camps" never ceased. The Cold War, in many ways and contrary to the views of many others who hoped for the end of history, never really ended. Y1 - 2024 SN - 978-1-0364-0374-4 PB - Cambridge Scholars Publishing CY - Newcastle upon Tyne ER - TY - THES A1 - Friese, Sharleen T1 - Trace elements and genomic instability in the murine brain N2 - The trace elements copper, iron, manganese, selenium and zinc are essential micronutrients involved in various cellular processes, all with different responsibilities. Based on that importance, their concentrations are tightly regulated in mammalian organisms. The maintenance of those levels is termed trace element homeostasis and mediated by a combination of processes regulating absorption, cellular and systemic transport mechanisms, storage and effector proteins as well as excretion. Due to their chemical properties, some functions of trace elements overlap, as seen in antioxidative defence, for example, comprising an expansive spectrum of antioxidative proteins and molecules. Simultaneously, the same is true for regulatory mechanisms, causing trace elements to influence each other’s homeostases. To mimic physiological conditions, trace elements should therefore not be evaluated separately but considered in parallel. While many of these homeostatic mechanisms are well-studied, for some elements new pathways are still discovered. Additionally, the connections between dietary trace element intake, trace element status and health are not fully unraveled, yet. With current demographic developments, also the influence of ageing as well as of certain pathological conditions is of increasing interest. Here, the TraceAge research unit was initiated, aiming to elucidate the homeostases of and interactions between essential trace elements in healthy and diseased elderly. While human cohort studies can offer insights into trace element profiles, also in vivo model organisms are used to identify underlying molecular mechanisms. This is achieved by a set of feeding studies including mice of various age groups receiving diets of reduced trace element content. To account for cognitive deterioration observed with ageing, neurodegenerative diseases, as well as genetic mutations triggering imbalances in cerebral trace element concentrations, one TraceAge work package focuses on trace elements in the murine brain, specifically the cerebellum. In that context, concentrations of the five essential trace elements of interest, copper, iron, manganese, selenium and zinc, were quantified via inductively coupled plasma-tandem mass spectrometry, revealing differences in priority of trace element homeostases between brain and liver. Upon moderate reduction of dietary trace element supply, cerebellar concentrations of copper and manganese deviated from those in adequately supplied animals. By further reduction of dietary trace element contents, also concentrations of cerebellar iron and selenium were affected, but not as strong as observed in liver tissue. In contrast, zinc concentrations remained stable. Investigation of aged mice revealed cerebellar accumulation of copper and iron, possibly contributing to oxidative stress on account of their redox properties. Oxidative stress affects a multitude of cellular components and processes, among them, next to proteins and lipids, also the DNA. Direct insults impairing its integrity are of relevance here, but also indirect effects, mediated by the machinery ensuring genomic stability and its functionality. The system includes the DNA damage response, comprising detection of endogenous and exogenous DNA lesions, decision on subsequent cell fate and enabling DNA repair, which presents another pillar of genomic stability maintenance. Also in proteins of this machinery, trace elements act as cofactors, shaping the hypothesis of impaired genomic stability maintenance under conditions of disturbed trace element homeostasis. To investigate this hypothesis, a variety of approaches was used, applying OECD guidelines Organisation for Economic Co-operation and Development, adapting existing protocols for use in cerebellum tissue and establishing new methods. In order to assess the impact of age and dietary trace element depletion on selected endpoints estimating genomic instability, DNA damage and DNA repair were investigated. DNA damage analysis, in particular of DNA strand breaks and oxidatively modified DNA bases, revealed stable physiological levels which were neither affected by age nor trace element supply. To examine whether this is a result of increased repair rates, two steps characteristic for base excision repair, namely DNA incision and ligation activity, were studied. DNA glycosylases and DNA ligases were not reduced in their activity by age or trace element depletion, either. Also on the level of gene expression, major proteins involved in genomic stability maintenance were analysed, mirroring results obtained from protein studies. To conclude, the present work describes homeostatic regulation of trace elements in the brain, which, in absence of genetic mutations, is able to retain physiological levels even under conditions of reduced trace element supply to a certain extent. This is reflected by functionality of genomic stability maintenance mechanisms, illuminating the prioritization of the brain as vital organ. N2 - Als essentielle Mikronährstoffe spielen die Spurenelemente Kupfer, Eisen, Mangan, Selen und Zink eine wichtige Rolle für eine Vielzahl zellulärer Prozesse. Aufgrund dessen unterliegen ihre Konzentrationen in der Peripherie einer strengen Regulation. Die Aufrechterhaltung dieser Konzentrationen wird als Spurenelementhomöostase bezeichnet und beruht auf der Kombination verschiedener Mechanismen hinsichtlich ihrer Absorption, des zellulären und systemischen Transports, der Regulation von Speicher- und Effektorproteinen sowie ihrer jeweiligen Exkretion. Aufgrund ihrer chemischen Eigenschaften überschneiden sich einige Funktionen der Spurenelemente. Beispielsweise ist hier die antioxidative Abwehr zu nennen, an welcher eine Vielzahl verschiedener antioxidativer Moleküle und Proteine beteiligt sind. Gleiches gilt für regulative Mechanismen, wodurch Spurenelemente unter Umständen ihre jeweiligen Homöostasen gegenseitig beeinflussen können. Um physiologische Bedingungen abzubilden, sollten Spurenelemente somit nicht isoliert betrachtet, sondern gemeinsam untersucht werden. Obwohl viele homöostatische Mechanismen bereits gut erforscht sind, werden für einige Elemente immer noch neue Stoffwechselwege identifiziert. Darüber hinaus sind auch die Zusammenhänge zwischen der Spurenelementaufnahme aus der Nahrung sowie dem Spurenelement- und Gesundheitsstatus noch nicht vollständig aufgeklärt. Im Zuge der aktuellen demografischen Entwicklung steigt zudem das Interesse daran, den Einfluss des Alterungsprozesses sowie bestimmter Erkrankungen zu untersuchen. In diesem Kontext wurde die Forschungsgruppe TraceAge gegründet, welche dazu beitragen soll, zum einen die homöostatische Regulation und zum anderen die Interaktionen essentieller Spurenelemente in gesunden und erkrankten älteren Menschen zu untersuchen. Hierbei werden einerseits humane Kohortenstudien beprobt, so dass Spurenelementprofile erstellt werden können. Darüber hinaus werden auch in vivo Modellorganismen verwendet, um zugrundeliegende molekulare Mechanismen zu erfassen. In murinen Fütterungsstudien erhielten Tiere unterschiedlicher Altersgruppen deshalb eine spurenelementreduzierte Diät. Um kognitive Beeinträchtigungen zu beachten, wie sie neben dem Altern auch bei neurodegenerativen Erkrankungen sowie bestimmten genetischen Mutationen, meist im Zusammenhang mit Spurenelementdishomöostasen, auftreten, konzentriert sich ein Projektbereich auf die Wechselwirkung von Spurenelementen im murinen Gehirn, wobei hier der Fokus auf das Cerebellum gelegt wurde. In diesem Zusammenhang wurden die Konzentrationen fünf essentieller Spurenelemente, Kupfer, Eisen, Mangan, Selen und Zink, mittels Massenspektrometrie mit induktiv gekoppeltem Plasma in den Organen der Tiere quantifiziert, wodurch sich Unterschiede in der Priorität der Aufrechterhaltung von Spurenelementhomöostasen zwischen Gehirn und Leber aufzeigten. Eine moderate Verringerung der Spurenelementgehalte in der gefütterten Diät wirkte sich dabei besonders auf die Konzentrationen von cerebellärem Kupfer und Mangan aus. Bei weiterer Spurenelementreduktion sanken auch die Konzentrationen von cerebellärem Eisen und Selen. Im Vergleich zur Leber waren diese Abnahmen jedoch weniger ausgeprägt. Im Gegensatz dazu blieben die Zinkkonzentrationen in Leber und Gehirn unverändert. Untersuchungen in älteren Mäusen zeigten eine Akkumulation von Kupfer und Eisen im Cerebellum. Möglicherweise trägt dies durch deren Redoxeigenschaften zur Entstehung von oxidativem Stress bei. Oxidativer Stress wirkt sich auf eine Vielzahl zellulärer Bestandteile, wie Proteine und Lipide, aber auch auf die DNA, sowie auf den Ablauf von Zellvorgängen aus. Dabei sind einerseits direkte Einflüsse auf die strukturelle Integrität der DNA von Relevanz, andererseits auch indirekte Effekte, welche durch Mechanismen zur Aufrechterhaltung der genomischen Stabilität vermittelt werden. Dieses System beinhaltet die DNA-Schadensantwort, welche die Identifikation von DNA-Schäden und die Entscheidung über das weitere Schicksal der Zelle beinhaltet. Darüber hinaus ist diese für die Initiation der DNA-Reparatur verantwortlich, welche einen weiteren zentralen Mechanismus zur Instandhaltung genomischer Stabilität darstellt. Auch die Proteine der DNA-Reparaturwege nutzen Spurenelemente als Kofaktoren, worin die Hypothese zur Beeinträchtigung der Aufrechterhaltung der genomischen Stabilität unter Bedingungen einer inadäquaten Spurenelementversorgung begründet wird. Um diese Hypothese zu prüfen, wurden in der vorliegenden Arbeit diverse Methoden unter Anwendung von OECD-Richtlinien, der Anpassung existierender Versuchsvorschriften an die spezifischen Anforderungen von Cerebellumgewebe, sowie die Entwicklung neuer Methoden angewandt. Zur Einschätzung des Einflusses von Alter und Spurenelementversorgung aus der Diät auf verschiedene Endpunkte der genomischen Instabilität wurden insbesondere die DNA-Schädigungen und die DNA-Reparatur als molekulare Zielstrukturen analysiert. DNA-Schäden, primär DNA-Strangbrüche und oxidativ modifizierte DNA-Basen, wiesen dabei stabile, physiologische Level auf, die nicht durch Alter oder Spurenelementzufuhr verändert wurden. Um festzustellen, ob dies ein Resultat erhöhter Reparaturvorgänge ist, wurden zwei charakteristische Schritte der Basenexzisionsreparatur, DNA-Inzision und DNA-Ligation, näher untersucht. Es zeigte sich jedoch kein Einfluss auf die DNA-Reparatur einleitenden DNA-Glykosylasen sowie auf die DNA-Reparatur abschließenden DNA-Ligasen. Auch auf Genexpressionsebene wurden wichtige Gene der Proteine der genomischen Stabilität analysiert, welche die Ergebnisse proteinbezogener Studien widerspiegelten. Abschließend lässt sich somit feststellen, dass die Spurenelementhomöostase des Gehirns, selbst unter Bedingungen der defizienten Spurenelementzufuhr, streng reguliert ist. Dadurch können physiologische Spurenelementkonzentrationen bis zu einem gewissen Grad konstant gehalten werden. Dies spiegelt sich auch in der Funktionalität von Mechanismen zur Erhaltung genomischer Stabilität wider, welche die Priorität des Gehirns im Organismus unterstreicht. KW - ageing KW - cerebellum KW - DNA repair KW - genomic instability KW - trace elements KW - Alter KW - Cerebellum KW - DNA-Reparatur KW - genomische Instabilität KW - Spurenelemente Y1 - 2024 ER - TY - THES A1 - Fischer, Florian T1 - Hardy inequalities on graphs T1 - Hardy-Ungleichungen auf Graphen N2 - Die Dissertation befasst sich mit einer zentralen Ungleichung der nicht-linearen Potentialtheorie, der Hardy-Ungleichung. Sie besagt, dass das nicht-lineare Energiefunktional von unten durch eine p-te Potenz einer gewichteten p-Norm abgeschätzt werden kann, p>1. Das Energiefunktional besteht dabei aus einem Divergenz- und einem beliebigen Potentialteil. Als zugrundeliegender Raum wurden hier lokal summierbare unendliche Graphen gewählt. Bisherige Veröffentlichungen zu Hardy-Ungleichungen auf Graphen haben vor allem den Spezialfall p=2 betrachtet, oder lokal endliche Graphen ohne Potentialteil. Zwei grundlegende Fragestellungen ergeben sich nun ganz natürlich: Für welche Graphen gibt überhaupt es eine Hardy-Ungleichung? Und, wenn es sie gibt, gibt es einen Weg um ein optimales Gewicht zu erhalten? Antworten auf diese Fragen werden in Theorem 10.1 und Theorem 12.1 gegeben. Theorem 10.1 gibt eine Reihe an Charakterisierungen an; unter anderem gibt es eine Hardy-Ungleichung auf einem Graphen genau dann, wenn es eine Greensche Funktion gibt. Theorem 12.1 gibt eine explizite Formel an, um optimale Hardy-Gewichte für lokal endliche Graphen unter einigen technischen Zusatzannahmen zu berechnen. In Beispielen wird gezeigt, dass Greensche Funktionen gute Kandidaten sind um in die Formel eingesetzt zu werden. Um diese beiden Theoreme beweisen zu können, müssen eine Vielzahl an Techniken erarbeitet werden, welche in den ersten Kapiteln behandelt werden. Dabei sind eine Verallgemeinerung der Grundzustandstransformation (Theorem 4.1), ein Agmon-Allegretto-Piepenbrink-artiges Resultat (Theorem 6.1) und das Vergleichsprinzip (Proposition 7.3) besonders hervorzuheben, da diese Resultate sehr häufig angewendet werden und somit das Fundament der Dissertation bilden. Es wird zudem darauf Wert gelegt die Theorie durch Beispiele zu veranschaulichen. Hierbei wird der Fokus auf die natürlichen Zahlen, Euklidische Gitter, Bäume und Sterne gelegt. Als Abschluss werden noch eine nicht-lineare Version der Heisenbergschen Unschärferelation und eine Rellich-Ungleichung aus der Hardy-Ungleichung geschlussfolgert. N2 - The dissertation deals with a central inequality of non-linear potential theory, the Hardy inequality. It states that the non-linear energy functional can be estimated from below by a pth power of a weighted p-norm, p>1. The energy functional consists of a divergence part and an arbitrary potential part. Locally summable infinite graphs were chosen as the underlying space. Previous publications on Hardy inequalities on graphs have mainly considered the special case p=2, or locally finite graphs without a potential part. Two fundamental questions now arise quite naturally: For which graphs is there a Hardy inequality at all? And, if it exists, is there a way to obtain an optimal weight? Answers to these questions are given in Theorem 10.1 and Theorem 12.1. Theorem 10.1 gives a number of characterizations; among others, there is a Hardy inequality on a graph if and only if there is a Green's function. Theorem 12.1 gives an explicit formula to compute optimal Hardy weights for locally finite graphs under some additional technical assumptions. Examples show that Green's functions are good candidates to be used in the formula. Emphasis is also placed on illustrating the theory with examples. The focus is on natural numbers, Euclidean lattices, trees and star graphs. Finally, a non-linear version of the Heisenberg uncertainty principle and a Rellich inequality are derived from the Hardy inequality. KW - graph theory KW - Hardy inequality KW - quasi-linear potential theory KW - p-Laplacian KW - criticality theory KW - Graphentheorie KW - Hardy-Ungleichung KW - quasilineare Potentialtheorie KW - p-Laplace-Operator KW - Kritikalitätstheorie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647730 ER - TY - THES A1 - Hempel, Elisabeth T1 - Resolving the evolutionary history of two hippotragin antelopes using archival and ancient DNA N2 - African antelopes are iconic but surprisingly understudied in terms of their genetics, especially when it comes to their evolutionary history and genetic diversity. The age of genomics provides an opportunity to investigate evolution using whole nuclear genomes. Decreasing sequencing costs enable the recovery of multiple loci per genome, giving more power to single specimen analyses and providing higher resolution insights into species and populations that can help guide conservation efforts. This age of genomics has only recently begun for African antelopes. Many African bovids have a declining population trend and hence, are often endangered. Consequently, contemporary samples from the wild are often hard to collect. In these cases, ex situ samples from contemporary captive populations or in the form of archival or ancient DNA (aDNA) from historical museum or archaeological/paleontological specimens present a great research opportunity with the latter two even offering a window to information about the past. However, the recovery of aDNA is still considered challenging from regions with prevailing climatic conditions that are deemed adverse for DNA preservation like the African continent. This raises the question if DNA recovery from fossils as old as the early Holocene from these regions is possible. This thesis focuses on investigating the evolutionary history and genetic diversity of two species: the addax (Addax nasomaculatus) and the blue antelope (Hippotragus leucophaeus). The addax is critically endangered and might even already be extinct in the wild, while the blue antelope became extinct ~1800 AD, becoming the first extinct large African mammal species in historical times. Together, the addax and the blue antelope can inform us about current and past extinction events and the knowledge gained can help guide conservation efforts of threatened species. The three studies used ex situ samples and present the first nuclear whole genome data for both species. The addax study used historical museum specimens and a contemporary sample from a captive population. The two studies on the blue antelope used mainly historical museum specimens but also fossils, and resulted in the recovery of the oldest paleogenome from Africa at that time. The aim of the first study was to assess the genetic diversity and the evolutionary history of the addax. It found that the historical wild addax population showed only limited phylogeographic structuring, indicating that the addax was a highly mobile and panmictic population and suggesting that the current European captive population might be missing the majority of the historical mitochondrial diversity. It also found the nuclear and mitochondrial diversity in the addax to be rather low compared to other wild ungulate species. Suggestions on how to best save the remaining genetic diversity are presented. The European zoo population was shown to exhibit no or only minor levels of inbreeding, indicating good prospects for the restoration of the species in the wild. The trajectory of the addax’s effective population size indicated a major bottleneck in the late Pleistocene and a low effective population size well before recent human impact led to the species being critically endangered today. The second study set out to investigate the identities of historical blue antelope specimens using aDNA techniques. Results showed that six out of ten investigated specimens were misidentified, demonstrating the blue antelope to be one of the scarcest mammal species in historical natural history collections, with almost no bone reference material. The preliminary analysis of the mitochondrial genomes suggested a low diversity and hence low population size at the time of the European colonization of southern Africa. Study three presents the results of the analyses of two blue antelope nuclear genomes, one ~200 years old and another dating to the early Holocene, 9,800–9,300 cal years BP. A fossil-calibrated phylogeny dated the divergence time of the three historically extant Hippotragus species to ~2.86 Ma and demonstrated the blue and the sable antelope (H. niger) to be sister species. In addition, ancient gene flow from the roan (H. equinus) into the blue antelope was detected. A comparison with the roan and the sable antelope indicated that the blue antelope had a much lower nuclear diversity, suggesting a low population size since at least the early Holocene. This concurs with findings from the fossil record that show a considerable decline in abundance after the Pleistocene–Holocene transition. Moreover, it suggests that the blue antelope persisted throughout the Holocene regardless of a low population size, indicating that human impact in the colonial era was a major factor in the blue antelope’s extinction. This thesis uses aDNA analyses to provide deeper insights into the evolutionary history and genetic diversity of the addax and the blue antelope. Human impact likely was the main driver of extinction in the blue antelope, and is likely the main factor threatening the addax today. This thesis demonstrates the value of ex situ samples for science and conservation, and suggests to include genetic data for conservation assessments of species. It further demonstrates the beneficial use of aDNA for the taxonomic identification of historically important specimens in natural history collections. Finally, the successful retrieval of a paleogenome from the early Holocene of Africa using shotgun sequencing shows that DNA retrieval from samples of that age is possible from regions generally deemed unfavorable for DNA preservation, opening up new research opportunities. All three studies enhance our knowledge of African antelopes, contributing to the general understanding of African large mammal evolution and to the conservation of these and similarly threatened species. N2 - Afrikanische Antilopen sind sehr bekannte Tiere. Allerdings sind sie genetisch wenig untersucht, vor allem hinsichtlich ihrer Evolutionsgeschichte und genetischen Diversität. Das Zeitalter der Genomik ermöglicht es, Evolution mit Hilfe von kompletten nukleären Genomen zu untersuchen. Durch sinkende Sequenzierkosten können zahlreiche Genloci pro Genom gewonnen werden, wodurch Analysen mit nur einem Exemplar mehr Aussagekraft zukommt und tiefere Erkenntnisse über Arten und Populationen zulassen, die Artenschutzbemühungen unterstützen können. Für afrikanische Antilopen hat dieses Zeitalter gerade erst begonnen. Viele afrikanische Boviden haben einen sinkenden Populationstrend und sind daher häufig gefährdet. Dies erschwert es oft, Proben freilebender Tiere zu bekommen. In diesen Fällen bieten ex situ Proben von in Gefangenschaft lebenden Tieren oder in Form von alter DNA (aDNA) aus naturhistorischen Sammlungen eine gute Forschungsmöglichkeit. Letztere ermöglicht zudem den Zugang zu Informationen aus der Vergangenheit. Es gilt noch immer als Herausforderung, aDNA aus Regionen zu erlangen, deren Bedingungen schlecht für den Erhalt von DNA sind. Dies wirft die Frage auf, ob es möglich ist, aDNA aus Fossilien vom Beginn des Holozäns aus Afrika zu erhalten. Das Ziel dieser Doktorarbeit war die Erforschung der Evolutionsgeschichte und der genetischen Diversität der Mendesantilope (Addax nasomaculatus) und des Blaubocks (Hippotragus leucophaeus). Die Mendesantilope ist vom Aussterben bedroht und könnte in freier Wildbahn bereits ausgestorben sein. Der Blaubock starb ca. 1800 aus und war das erste afrikanische Großsäugetier, das in historischer Zeit ausstarb. Beide Arten können unsere Kenntnisse über derzeitige und vergangene Aussterbeereignisse erweitern, um den Schutz bedrohter Arten zu unterstützen. Die drei Studien dieser Doktorarbeit nutzten ex situ Proben und präsentieren die ersten kompletten nukleären Genome dieser beiden Arten. Die Studie über die Mendesantilope nutzte historische Präparate aus naturhistorischen Sammlungen sowie eine rezente Probe eines Tieres aus Gefangenschaft. Beide Blaubock-Studien nutzten vor allem Präparate aus naturhistorischen Sammlungen, aber auch Fossilien, woraus das zu diesem Zeitpunkt älteste Paläogenom aus Afrika resultierte. Die erste Studie untersuchte die genetische Diversität und Evolutionsgeschichte der Mendesantilope. Es zeigte sich, dass ihre historische Wildpopulation nur eine geringe phylogeographische Strukturierung aufwies, was auf eine sehr mobile und panmiktische Population hindeutet. Dies legt nahe, dass die rezente europäische Zoopopulation vermutlich Großteile der historischen mitochondrialen Diversität verloren hat. Zusätzlich zeigte sich, dass die nukleäre und mitochondriale Diversität relativ gering waren im Vergleich zu anderen wilden Huftierarten. Es werden Möglichkeiten zum Erhalt der verbliebenen Diversität aufgezeigt. Die europäische Zoopopulation zeigte keine beziehungsweise nur geringe Anzeichen von Inzucht, was für gute Wiederauswilderungsaussichten spricht. Die effektive Populationsgröße der Mendesantilope weist einen starken genetischen Flaschenhals im späten Pleistozän auf. Zudem war sie bereits deutlich niedrig, bevor der derzeitige menschliche Einfluss zu ihrer heutigen Bedrohung führte. Die zweite Stude untersuchte mit Hilfe von aDNA die Identitäten historischer Blaubock-Präparate. Nur vier der zehn untersuchten Präparate stellten sich als Blauböcke heraus. Somit ist der Blaubock eine der seltensten Säugetierarten in naturhistorischen Sammlungen, für die es zudem kaum Knochenreferenzmaterial gibt. Die vorläufige Analyse des mitochondrialen Genoms deutet auf eine geringe Diversität und daher eine geringe Populationsgröße zur Zeit der europäischen Kolonialisierung Südafrikas hin. Die dritte Studie analysierte zwei nukleäre Blaubockgenome, ein ~200 Jahre altes Präparat und eines aus dem frühen Holozän, 9.800–9.300 Jahre. Ein mit Hilfe von Fossilien kalibrierter Stammbaum datiert die Aufspaltung der drei historisch rezenten Hippotragus-Arten auf ~2,86 Mio. Jahre und zeigt die Rappenantilope (H. niger) und den Blaubock als Schwesterarten. Darüber hinaus wurde früherer Genfluss der Pferdeantilope (H. equinus) zum Blaubock festgestellt. Der Vergleich der drei Hippotragus-Arten legt nahe, dass der Blaubock eine deutlich geringere nukleäre Diversität besaß und somit seit mindestens dem frühen Holozän nur über eine geringe Populationsgröße verfügte. Dies stimmt mit Ergebnissen aus dem Fossilbericht überein, die eine deutliche Häufigkeitsabnahme nach dem Übergang des Pleistozäns zum Holozän aufzeigen. Außerdem suggeriert es, dass der Blaubock unabhängig von einer geringen Populationsgröße das Holozän überdauerte und sein Aussterben stark durch den Menschen während der Kolonialzeit beeinflusst wurde. Diese Doktorarbeit bietet mit Hilfe von aDNA gewonnene Erkenntnisse über die Evolutionsgeschichte und die genetische Diversität der Mendesantilope und des Blaubocks. Der menschliche Einfluss war vermutlich der Hauptaussterbegrund des Blaubocks. Dies gilt wahrscheinlich ebenso für die heutige Bedrohung der Mendesantilope. Diese Doktorarbeit zeigt den Wert von ex situ Proben für die Wissenschaft und den Artenschutz und legt die Einbindung von genetischen Daten für die Bewertung des Gefährdungsstatus einer Art nahe. Des Weiteren demonstriert sie die Nutzung von aDNA für taxonomische Bestimmungen von historisch wichtigen Präparaten in naturhistorischen Sammlungen. Die erfolgreiche Gewinnung eines Paläogenoms aus dem frühen Holozän Afrikas mittels shotgun-Sequenzierung zeigt, dass die DNA-Gewinnung aus Proben diesen Alters aus Regionen möglich ist, deren Bedingungen allgemein als ungünstig für den Erhalt von DNA gelten. Dies eröffnet neue Forschungsmöglichkeiten. Alle drei Studien erweitern unser Wissen über afrikanische Antilopen und tragen damit zum allgemeinen Verständnis der Evolution von afrikanischen Großsäugetieren sowie zu deren Erhalt und dem ähnlich gefährdeter Arten bei. KW - Addax nasomaculatus KW - antelope KW - aDNA KW - conservation KW - museomics KW - extinction KW - South Africa KW - Blue antelope KW - Hippotragus leucophaeus KW - bluebuck KW - Addax nasomaculatus KW - Blaubock KW - Hippotragus leucophaeus KW - Südafrika KW - aDNA KW - Antilope KW - Artenschutz KW - Aussterben KW - museomics Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647718 ER - TY - THES A1 - Aral, Tuğçe T1 - Socialization and development of racial knowledge among youth in inequitable societies T1 - Sozialisierung und Entwicklung von rassifiziertem Wissen bei Jugendlichen in ungerechten Gesellschaften BT - An ecological approach BT - Ein ökologischer Ansatz N2 - Background: Societies worldwide have become more diverse yet continue to be inequitable. Understanding how youth growing up in these societies are socialized and consequently develop racial knowledge has important implications not only for their well-being but also for building more just societies. Importantly, there is a lack of research on these topics in Germany and Europe in general. Aim and Method: The overarching aim of the dissertation is to investigate 1) where and how ethnic-racial socialization (ERS) happens in inequitable societies and 2) how it relates to youth’s development of racial knowledge, which comprises racial beliefs (e.g., prejudice, attitudes), behaviors (e.g., actions preserving or disrupting inequities), and identities (e.g., inclusive, cultural). Guided by developmental, cultural, and ecological theories of socialization and development, I first explored how family, as a crucial socialization context, contributes to the preservation or disruption of racism and xenophobia in inequitable societies through its influence on children’s racial beliefs and behaviors. I conducted a literature review and developed a conceptual model bridging research on ethnic-racial socialization and intergroup relations (Study 1). After documenting the lack of research on socialization and development of racial knowledge within and beyond family contexts outside of the U.S., I conducted a qualitative study to explore ERS in Germany through the lens of racially marginalized youth (Study 2). Then, I conducted two quantitative studies to explore the separate and interacting relations of multiple (i.e., family, school) socialization contexts for the development of racial beliefs and behaviors (Study 3), and identities (Studies 3, 4) in Germany. Participants of Study 2 were 26 young adults (aged between 19 and 32) of Turkish, Kurdish, East, and Southeast Asian heritage living across different cities in Germany. Study 3 was conducted with 503 eighth graders of immigrant and non-immigrant descent (Mage = 13.67) in Berlin, Study 4 included 311 early to mid-adolescents of immigrant descent (Mage= 13.85) in North Rhine-Westphalia with diverse cultural backgrounds. Results and Conclusion: The findings revealed that privileged or marginalized positions of families in relation to their ethnic-racial and religious background in society entail differential experiences and thus are an important determining factor for the content/process of socialization and development of youth’s racial knowledge. Until recently, ERS research mostly focused on investigating how racially marginalized families have been the sources of support for their children in resisting racism and how racially privileged families contribute to transmission of information upholding racism (Study 1). ERS for racially marginalized youth in Germany centered heritage culture, discrimination, and resistance strategies to racism, yet resistance strategies transmitted to youth mostly help to survive racism (e.g., working hard) by upholding it instead of liberating themselves from racism by disrupting it (e.g., self-advocacy, Study 2). Furthermore, when families and schools foster heritage and intercultural learning, both contexts may separately promote stronger identification with heritage culture and German identities, and more prosocial intentions towards disadvantaged groups (i.e., refugees) among youth (Studies 3, 4). However, equal treatment in the school context led to mixed results: equal treatment was either unrelated to inclusive identity, or positively related to German and negatively related to heritage culture identities (Studies 3, 4). Additionally, youth receiving messages highlighting strained and preferential intergroup relations at home while attending schools promoting assimilation may develop a stronger heritage culture identity (Study 4). In conclusion, ERS happened across various social contexts (i.e., family, community centers, school, neighborhood, peer). ERS promoting heritage and intercultural learning, at least in one social context (family or school), might foster youth’s racial knowledge manifesting in stronger belonging to multiple cultures and in prosocial intentions toward disadvantaged groups. However, there is a need for ERS targeting increasing awareness of discrimination across social contexts of youth and teaching youth resistance strategies for liberation from racism. N2 - Hintergrund: Gesellschaften auf der ganzen Welt sind vielfältiger geworden, doch sie sind nach wie vor ungleich. Zu verstehen, wie Jugendliche, die in diesen Gesellschaften aufwachsen, sozialisiert werden und folglich rassifiziertes Wissen entwickeln, hat nicht nur wichtige Implikationen für ihr Wohlbefinden, sondern auch für den Aufbau gerechterer Gesellschaften. In Deutschland und in Europa im Allgemeinen besteht jedoch bislang ein Mangel an Forschung zu diesen Themen. Ziel und Methode: Das übergreifende Ziel der Dissertation ist es, 1) zu untersuchen, wo und wie ethnic-racial socialisation (ERS) in ungerechten Gesellschaften stattfindet und 2) wie ERS mit der Entwicklung von rassifiziertem Wissen bei Jugendlichen zusammenhängt. Rassifiziertes Wissen umfasst rassifizierte Überzeugungen (z.B. Vorurteile, Einstellungen), Verhaltensweisen (z.B. Handlungen, die Ungleichheiten aufrechterhalten oder bekämpfen) und Identitäten (z.B. inklusiv, kulturell). Auf der Grundlage entwicklungspsychologischer, kultureller und ökologischer Sozialisations- und Entwicklungstheorien untersuchte ich zunächst, wie die Familie als entscheidender Sozialisationskontext durch ihren Einfluss auf rassifizierte Überzeugungen und Verhaltensweisen der Kinder zur Aufrechterhaltung oder Bekämpfung von Rassismus und Fremdenfeindlichkeit in ungleichen Gesellschaften beiträgt. Ich führte eine Literaturrecherche durch und entwickelte ein konzeptuelles Modell, das Forschung zu ERS und zu Intergruppenbeziehungen verbindet (Studie 1). Nachdem ich den Mangel an Forschung zu Sozialisation und zur Entwicklung von rassistischem Wissen innerhalb und außerhalb des familiären Kontexts außerhalb der USA dokumentiert hatte, führte ich eine qualitative Studie durch, um ERS in Deutschland durch die Brille rassistisch markierter Jugendlicher zu untersuchen (Studie 2). Anschließend führte ich zwei quantitative Studien durch, um die separaten und interagierenden Zusammenhänge zwischen verschiedenen Sozialisationskontexten (z. B. Familie, Schule) und der Entwicklung rassifizierte Überzeugungen und Verhaltensweisen (Studie 3) und Identitäten (Studien 3, 4) in Deutschland zu untersuchen. Teilnehmer*innen der Studie 2 waren 26 junge Erwachsene (im Alter zwischen 19 und 32 Jahren) türkischer, kurdischer, ost- und südostasiatischer Herkunft, die in verschiedenen Städten in Deutschland leben. Studie 3 wurde mit 503 Achtklässler*innen mit und ohne Migrationshintergrund (Mage = 13,67) in Berlin durchgeführt. Studie 4 umfasste 311 Jugendliche im frühen bis mittleren Jugendalter mit Migrationshintergrund und unterschiedlichen kulturellen Hintergründen (Mage= 13,85) in Nordrhein-Westfalen. Ergebnisse und Schlussfolgerungen: Die Ergebnisse zeigen, dass privilegierte oder marginalisierte Positionen von Familien in Bezug auf ihren ethnisch, „rassistischen“ und religiösen Hintergrund in der Gesellschaft unterschiedliche Erfahrungen mit sich bringen. Somit sind sie ein wichtiger Bestimmungsfaktor für den Inhalt und Prozess der Sozialisation und die Entwicklung des rassifizierten Wissens von Jugendlichen. Bis vor kurzem konzentrierte sich die ERS-Forschung vor allem auf die Untersuchung der Frage, wie rassistisch markierte Familien ihre Kinder beim Widerstand gegen Rassismus unterstützen und wie nicht-rassistisch markierte Familien Informationen vermitteln, die Rassismus aufrechterhalten (Studie 1). ERS bei rassistisch markierten Jugendlichen in Deutschland fokussierte auf die Herkunftskultur, Diskriminierung und Widerstand gegen Rassismus. Jedoch zielten die an die Jugendlichen weitergegebenen Widerstandsstrategien meistens darauf ab, den Rassismus zu überleben (z.B. hart zu arbeiten), und sie ihn aufrechterhalten, anstatt sich vom Rassismus zu befreien, indem sie ihn bekämpfen (z. B. Selbstbehauptung, Studie 2). Wenn Familien und Schulen das herkunftskulturelle und interkulturelle Lernen fördern, können beide Kontexte getrennt voneinander eine stärkere herkunftskulturelle und deutsche Identität sowie mehr prosoziale Absichten gegenüber benachteiligten Gruppen (z. B. Geflüchtete) unter Jugendlichen fördern (Studien 3, 4). Die Gleichbehandlung im schulischen Kontext führte jedoch zu widersprüchlichen Ergebnissen: Die Gleichbehandlung stand entweder in keinem Zusammenhang mit der inklusiven Identität oder war positiv mit der deutschen und negativ mit der herkunftskulturellen Identität verbunden (Studien 3, 4). Darüber hinaus können Jugendliche, die zu Hause Botschaften erhalten, die angespannte und präferenzielle Intergruppenbeziehungen hervorheben, während sie Schulen besuchen, die Assimilation fördern, eine stärkere herkunftskulturelle Identität entwickeln (Studie 4). Zusammenfassend lässt sich sagen, dass ERS in verschiedenen sozialen Kontexten stattfand (d. h. Familie, Gemeindezentren, Schule, Nachbarschaft, Gleichaltrige). ERS, welche herkunftskulturelles und interkulturelles Lernen zumindest in einem sozialen Kontext (Familie oder Schule) unterstützt, könnte das rassifizierte Wissen der Jugendlichen fördern, das sich in prosozialen Absichten gegenüber benachteiligten Gruppen und einer stärkeren Zugehörigkeit zu mehreren Kulturen manifestiert. Es besteht jedoch ein Bedarf an ERS, die darauf abzielt, das Bewusstsein für Diskriminierung bei Jugendlichen über soziale Kontexte hinweg zu schärfen und Jugendlichen Widerstandsstrategien zur Befreiung von Rassismus zu vermitteln. KW - ethnic-racial socialization KW - racial knowledge KW - ecological approach KW - youth KW - quantitative and qualitative methods KW - rassifiziertes Wissen KW - ökologischer Ansatz KW - Jugend KW - quantitative und qualitative Methoden Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648559 ER - TY - THES A1 - Vardi, Shmuel T1 - Ada (Fishman) Maimon BT - An intellectual biography Y1 - 2023 ER - TY - THES A1 - Braun, Isabel Laura T1 - Die Medienkonzentrationskontrolle im digitalen Zeitalter T2 - Studien zum Medienrecht N2 - Dass vielfältige Inhalte und Meinungen über eine Vielzahl an Medien verbreitet werden, ist für unsere demokratische Gesellschaft heute wichtiger denn je. Gerade deshalb ist es unabdingbar, Meinungsmacht einzelner Medienunternehmen zu verhindern und dadurch zur Meinungsvielfalt beizutragen. Diese bedeutende Aufgabe kommt der Medienkonzentrationskontrolle des Medienstaatsvertrages zu. Doch haben die digitalisierungsbedingten Veränderungen in der Medienlandschaft zu einem inkonsistenten Prüfungsregime der Medienkonzentrationskontrolle geführt, da medienrechtlich aktuell nicht alle für die Meinungsbildung relevanten Medienakteure ausreichend erfasst werden. Die Arbeit untersucht die Thematik im Kontext der nationalen sowie internationalen medien- und wettbewerbsrechtlichen Rahmenbedingungen. Basierend auf den dabei gewonnenen Erkenntnissen wird ein den aktuellen Erfordernissen entsprechender normativer Vorschlag unterbreitet. N2 - In the interest of democracy, individual media companies must be prevented from gaining opinion power. To this end, media concentration is regulated in accordance with the Interstate Media Treaty. However, recent developments in the media sector have led to an inconsistent regulatory regime, which no longer adequately covers all media players relevant to the formation of public opinion. This publication analyzes the issue in the context of both a media law and competition law framework and presents a legislative proposal suitable for restoring regulatory effectiveness KW - Deutschland KW - Regulierung KW - Medienangebot KW - Meinungsbildung KW - Massenmedien KW - Medienstaatsvertrag (2020 April 14) KW - Unternehmenskonzentration KW - Fusionskontrolle Y1 - 2024 SN - 978-3-428-19073-7 SN - 978-3-428-59073-5 U6 - https://doi.org/10.3790/978-3-428-59073-5 VL - 4 PB - Duncker & Humblot CY - Berlin ER - TY - THES A1 - Martin, Johannes T1 - Synthesis of protein-polymer conjugates and block copolymers via sortase-mediated ligation N2 - In den vergangenen Jahrzehnten haben therapeutische Proteine in der pharmazeutischen Industrie mehr und mehr an Bedeutung gewonnen. Werden Proteine nichtmenschlichen Ursprungs verwendet, kann es jedoch zu einer Immunreaktion kommen, sodass das Protein sehr schnell aus dem Körper ausgeschieden oder abgebaut wird. Um die Zirkulationszeit im Blut signifikant zu verlängern, werden die Proteine mit synthetischen Polymeren modifiziert (Protein-Polymer-Konjugate). Die Proteine aller heute auf dem Markt erhältlichen Medikamente dieser Art tragen eine oder mehrere Polymerketten aus Poly(ethylenglycol) (PEG). Ein Nachteil der PEGylierung ist, dass viele Patienten bei regelmäßiger Einnahme dieser Medikamente Antikörper gegen PEG entwickeln, die den effizienzsteigernden Effekt der PEGylierung wieder aufheben. Ein weiterer Nachteil der PEGylierung ist die oftmals deutlich verringerte Aktivität der Konjugate im Vergleich zum nativen Protein. Der Grund dafür ist die Herstellungsmethode der Konjugate, bei der meist die primären Amine der Lysin-Seitenketten und der N-Terminus des Proteins genutzt werden. Da die meisten Proteine mehrere gut zugängliche Lysine aufweisen, werden oft unterschiedliche und teilweise mehrere Lysine mit PEG funktionalisiert, was zu einer Mischung an Regioisomeren führt. Je nach Position der PEG-Kette kann das aktive Zentrum abgeschirmt oder die 3D-Struktur des Proteins verändert werden, was zu einem teilweise drastischen Aktivitätsabfall führt. In dieser Arbeit wurde eine neuartige Methode zur Ligation von Makromolekülen untersucht. Die Verwendung eines Enzyms als Katalysator zur Verbindung zweier Makromoleküle ist bisher wenig untersucht und ineffizient. Als Enzym wurde Sortase A ausgewählt, eine gut untersuchte Ligase aus der Familie der Transpeptidasen, welche die Ligation zweier Peptide katalysieren kann. Ein Nachteil dieser Sortase-vermittelten Ligation ist, dass es sich um eine Gleichgewichtsreaktion handelt, wodurch hohe Ausbeuten schwierig zu erreichen sind. Im Rahmen dieser Dissertation wurden zwei zuvor entwickelte Methoden zur Verschiebung des Gleichgewichts ohne Einsatz eines großen Überschusses von einem Edukt für Makromoleküle überprüft. Zur Durchführung der Sortase-vermittelten Ligation werden zwei komplementäre Peptidsequenzen verwendet, die Erkennungssequenz und das Nukleophil. Um eine systematische Untersuchung durchführen zu können, wurden alle nötigen Bausteine (Protein-Erkennungssequenz zur Reaktion mit Nukleophil-Polymer und Polymer-Erkennungssequenz mit Nukleophil-Protein) hergestellt. Als Polymerisationstechnik wurde die radikalische Polymerisation mit reversibler Deaktivierung (im Detail, Atom Transfer Radical Polymerization, ATRP und Reversible Addition-Fragmentation Chain Transfer, RAFT polymerization) gewählt, um eine enge Molmassenverteilung zu erreichen. Die Herstellung der Bausteine begann mit der Synthese der Peptide via automatisierter Festphasen-Peptidsynthese, um eine einfache Änderung der Peptidsequenz zu gewährleisten und um eine Modifizierung der Polymerkette nach der Polymerisation zu umgehen. Um die benötigte unterschiedliche Funktionalität der zwei Peptidsequenzen (freier C-Terminus bei der Erkennungssequenz bzw. freier N-Terminus bei dem Nukleophil) zu erreichen, wurden verschiedene Linker zwischen Harz und Peptid verwendet. Danach wurde der Kettenüberträger (chain transfer agent, CTA) zur Kontrolle der Polymerisation mit dem auf dem Harz befindlichen Peptid gekoppelt. Die für die anschließende Polymerisation verwendeten Monomere basierten auf Acrylamiden und Acrylaten und wurden anhand ihrer Eignung als Alternativen zu PEG ausgewählt. Es wurde eine kürzlich entwickelte Technik basierend auf der RAFT-Polymerisation (xanthate-supported photo-iniferter RAFT, XPI-RAFT) verwendet um eine Reihe an Peptid-Polymeren mit unterschiedlichen Molekulargewichten und engen Molekulargewichtsverteilungen herzustellen. Nach Entfernung der Schutzgruppen der Peptid-Seitenketten wurden die Peptid-Polymere zunächst genutzt, um mittels Sortase-vermittelter Ligation zwei Polymerketten zu einem Blockcopolymer zu verbinden. Unter Verwendung von Ni2+-Ionen in Kombination mit einer Verlängerung der Erkennungssequenz um ein Histidin zur Unterdrückung der Rückreaktion konnte ein maximaler Umsatz von 70 % erreicht werden. Dabei zeigte sich ein oberes Limit von durchschnittlich 100 Wiederholungseinheiten; die Ligation von längeren Polymeren war nicht erfolgreich. Danach wurden ein Modellprotein und ein Nanobody mit vielversprechenden medizinischen Eigenschaften mit den für die enzymkatalysierte Ligation benötigten Peptidsequenzen für die Kopplung mit den zuvor hergestellten Peptid-Polymeren verwendet. Dabei konnte bei Verwendung des Modellproteins keine Bildung von Protein-Polymer-Konjugaten beobachtet werden. Der Nanobody konnte dagegen C-terminal mit einem Polymer funktionalisiert werden. Dabei wurde eine ähnliche Limitierung in der Polymer-Kettenlänge beobachtet wie zuvor. Die auf Ni-Ionen basierte Strategie zur Gleichgewichtsverschiebung hatte hier keinen ausschlaggebenden Effekt, während die Verwendung von einem Überschuss an Polymer zur vollständigen Umsetzung des Edukt-Nanobody führte. Die erhaltenen Daten aus diesem Projekt bilden eine gute Basis für weitere Forschung in dem vielversprechenden Feld der enzymkatalysierten Herstellung von Protein-Polymer-Konjugaten und Blockcopolymeren. Langfristig könnte diese Herangehensweise eine vielseitig einsetzbare Herstellungsmethode von ortsspezifischen therapeutischen Protein-Polymer Konjugaten darstellen, welche sowohl eine hohe Aktivität als auch eine lange Zirkulationszeit im Blut aufweisen. N2 - During the last decades, therapeutical proteins have risen to great significance in the pharmaceutical industry. As non-human proteins that are introduced into the human body cause a distinct immune system reaction that triggers their rapid clearance, most newly approved protein pharmaceuticals are shielded by modification with synthetic polymers to significantly improve their blood circulation time. All such clinically approved protein-polymer conjugates contain polyethylene glycol (PEG) and its conjugation is denoted as PEGylation. However, many patients develop anti-PEG antibodies which cause a rapid clearance of PEGylated molecules upon repeated administration. Therefore, the search for alternative polymers that can replace PEG in therapeutic applications has become important. In addition, although the blood circulation time is significantly prolonged, the therapeutic activity of some conjugates is decreased compared to the unmodified protein. The reason is that these conjugates are formed by the traditional conjugation method that addresses the protein's lysine side chains. As proteins have many solvent exposed lysines, this results in a somewhat uncontrolled attachment of polymer chains, leading to a mixture of regioisomers, with some of them eventually affecting the therapeutic performance. This thesis investigates a novel method for ligating macromolecules in a site-specific manner, using enzymatic catalysis. Sortase A is used as the enzyme: It is a well-studied transpeptidase which is able to catalyze the intermolecular ligation of two peptides. This process is commonly referred to as sortase-mediated ligation (SML). SML constitutes an equilibrium reaction, which limits product yield. Two previously reported methods to overcome this major limitation were tested with polymers without using an excessive amount of one reactant. Specific C- or N-terminal peptide sequences (recognition sequence and nucleophile) as part of the protein are required for SML. The complementary peptide was located at the polymer chain end. Grafting-to was used to avoid damaging the protein during polymerization. To be able to investigate all possible combinations (protein-recognition sequence and nucleophile-protein as well as polymer-recognition sequence and nucleophile-polymer) all necessary building blocks were synthesized. Polymerization via reversible deactivation radical polymerization (RDRP) was used to achieve a narrow molecular weight distribution of the polymers, which is required for therapeutic use. The synthesis of the polymeric building blocks was started by synthesizing the peptide via automated solid-phase peptide synthesis (SPPS) to avoid post-polymerization attachment and to enable easy adaptation of changes in the peptide sequence. To account for the different functionalities (free N- or C-terminus) required for SML, different linker molecules between resin and peptide were used. To facilitate purification, the chain transfer agent (CTA) for reversible addition-fragmentation chain-transfer (RAFT) polymerization was coupled to the resin-immobilized recognition sequence peptide. The acrylamide and acrylate-based monomers used in this thesis were chosen for their potential to replace PEG. Following that, surface-initiated (SI) ATRP and RAFT polymerization were attempted, but failed. As a result, the newly developed method of xanthate-supported photo-iniferter (XPI) RAFT polymerization in solution was used successfully to obtain a library of various peptide-polymer conjugates with different chain lengths and narrow molar mass distributions. After peptide side chain deprotection, these constructs were used first to ligate two polymers via SML, which was successful but revealed a limit in polymer chain length (max. 100 repeat units). When utilizing equimolar amounts of reactants, the use of Ni2+ ions in combination with a histidine after the recognition sequence to remove the cleaved peptide from the equilibrium maximized product formation with conversions of up to 70 %. Finally, a model protein and a nanobody with promising properties for therapeutical use were biotechnologically modified to contain the peptide sequences required for SML. Using the model protein for C- or N-terminal SML with various polymers did not result in protein-polymer conjugates. The reason is most likely the lack of accessibility of the protein termini to the enzyme. Using the nanobody for C-terminal SML, on the other hand, was successful. However, a similar polymer chain length limit was observed as in polymer-polymer SML. Furthermore, in case of the synthesis of protein-polymer conjugates, it was more effective to shift the SML equilibrium by using an excess of polymer than by employing the Ni2+ ion strategy. Overall, the experimental data from this work provides a good foundation for future research in this promising field; however, more research is required to fully understand the potential and limitations of using SML for protein-polymer synthesis. In future, the method explored in this dissertation could prove to be a very versatile pathway to obtain therapeutic protein-polymer conjugates that exhibit high activities and long blood circulation times. KW - biohybrid molecules KW - sortaseA KW - polymerization KW - RAFT KW - ATRP KW - peptide synthesis KW - enzymatic conjugation KW - sortagging Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645669 ER - TY - THES A1 - Adam, Jan P. T1 - Top-Management-Support und die Digitalisierung von Verwaltungsleistungen T1 - Top management support and the digitalization of administrative services BT - Analyse zu den Effekten begrenzter Rationalität auf die Umsetzung von OZG-Leistungen und die Rolle des Verwaltungsmanagements BT - an analysis of the effects of bounded rationality on the implementation of OZG services and the role of administrative management N2 - Digitalization is a key component of current administrative reforms. Despite its high importance and long-standing efforts, the balance of administrative digitalization in Germany remains ambivalent. This study investigates the influencing factors on the implementation of digitalization projects in public administration, with a special focus on the role of top management support. This study focuses on three successful digitalization projects from the German Online Access Act (OZG) and analyzes, using problem-centered expert interviews, the influencing factors on the implementation of OZG projects and the role of management in this process. The analysis is theoretically grounded and based on the approach of bounded rationality and the economic theory of bureaucracy. The results suggest that the identified influencing factors affect the reusability and maturity level of administrative services differently and can be interpreted as consequences of bounded rationality in the human problem-solving process. Managers influence the bounded rationality of operational actors by implementing appropriate strategies in the support of their implementation tasks. This includes providing resources, contributing their expertise, making information accessible, changing decision-making pathways, and contributing to conflict resolution. The study provides valuable insights into actual management practices and derives recommendations for the implementation of public digitalization projects and the management of public administrations. This study makes an important contribution to understanding the influence of management in digitalization. It also underscores the need for further research in this area to better understand the practices and challenges of administrative digitalization and to effectively address them. N2 - Die Digitalisierung ist ein wesentlicher Bestandteil aktueller Verwaltungsreformen. Trotz der hohen Bedeutung und langjähriger Bemühungen bleibt die Bilanz der Verwaltungsdigitalisierung in Deutschland ambivalent. Diese Studie konzentriert sich auf drei erfolgreiche Digitalisierungsvorhaben aus dem Onlinezugangsgesetz (OZG) und analysiert mittels problemzentrierter Expertenbefragung Einflussfaktoren auf die Umsetzung von OZG-Vorhaben und den Einfluss des Managements in diesem Prozess. Die Analyse erfolgt theoriegeleitet basierend auf dem Ansatz der begrenzten Rationalität und der ökonomischen Theorie der Bürokratie. Die Ergebnisse zeigen, dass anzunehmen ist, dass die identifizierten Einflussfaktoren unterschiedlich auf Nachnutzbarkeit und Reifegrad von Verwaltungsleistungen wirken und als Folgen begrenzter Rationalität im menschlichen Problemlösungsprozess interpretiert werden können. Managerinnen unterstützen die operativen Akteure bei der Umsetzung, indem sie deren begrenzte Rationalität mit geeigneten Strategien adressieren. Dazu können sie Ressourcen bereitstellen, mit ihrer Expertise unterstützen, Informationen zugänglich machen, Entscheidungswege verändern sowie zur Konfliktlösung beitragen. Die Studie bietet wertvolle Einblicke in die tatsächliche Managementpraxis und leitet daraus Empfehlungen für die Umsetzung öffentlicher Digitalisierungsvorhaben sowie für die Steuerung öffentlicher Verwaltungen ab. Diese Studie liefert einen wichtigen Beitrag zum Verständnis des Einflusses des Managements in der Verwaltungsdigitalisierung. Die Studie unterstreicht außerdem die Notwendigkeit weiterer Forschung in diesem Bereich, um die Praktiken und Herausforderungen der Verwaltungsdigitalisierung besser zu verstehen und effektiv zu adressieren. KW - Verwaltungsdigitalisierung KW - Top-Management-Support KW - öffentliche Verwaltung KW - E-Government KW - begrenzte Rationalität KW - Digitalisierung KW - OZG-Umsetzung KW - Verwaltungsreformen KW - administrative digitalization KW - top management support KW - public administration KW - eGovernment KW - digitalization projects KW - bounded rationality KW - OZG implementation KW - management practices Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647132 ER - TY - THES A1 - Franke, Vanessa T1 - Die Entwicklung des Verantwortungseigentums anhand der Carl-Zeiss-Stiftung unter Ernst Abbe T2 - Europäische Hochschulschriften Recht N2 - Die Dissertation untersucht die Entwicklung des Verantwortungseigentums insbesondere anhand der Carl-Zeiss-Stiftung unter Ernst Abbe. Der Begriff des Verantwortungseigentums wird seit einigen Jahren in der rechtspolitischen Debatte zu alternativen Unternehmens- und Eigentumsformen diskutiert. Dabei wird die Einführung einer eigenen Gesellschaftsform gefordert. Die Dissertation widmet sich diesen Forderungen und den Entwicklungen des Verantwortungseigentums anhand der Carl-Zeiss-Stiftung und ihrer Stiftungsbetriebe Zeiss und Schott. Dort wurde bereits Ende des 19. Jahrhunderts eine Form dessen, was Jurist:innen heute unter Verantwortungseigentum verstehen, kautelar-juristisch eingeführt und geprägt. Ziel und Zweck der Arbeit war es, die Überschneidungen, Parallelen und Unterschiede der Rechtssubjekte zu untersuchen und der Frage auf den Grund zu gehen, ob das Verantwortungseigentum einer längeren Rechtstradition folgt oder eine rein zeitgenössische Idee ist. Y1 - 2024 SN - 978-3-631-92255-2 SN - 978-3-631-92268-2 SN - 978-3-631-92269-9 U6 - https://doi.org/10.3726/b22044 SN - 0531-7312 VL - 6798 PB - Peter Lang CY - Berlin ER - TY - THES A1 - Pregla, Andreas T1 - Word order variability in OV languages T1 - Wortstellungsvariabilität in verbfinalen Sprachen BT - a study on scrambling, verb movement, and postverbal elements with a focus on Uralic languages BT - eine Untersuchung von Scrambling, Verbbewegung und postverbalen Elementen mit besonderem Augenmerk auf die uralischen Sprachen N2 - This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects. The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP. Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation. Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future. N2 - Diese Dissertation behandelt die Wortstellungsvariabilität verbfinaler Sprachen. Verbfinale Sprachen haben den Ruf, ein hohes Maß an Wortstellungsvariabilität aufzuweisen. Dieser Ruf beruht jedoch lediglich auf anekdotischen Befunden, da es einer systematischen Untersuchung eines solchen Zusammenhangs ermangelt. Die vorliegende Dissertation stellt eine solche systematische Untersuchung dar. Dafür werden neu erhobene Daten zu mehreren verbfinalen Sprachen präsentiert. Der Schwerpunkt liegt dabei auf vier uralischen Sprachen: Estnisch, Udmurtisch, Wiesenmari und Südsamisch. Der Ruf der Wortstellungsvariabilität erweist sich teils als wahr, da viele nicht miteinander verwandte, verbfinale Sprachen dieselbe Art Wortstellungsvariabilität teilen, das sogenannte A-Scrambling. A-Scrambling zeichnet sich gegenüber anderen Arten der Wortstellungsvariabilität dadurch aus, dass vorangestellten Elementen keine spezielle informationsstrukturelle Rolle wie Topic oder kontrastiver Fokus zukommt. A-Scrambling geht mit einem rechtsbefindlichen, unmittelbar präverbalen Fokus einher. Variationen des Musters aus A-Scrambling und präverbalem Fokus finden sich im Uigurischen, Standard-Dargwa, Ostarmenischen und in drei der uralischen Sprachen, nämlich Estnisch, Udmurtisch und Wiesenmari. Insofern bestätigt sich der Eindruck einer homogenen Wortstellungsvariabilität in verbfinalen Sprachen. Die vierte untersuchte uralische Sprache, Südsamisch, widerspricht diesem Eindruck jedoch. Südsamisch weist eine vergleichsweise feste Wortstellung auf trägt nicht die Kennzeichen von A-Scrambling. Darüberhinaus gibt es noch weitere, vergleichsweise starre, scramblinglose verbfinale Sprachen: Niederländisch, Afrikaans, Amharisch und Koreanisch. Im Gegensatz zu Sprachen mit A-Scrambling weisen scramblinglose Sprachen obligatorische Subjektbewegung (EPP) auf. Das EPP führt neben anderen typischen EPP-Effekten zu einer starren Wortstellung. Das EPP ist ein zentrales Merkmal der Satzstruktur im Südsamischen. Das Südsamische weist eine bislang nicht attestierte Alternation zwischen SOV- und SAuxOV-Stellung auf. Diese Alternation kann durch das Zusammenspiel von EPP und der obligatorischen Bewegung von Hilfsverben, nicht jedoch von lexikalischen Verben, erfasst werden. Andere Sprachen mit SAuxOV-Stellung weisen entweder keine systematische Alternation auf, weil das Hilfsverb obligatorisch vorhanden ist (Makro-Sudanische SAuxOVX-Sprachen), oder sie weisen eine Alternation zwischen SVO und SAuxOV auf (Kru-Sprachen; V2 mit zugrundeliegender Verbfinalität als Zweifelsfall). In den SVO–SAuxOV-Sprachen bewegen sich sowohl Hilfsverben als auch lexikalische Verben. Somit zeigt das Südsamische, dass eine sonst nur für VO-Sprachen bekannte parametrische Unterscheidung auch für OV-Sprachen gilt: der weithin bekannte Unterschied zwischen VO-Sprachen wie Englisch und Französisch, ob Verbbewegung auf Hilfsverben beschränkt ist. SAuxOV-Sprachen bilden insgesamt eine Ausnahme unter den OV-Sprachen, aber sie sind durch das Vorhandensein des EPP vereint. Wortstellungsvariabilität beschränkt sich in verbfinalen Sprachen nicht auf die präverbale Domäne. Die meisten verbfinalen Sprachen weisen postverbale Elemente (PVE) auf. PVE stellen den Status der Verbfinalität infrage. Strikt verbfinale Sprachen ohne jegliche satzinterne PVE sind jedoch selten. Diese Dissertation stellt zum ersten Mal eine strukturelle und deskriptive PVE-Typologie vor. Verbfinale Sprachen variieren in den Kategorien, die sie als PVE zulassen. Das Zulassen von nicht-oblike PVE ist eine entscheidende Schwelle: Wenn nicht-oblike PVE erlaubt sind, können PVE für informationsstrukturelle Effekte verwendet werden. Viele areal und genetisch nicht verwandte Sprachen erlauben nur gegebene PVE, unterscheiden sich jedoch darin, ob die PVE kontrastiv kontrastiv sein können. In diesen Sprachen steht die Verbfinalität nicht zur Debatte, da verbmediale Ordnungen nicht neutral sind. Im Gegensatz dazu erlauben die uralischen Sprachen Estnisch und Udmurtisch jede Art von PVE, einschließlich Informationsfoki. Verbmediale Stellungen können dort also in denselben Kontexten wie verbfinale Stellungen verwendet werden, ohne dass es zu semantischen und pragmatischen Unterschieden kommt. Hier kann also die Rede von tatsächlicher freier Variation in der Verbstellung sein. Die zugrunde liegende Verbfinalität des Estnischen und Udmurtischen kann nur mithilfe einer Reihe syntaktischer Tests abgeleitet werden, die auf optionale Verbbewegung in beiden Sprachen hinweisen. Insgesamt ist es nicht möglich, PVE mit einer einheitlichen Analyse zu erfassen: Merger nach rechts, linksgerichtete Verbbewegung und rechtsgerichtete Phrasenbewegung sind erforderlich, um die inter- und intralinguistische Variation zu erfassen. Zu wissen, dass eine Sprache verbfinal ist, erlaubt keine unfehlbaren Schlüsse über die Wortstellungsvariabilität in dieser Sprache. Es gibt Muster der Homogenität, wie die durch unmittelbar präverbalen Fokus und die Gegebenheit postverbaler Elemente getriebene Wortstellungsvariabilität. Diese Muster ergeben sich aber nicht allein aus der Verbfinalität. Die präverbale Wortstellungsvariabilität wird durch die abstraktere Eigenschaft der obligatorischen Subjektbewegung (EPP) bestimmt. Was die Möglichkeiten postverbaler Wortstellungsvariabilität bestimmt muss künftig ermittelt werden. KW - Uralic languages KW - syntax KW - word order KW - information structure KW - verb-final languages KW - uralische Sprachen KW - Syntax KW - Informationsstruktur KW - Wortstellung KW - verbfinale Sprachen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643636 ER - TY - THES A1 - Haskamp, Thomas T1 - Products design organizations T1 - Produkte designen Organisationen BT - how industrial-aged companies accomplish digital product innovation BT - wie etablierte Industrieunternehmen digitale Produktinnovationen erreichen N2 - The automotive industry is a prime example of digital technologies reshaping mobility. Connected, autonomous, shared, and electric (CASE) trends lead to new emerging players that threaten existing industrial-aged companies. To respond, incumbents need to bridge the gap between contrasting product architecture and organizational principles in the physical and digital realms. Over-the-air (OTA) technology, that enables seamless software updates and on-demand feature additions for customers, is an example of CASE-driven digital product innovation. Through an extensive longitudinal case study of an OTA initiative by an industrial- aged automaker, this dissertation explores how incumbents accomplish digital product innovation. Building on modularity, liminality, and the mirroring hypothesis, it presents a process model that explains the triggers, mechanisms, and outcomes of this process. In contrast to the literature, the findings emphasize the primacy of addressing product architecture challenges over organizational ones and highlight the managerial implications for success. N2 - Die Entwicklung neuer digitaler Produktinnovation erfordert in etablierten Industrieunternehmen die Integration von digitalen und physischen Elementen. Dies ist besonders in der Automobilindustrie sichtbar, wo der Trend zu vernetzter, autonomer, gemeinsam genutzter und elektrischer Mobilität zu einem neuen Wettbewerb führt, welcher etablierte Marktteilnehmer bedroht. Diese müssen lernen wie die Integration von gegensätzlichen Produktarchitekturen und Organisationsprinzipien aus der digitalen und physischen Produktentwicklung funktioniert. Die vorliegende Dissertation widmet sich diesem Problem. Basierend auf einer Fallstudie einer digitalen Produktinnovationsinitiative eines Premiummobilitätsanbieters rund um die Integration von Over-the-Air-Technologie für Software-Updates liefert sie wichtige Erkenntnisse. Erstens, etablierte Organisationen müssen Ihre Produktarchitektur befähigen, um verschiedene Produktarchitekturprinzipien in Einklang zu bringen. Zweitens, verschiedene Produktentwicklungsprozesse pro Produktebene müssen aufeinander abgestimmt werden. Drittens, die Organisationsstruktur muss erweitert werden, um die verschiedenen Produktebenen abzubilden. Darüber hinaus müssen auch Ressourcenallokationsprozesse auf die Entwicklungsprozesse abgestimmt werden. Basierend auf diesen Erkenntnissen und mit der bestehenden Fachliteratur wird in der Dissertation ein Prozessmodell entwickelt, welches erklären soll, wie etablierte Industrieunternehmen digitale Produktinnovation erreichen. Kernauslöser sind externer Marktdruck sowie existierende Architekturprinzipien. Wechselseitige Mechanismen wie die Befähigung der Produktarchitektur, die Erweiterung der Organisationstruktur, die Anpassung der Produktentwicklungsprozesse und die Anpassung der Ressourcenallokationsprozesse erklären den Prozess welcher in einer neuen Produktarchitektur sowie einer erweiterten Organisationsstruktur mündet. Der Forschungsbeitrag der Arbeit liegt im Bereich der digitalen Produktinnovation. Sie verlagert den Forschungsfokus auf Fragen der Produktarchitektur und verbindet diese durch Konzepte der Modularität mit organisatorischen Fragestellungen. Für die Praxis ergeben sich vier Hebel die Entscheidungsträger/innen nutzen können, um die Fähigkeiten zur digitalen Produktinnovation zu stärken. KW - digital product innovation KW - digital transformation KW - digital innovation KW - digitale Produktinnovation KW - digitale Transformation KW - digitale Innovation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646954 ER - TY - THES A1 - Fritz, Sylvia T1 - Sozialisierung im Gewährleistungsstaat BT - ein Beitrag zu Auslegung und Anwendung von Artikel 15 des Grundgesetzes T2 - Studien zum öffentlichen Recht N2 - Artikel 15 Grundgesetz als sozialistische Utopie? Keineswegs. Die Sozialisierungsnorm gibt dem Gesetzgeber ein Instrument an die Hand, um staatliche Gewährleistungsverantwortung mithilfe gemeinwirtschaftlicher Organisationsformen wahrzunehmen. Sozialisierungsmaßnahmen greifen in das Eigentumsgrundrecht ein. Sie treffen zudem auf grundrechtliche Funktionsgarantien einer marktwirtschaftlichen Ordnung und die unionsrechtliche Systemgarantie zugunsten des freien Wettbewerbs. Die Arbeit untersucht daher die verfassungsrechtlichen Anforderungen an die Sozialisierungsgesetzgebung auf Bundes- und Landesebene einschließlich der gerichtlichen Kontrolle. Ferner zeigt die Arbeit auf, wie sich Sozialisierungsgesetze unionsrechtskonform verhalten können. Y1 - 2024 VL - 35 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Wojcik, Laurie Anne Myriam T1 - Beyond a single diversity facet: implications for the links between biodiversity, environmental changes and ecosystem functioning T1 - Mehr als eine einzelne Facette der Biodiversität: Auswirkungen auf die Verbindungen zwischen Biodiversität, Umweltveränderungen und der Funktionalität von Ökosystemen N2 - Human activities modify nature worldwide via changes in the environment, biodiversity and the functioning of ecosystems, which in turn disrupt ecosystem services and feed back negatively on humans. A pressing challenge is thus to limit our impact on nature, and this requires detailed understanding of the interconnections between the environment, biodiversity and ecosystem functioning. These three components of ecosystems each include multiple dimensions, which interact with each other in different ways, but we lack a comprehensive picture of their interconnections and underlying mechanisms. Notably, diversity is often viewed as a single facet, namely species diversity, while many more facets exist at different levels of biological organisation (e.g. genetic, phenotypic, functional, multitrophic diversity), and multiple diversity facets together constitute the raw material for adaptation to environmental changes and shape ecosystem functioning. Consequently, investigating the multidimensionality of ecosystems, and in particular the links between multifaceted diversity, environmental changes and ecosystem functions, is crucial for ecological research, management and conservation. This thesis aims to explore several aspects of this question theoretically. I investigate three broad topics in this thesis. First, I focus on how food webs with varying levels of functional diversity across three trophic levels buffer environmental changes, such as a sudden addition of nutrients or long-term changes (e.g. warming or eutrophication). I observed that functional diversity generally enhanced ecological stability (i.e. the buffering capacity of the food web) by increasing trophic coupling. More precisely, two aspects of ecological stability (resistance and resilience) increased even though a third aspect (the inverse of the time required for the system to reach its post-perturbation state) decreased with increasing functional diversity. Second, I explore how several diversity facets served as a raw material for different sources of adaptation and how these sources affected multiple ecosystem functions across two trophic levels. Considering several sources of adaptation enabled the interplay between ecological and evolutionary processes, which affected trophic coupling and thereby ecosystem functioning. Third, I reflect further on the multifaceted nature of diversity by developing an index K able to quantify the facet of functional diversity, which is itself multifaceted. K can provide a comprehensive picture of functional diversity and is a rather good predictor of ecosystem functioning. Finally I synthesise the interdependent mechanisms (complementarity and selection effects, trophic coupling and adaptation) underlying the relationships between multifaceted diversity, ecosystem functioning and the environment, and discuss the generalisation of my findings across ecosystems and further perspectives towards elaborating an operational biodiversity-ecosystem functioning framework for research and conservation. N2 - Menschliche Aktivität verändert die Natur weltweit durch Einflussnahme auf die Umwelt, Biodiversität und Funktionsweise von Ökosystemen, die wiederum Ökosystemdienstleistungen stören und sich negativ auf den Menschen auswirken. Eine dringende Herausforderung besteht daher darin, unsere Wirkung auf die Natur zu begrenzen, was ein tiefgreifendes Verständnis der Zusammenhänge zwischen Umwelt, Biodiversität und dem Funktionalität von Ökosystemen voraussetzt. Diese drei Komponenten von Ökosystemen umfassen jedoch jeweils mehrere Dimensionen, die auf unterschiedliche Weise interagieren, und bisher haben wir kein umfassendes Bild von ihren Zusammenhängen und den zugrundeliegenden Mechanismen. Vor allem Diversität wird oft als eine einzige Facette betrachtet, nämlich als Artendiversität, während es auf verschiedenen biologischen Organisationsebenen viele weitere Facetten gibt, z. B. genetische, phänotypische, funktionelle, multitrophische Diversität, die zusammen mehrere Quellen für Rohmaterial zur die Anpassung an Umweltveränderungen bilden und die Funktionsweise von Ökosystemen beeinflussen. Folglich ist die Untersuchung der Multidimensionalität von Ökosystemen, insbesondere der Zusammenhänge zwischen multifacettierter Diversität, Umweltveränderungen und Ökosystemfunktionen, von entscheidender Bedeutung für Forschung, Management und Naturschutz. In dieser Arbeit sollen mehrere Aspekte dieser Frage theoretisch untersucht werden. In dieser Arbeit untersuche ich drei große Themenbereiche. Erstens konzentriere ich mich auf die Frage, wie Nahrungsnetze mit unterschiedlichem Grad funktioneller Diversität auf drei trophischen Ebenen Umweltveränderungen abpuffern, wie etwa eine plötzliche Zugabe von Nährstoffen oder langfristige Veränderungen (z. B. Erwärmung oder Eutrophierung). Hier habe ich festgestellt, dass die funktionelle Diversität die ökologische Stabilität (d. h. die Pufferkapazität des Nahrungsnetzes) durch eine stärkere trophische Kopplung allgemein erhöht. Im Speziellen nahmen zwei Aspekte der ökologischen Stabilität (Resistenz und Resilienz) zu, obwohl ein dritter Aspekt, der Kehrwert der Zeit, die das System benötigt, um den Post-Störungszustand zu erreichen, mit zunehmender funktioneller Diversität abnahm. Zweitens untersuche ich, wie mehrere Facetten der Diversität als Basis für mehrere Anpassungsprozesse aus verschiedenen Quellen dienten und wie diese Quellen mehrere Ökosystemfunktionen auf zwei trophischen Ebenen beeinflussten. Die Berücksichtigung mehrerer Anpassungsquellen ermöglichte das Zusammenspiel zwischen ökologischen und evolutionären Prozessen, die sich auf die trophische Kopplung und damit auf die Funktionalität des Ökosystems auswirkten. Drittens reflektiere ich weiter über die Facetten der Diversität, indem ich einen Index K entwickle, der die Facette der funktionalen Diversität quantifizieren kann, welche wiederum selbst vielschichtig ist. K kann ein umfassendes Bild der funktionellen Diversität vermitteln und ist ein recht guter Prädiktor für das Funktionieren von Ökosystemen. Schließlich fasse ich die voneinander abhängigen Mechanismen (Komplementarität und Selektionseffekte, trophische Kopplung und Anpassung) zusammen, die den Beziehungen zwischen multi-facettierter Diversität, dem Funktionieren von Ökosystemen und der Umwelt zugrunde liegen, und erörtere die Möglichkeiten zur Verallgemeinerung meiner Ergebnisse über Ökosysteme hinweg sowie Perspektiven für die Ausarbeitung eines operativen Rahmens für der Biodiversität-Ökosystem- Funktionalität für Forscher und Anwender. KW - multifaceted diversity KW - multi-facettierter Diversität KW - perturbation KW - Störung KW - trait-based approaches KW - merkmalsbasierte Ansätze KW - food web models KW - Modelle der Nahrungsnetze KW - ecological stability KW - ökologische Stabilität KW - trait adaptation KW - Anpassung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646925 ER - TY - THES A1 - Lagodzinski, Julius Albert Gregor T1 - Counting homomorphisms over fields of prime order T1 - Zählen von Homomorphismen über Körper mit Primzahlordnung N2 - Homomorphisms are a fundamental concept in mathematics expressing the similarity of structures. They provide a framework that captures many of the central problems of computer science with close ties to various other fields of science. Thus, many studies over the last four decades have been devoted to the algorithmic complexity of homomorphism problems. Despite their generality, it has been found that non-uniform homomorphism problems, where the target structure is fixed, frequently feature complexity dichotomies. Exploring the limits of these dichotomies represents the common goal of this line of research. We investigate the problem of counting homomorphisms to a fixed structure over a finite field of prime order and its algorithmic complexity. Our emphasis is on graph homomorphisms and the resulting problem #_{p}Hom[H] for a graph H and a prime p. The main research question is how counting over a finite field of prime order affects the complexity. In the first part of this thesis, we tackle the research question in its generality and develop a framework for studying the complexity of counting problems based on category theory. In the absence of problem-specific details, results in the language of category theory provide a clear picture of the properties needed and highlight common ground between different branches of science. The proposed problem #Mor^{C}[B] of counting the number of morphisms to a fixed object B of C is abstract in nature and encompasses important problems like constraint satisfaction problems, which serve as a leading example for all our results. We find explanations and generalizations for a plethora of results in counting complexity. Our main technical result is that specific matrices of morphism counts are non-singular. The strength of this result lies in its algebraic nature. First, our proofs rely on carefully constructed systems of linear equations, which we know to be uniquely solvable. Second, by exchanging the field that the matrix is defined by to a finite field of order p, we obtain analogous results for modular counting. For the latter, cancellations are implied by automorphisms of order p, but intriguingly we find that these present the only obstacle to translating our results from exact counting to modular counting. If we restrict our attention to reduced objects without automorphisms of order p, we obtain results analogue to those for exact counting. This is underscored by a confluent reduction that allows this restriction by constructing a reduced object for any given object. We emphasize the strength of the categorial perspective by applying the duality principle, which yields immediate consequences for the dual problem of counting the number of morphisms from a fixed object. In the second part of this thesis, we focus on graphs and the problem #_{p}Hom[H]. We conjecture that automorphisms of order p capture all possible cancellations and that, for a reduced graph H, the problem #_{p}Hom[H] features the complexity dichotomy analogue to the one given for exact counting by Dyer and Greenhill. This serves as a generalization of the conjecture by Faben and Jerrum for the modulus 2. The criterion for tractability is that H is a collection of complete bipartite and reflexive complete graphs. From the findings of part one, we show that the conjectured dichotomy implies dichotomies for all quantum homomorphism problems, in particular counting vertex surjective homomorphisms and compactions modulo p. Since the tractable cases in the dichotomy are solved by trivial computations, the study of the intractable cases remains. As an initial problem in a series of reductions capable of implying hardness, we employ the problem of counting weighted independent sets in a bipartite graph modulo prime p. A dichotomy for this problem is shown, stating that the trivial cases occurring when a weight is congruent modulo p to 0 are the only tractable cases. We reduce the possible structure of H to the bipartite case by a reduction to the restricted homomorphism problem #_{p}Hom^{bip}[H] of counting modulo p the number of homomorphisms between bipartite graphs that maintain a given order of bipartition. This reduction does not have an impact on the accessibility of the technical results, thanks to the generality of the findings of part one. In order to prove the conjecture, it suffices to show that for a connected bipartite graph that is not complete, #_{p}Hom^{bip}[H] is #_{p}P-hard. Through a rigorous structural study of bipartite graphs, we establish this result for the rich class of bipartite graphs that are (K_{3,3}\{e}, domino)-free. This overcomes in particular the substantial hurdle imposed by squares, which leads us to explore the global structure of H and prove the existence of explicit structures that imply hardness. N2 - Homomorphismen sind ein grundlegendes Konzept der Mathematik, das die Ähnlichkeit von Strukturen ausdrückt. Sie bieten einen Rahmen, der viele der zentralen Probleme der Informatik umfasst und enge Verbindungen zu verschiedenen Wissenschaftsbereichen aufweist. Aus diesem Grund haben sich in den letzten vier Jahrzehnten viele Studien mit der algorithmischen Komplexität von Homomorphismusproblemen beschäftigt. Trotz ihrer Allgemeingültigkeit wurden Komplexitätsdichotomien häufig für nicht-uniforme Homomorphismusprobleme nachgewiesen, bei denen die Zielstruktur fixiert ist. Die Grenzen dieser Dichotomien zu erforschen, ist das gemeinsame Ziel dieses Forschungskalküls. Wir untersuchen das Problem und seine algorithmische Komplexität, Homomorphismen zu einer festen Struktur über einem endlichen Körper mit Primzahlordnung zu zählen. Wir konzentrieren uns auf Graphenhomomorphismen und das daraus resultierende Problem #_{p}Hom[H] für einen Graphen H und eine Primzahl p. Die Hauptforschungsfrage ist, wie das Zählen über einem endlichen Körper mit Primzahlordnung die Komplexität beeinflusst. Im ersten Teil wird die Forschungsfrage in ihrer Allgemeinheit behandelt und ein Rahmen für die Untersuchung der Komplexität von Zählproblemen auf der Grundlage der Kategorientheorie entwickelt. Losgelöst von problemspezifischen Details liefern die Ergebnisse in der Sprache der Kategorientheorie ein klares Bild der benötigten Eigenschaften und zeigen Gemeinsamkeiten zwischen verschiedenen Wissenschaftsgebieten auf. Das vorgeschlagene Problem #Mor^{C}[B] des Zählens der Anzahl von Morphismen zu einem festen Objekt B von C ist abstrakter Natur und umfasst wichtige Probleme wie Constraint Satisfaction Problems, die als leitendes Beispiel für alle unsere Ergebnisse dienen. Wir finden Erklärungen und Verallgemeinerungen für eine Vielzahl von Ergebnissen in der Komplexitätstheorie von Zählproblemen. Unser wichtigstes technisches Ergebnis ist, dass bestimmte Matrizen von Morphismenzahlen nicht singulär sind. Die Stärke dieses Ergebnisses liegt in seiner algebraischen Natur. Erstens basieren unsere Beweise auf sorgfältig konstruierten linearen Gleichungssystemen, von denen wir wissen, dass sie eindeutig lösbar sind. Zweitens, indem wir den Körper, über dem die Matrix definiert ist, durch einen endlichen Körper der Ordnung p ersetzen, erhalten wir analoge Ergebnisse für das modulare Zählen. Für letztere sind Annullierungen durch Automorphismen der Ordnung p impliziert, aber faszinierenderweise stellen diese das einzige Hindernis für die Übertragung unserer Ergebnisse von der exakten auf die modulare Zählung dar. Wenn wir unsere Aufmerksamkeit auf reduzierte Objekte ohne Automorphismen der Ordnung p beschränken, erhalten wir Ergebnisse, die zu denen des exakten Zählens analog sind. Dies wird durch eine konfluente Reduktion unterstrichen, die für jedes beliebige Objekt ein reduziertes Objekt konstruiert. Wir heben die Stärke der kategorialen Perspektive durch die Anwendung des Dualitätsprinzips hervor, das direkte Konsequenzen für das duale Problem des Zählens der Anzahl der Morphismen von einem fixen Objekts aus liefert. Im zweiten Teil konzentrieren wir uns auf Graphen und das Problem #_{p}Hom[H]. Wir stellen die Vermutung auf, dass Automorphismen der Ordnung p alle möglichen Annullierungen erklären und dass das Problem #_{p}Hom[H] für einen reduzierten Graphen H eine Komplexitätsdichotomie analog zu der aufweist, die von Dyer und Greenhill für das exakte Zählen bewiesen wurde. Dies stellt eine Verallgemeinerung der Vermutung von Faben und Jerrum für den Modulus 2 dar. Das Kriterium für die effiziente Lösbarkeit ist, dass H lediglich aus vollständigen bipartiten und reflexiven vollständigen Graphen besteht. Basierend auf den Ergebnisse des ersten Teils zeigen wir, dass die Vermutung Dichotomien für alle Quantenhomomorphismenprobleme impliziert, insbesondere für das Zählen modulo p von Homomorphismen surjektiv auf Knoten und von Verdichtungen. Da die effizient lösbaren Fälle in der Dichotomie durch triviale Berechnungen gelöst werden, bleibt es, die unlösbaren Fälle zu untersuchen. Als erstes Problem in einer Reihe von Reduktionen, deren Ziel es ist, Härte zu implizieren, verwenden wir das Problem des Zählens gewichteter unabhängiger Mengen in einem bipartiten Graphen modulo p. Für dieses Problem beweisen wir eine Dichotomie, die besagt, dass nur die trivialen Fälle effizient lösbar sind. Diese treten auf, wenn ein Gewicht kongruent modulo p zu 0 ist. Durch eine Reduktion auf das eingeschränkte Homomorphismusproblem #_{p}Hom^{bip}[H] reduzieren wir die mögliche Struktur von H auf den bipartiten Fall. Hierbei handelt es sich um das Problem des Zählens modulo p der Homomorphismen zwischen bipartiten Graphen, die eine gegebene Ordnung der Bipartition erhalten. Dank der Allgemeingültigkeit der Ergebnisse des ersten Teils hat diese Reduktion keinen Einfluss auf die Verfügbarkeit der technischen Ergebnisse. Für einen Beweis der Vermutung genügt es zu zeigen, dass #_{p}Hom^{bip}[H] für einen zusammenhängenden und nicht vollständigen bipartiten Graphen #_{p}P-schwer ist. Durch eine rigorose Untersuchung der Struktur von bipartiten Graphen beweisen wir dieses Ergebnis für die umfangreiche Klasse von bipartiten Graphen, die (K_{3,3}\{e}, domino)-frei sind. Dies überwindet insbesondere die substantielle Hürde, die durch Quadrate gegeben ist und uns dazu veranlasst, die globale Struktur von H zu untersuchen und die Existenz expliziter Strukturen zu beweisen, die Härte implizieren. KW - complexity theory KW - (modular) counting KW - relational structures KW - categories KW - homomorphisms KW - Zählen KW - Kategorien KW - Komplexitätstheorie KW - Homomorphismen KW - relationale Strukturen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646037 ER - TY - THES A1 - Felisatti, Arianna T1 - Spatial-numerical associations: From biological foundations to embodied learning to contextual flexibility T1 - Räumlich-numerische Assoziationen: Von den biologischen Grundlagen über das verkörperte Lernen bis zur kontextuellen Flexibilität N2 - Among the different meanings carried by numerical information, cardinality is fundamental for survival and for the development of basic as well as of higher numerical skills. Importantly, the human brain inherits from evolution a predisposition to map cardinality onto space, as revealed by the presence of spatial-numerical associations (SNAs) in humans and animals. Here, the mapping of cardinal information onto physical space is addressed as a hallmark signature characterizing numerical cognition. According to traditional approaches, cognition is defined as complex forms of internal information processing, taking place in the brain (cognitive processor). On the contrary, embodied cognition approaches define cognition as functionally linked to perception and action, in the continuous interaction between a biological body and its physical and sociocultural environment. Embracing the principles of the embodied cognition perspective, I conducted four novel studies designed to unveil how SNAs originate, develop, and adapt, depending on characteristics of the organism, the context, and their interaction. I structured my doctoral thesis in three levels. At the grounded level (Study 1), I unfold the biological foundations underlying the tendency to map cardinal information across space; at the embodied level (Study 2), I reveal the impact of atypical motor development on the construction of SNAs; at the situated level (Study 3), I document the joint influence of visuospatial attention and task properties on SNAs. Furthermore, I experimentally investigate the presence of associations between physical and numerical distance, another numerical property fundamental for the development of efficient mathematical minds (Study 4). In Study 1, I present the Brain’s Asymmetric Frequency Tuning hypothesis that relies on hemispheric asymmetries for processing spatial frequencies, a low-level visual feature that the (in)vertebrate brain extracts from any visual scene to create a coherent percept of the world. Computational analyses of the power spectra of the original stimuli used to document the presence of SNAs in human newborns and animals, support the brain’s asymmetric frequency tuning as a theoretical account and as an evolutionarily inherited mechanism scaffolding the universal and innate tendency to represent cardinality across horizontal space. In Study 2, I explore SNAs in children with rare genetic neuromuscular diseases: spinal muscular atrophy (SMA) and Duchenne muscular dystrophy (DMD). SMA children never accomplish independent motoric exploration of their environment; in contrast, DMD children do explore but later lose this ability. The different SNAs reported by the two groups support the critical role of early sensorimotor experiences in the spatial representation of cardinality. In Study 3, I directly compare the effects of overt attentional orientation during explicit and implicit processing of numerical magnitude. First, the different effects of attentional orienting based on the type of assessment support different mechanisms underlying SNAs during explicit and implicit assessment of numerical magnitude. Secondly, the impact of vertical shifts of attention on the processing of numerical distance sheds light on the correspondence between numerical distance and peri-personal distance. In Study 4, I document the presence of different SNAs, driven by numerical magnitude and numerical distance, by employing different response mappings (left vs. right and near vs. distant). In the field of numerical cognition, the four studies included in the present thesis contribute to unveiling how the characteristics of the organism and the environment influence the emergence, the development, and the flexibility of our attitude to represent cardinal information across space, thus supporting the predictions of the embodied cognition approach. Furthermore, they inform a taxonomy of body-centred factors (biological properties of the brain and sensorimotor system) modulating the spatial representation of cardinality throughout the course of life, at the grounded, embodied, and situated levels. If the awareness for different variables influencing SNAs over the course of life is important, it is equally important to consider the organism as a whole in its sensorimotor interaction with the world. Inspired by my doctoral research, here I propose a holistic perspective that considers the role of evolution, embodiment, and environment in the association of cardinal information with directional space. The new perspective advances the current approaches to SNAs, both at the conceptual and at the methodological levels. Unveiling how the mental representation of cardinality emerges, develops, and adapts is necessary to shape efficient mathematical minds and achieve economic productivity, technological progress, and a higher quality of life. N2 - Unter den verschiedenen Bedeutungsaspekten numerischer Informationen ist die Kardinalität fundamental für das Überleben und die Entwicklung grundlegender sowie fortgeschrittener numerischer Fähigkeiten. Ein wichtiger Aspekt ist, dass das menschliche Gehirn evolutionär die Prädisposition besitzt, Kardinalität auf den Raum abzubilden, wie das Vorhandensein von räumlich-numerischen Assoziationen [engl. spatial-numerical associations, SNA] bei Menschen und Tieren zeigt. Hier wird die Abbildung kardinaler Informationen auf den physischen Raum als charakteristisches Merkmal der numerischen Kognition untersucht. Nach traditionellen Ansätzen wird Kognition als eine komplexe Form der internen Informationsverarbeitung definiert, die im Gehirn stattfindet (kognitiver Prozessor). Im Gegensatz dazu betrachten Ansätze der verkörperten Kognition (Embodied Cognition) Kognition als funktionell mit Wahrnehmung und Handlung verbunden, eingebettet in die kontinuierliche Interaktion zwischen einem biologischen Körper und seiner physischen sowie soziokulturellen Umgebung. In Anlehnung an die Prinzipien der Embodied-Cognition-Perspektive habe ich vier innovative Studien durchgeführt, um herauszufinden, wie SNA in Abhängigkeit von den Merkmalen des Organismus, des Kontexts und ihrer Interaktion entstehen, sich entwickeln und anpassen. Meine Doktorarbeit ist auf drei Ebenen strukturiert. Auf der geerdeten („grounded“) Ebene (Studie 1) zeige ich die biologischen Grundlagen auf, die der Tendenz zugrunde liegen, kardinale Informationen über den Raum hinweg abzubilden; auf der verkörperten („embodied“) Ebene (Studie 2) zeige ich die Auswirkungen einer atypischen motorischen Entwicklung auf die Konstruktion von SNA; auf der situativen („situated“) Ebene (Studie 3) dokumentiere ich den gemeinsamen Einfluss von visuell-räumlicher Aufmerksamkeit und von Aufgabeneigenschaften auf SNA. Darüber hinaus untersuche ich experimentell das Vorliegen von Assoziationen zwischen physischer und numerischer Distanz, einer weiteren numerischen Eigenschaft, die für die Entwicklung eines effizienten mathematischen Verstandes grundlegend ist (Studie 4). In Studie 1 stelle ich die Hypothese der asymmetrischen Frequenzabstimmung des Gehirns vor, die sich auf hemisphärische Asymmetrien bei der Verarbeitung räumlicher Frequenzen stützt. Diese räumlichen Frequenzen sind ein visuelles Merkmal auf niedriger Verarbeitungsebene, das das Gehirn von (Nicht-)Wirbeltieren aus jeder visuellen Szene extrahiert, um eine kohärente Wahrnehmung der Welt zu gewährleisten. Computergestützte Analysen der Leistungsspektren der ursprünglichen Stimuli, die verwendet wurden, um die Existenz von SNA bei menschlichen Neugeborenen und Tieren zu dokumentieren, unterstützen die asymmetrische Frequenzabstimmung des Gehirns als theoretische Erklärung. Dieser evolutionär vererbte Mechanismus könnte die universelle und angeborene Tendenz zur Darstellung von Kardinalität im horizontalen Raum erklären. In Studie 2 untersuche ich SNA bei Kindern mit seltenen genetisch bedingten neuromuskulären Krankheiten, nämlich Spinaler Muskelatrophie (SMA) und Duchenne-Muskeldystrophie (DMD). Kinder mit SMA sind nicht in der Lage, ihre Umwelt selbstständig motorisch zu erkunden, während Kinder mit DMD diese Fähigkeit anfangs besitzen, sie aber im Laufe der Zeit verlieren. Die unterschiedlichen SNA, die von den beiden Gruppen berichtet werden, belegen die entscheidende Rolle früher sensomotorischer Erfahrungen für die räumliche Repräsentation von Kardinalität. In Studie 3 vergleiche ich direkt die Auswirkungen der offenen Aufmerksamkeitsorientierung während der expliziten und impliziten Verarbeitung numerischer Größenordnungen. Erstens zeigen die unterschiedlichen Auswirkungen der Aufmerksamkeitsorientierung je nach Art der Bewertung unterschiedliche Mechanismen auf, die den SNA bei der expliziten und impliziten Beurteilung numerischer Größen zugrunde liegen. Zweitens deutet die Wirkung der vertikalen Aufmerksamkeitsverschiebung auf die Verarbeitung numerischer Distanzen auf eine Korrelation zwischen numerischer Distanz und peripersonaler Distanz hin. In Studie 4 belege ich das Vorliegen unterschiedlicher SNA, die durch numerische Größe und numerische Distanz gesteuert werden, mittels verschiedener Antwortzuordnungen (links vs. rechts und nah vs. fern). Die vier Studien dieser Arbeit auf dem Gebiet der numerischen Kognition zeigen, wie die Eigenschaften des Organismus und der Umwelt die Entstehung, Entwicklung und Flexibilität der Fähigkeit beeinflussen, kardinale Informationen über den Raum hinweg zu repräsentieren, und unterstützen damit die Vorhersagen des Ansatzes der verkörperten Kognition. Darüber hinaus liefern sie Einblicke in eine Taxonomie körperbezogener Faktoren, darunter biologische Merkmale des Gehirns und des sensomotorischen Systems, die die räumliche Repräsentation von Kardinalität im Laufe des Lebens auf den „grounded“, „embodied“ und „situated“ Ebenen modulieren. Die Kenntnis der verschiedenen Variablen, die die SNA im Laufe des Lebens beeinflussen, ist ebenso wichtig wie die Betrachtung des Organismus als Ganzes in seiner sensomotorischen Interaktion mit der Welt. Inspiriert von meiner Doktorarbeit schlage ich hier eine ganzheitliche Perspektive vor, die die Rolle der Evolution, der Verkörperung und der Umwelt bei unserer Assoziation von kardinalen Informationen mit Raum berücksichtigt. Diese neue Perspektive erweitert die derzeitigen Ansätze zu SNA sowohl auf konzeptioneller als auch auf methodologischer Ebene. Die Erforschung der Entstehung, Entwicklung und Anpassung der mentalen Repräsentation von Kardinalität ist entscheidend, um effiziente mathematische Fähigkeiten zu entwickeln sowie wirtschaftliche Produktivität, technologischen Fortschritt und eine verbesserte Lebensqualität zu fördern. KW - numerical cognition KW - spatial-numerical associations KW - SNARC effect KW - numerical distance effect KW - hemispheric asymmetry KW - child development KW - visuospatial attention KW - embodied cognition KW - grounded cognition KW - situated cognition KW - numerische Kognition KW - räumlich-numerische Assoziationen KW - SNARC-Effekt KW - numerischer Abstandseffekt KW - hemisphärische Asymmetrie KW - kindliche Entwicklung KW - visuell-räumliche Aufmerksamkeit KW - verkörperte Kognition KW - geerdete („grounded“) Kognition KW - situierte („situated“ Kognition Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641791 ER - TY - THES A1 - Rasche, Daniel T1 - Cosmic-ray neutron sensing for the estimation of soil moisture T1 - Cosmic-Ray Neutron Sensing zur Messung der Bodenfeuchte BT - from the atmosphere to the near-surface and to larger depths N2 - Water stored in the unsaturated soil as soil moisture is a key component of the hydrological cycle influencing numerous hydrological processes including hydrometeorological extremes. Soil moisture influences flood generation processes and during droughts when precipitation is absent, it provides plant with transpirable water, thereby sustaining plant growth and survival in agriculture and natural ecosystems. Soil moisture stored in deeper soil layers e.g. below 100 cm is of particular importance for providing plant transpirable water during dry periods. Not being directly connected to the atmosphere and located outside soil layers with the highest root densities, water in these layers is less susceptible to be rapidly evaporated and transpired. Instead, it provides longer-term soil water storage increasing the drought tolerance of plants and ecosystems. Given the importance of soil moisture in the context of hydro-meteorological extremes in a warming climate, its monitoring is part of official national adaption strategies to a changing climate. Yet, soil moisture is highly variable in time and space which challenges its monitoring on spatio-temporal scales relevant for flood and drought risk modelling and forecasting. Introduced over a decade ago, Cosmic-Ray Neutron Sensing (CRNS) is a noninvasive geophysical method that allows for the estimation of soil moisture at relevant spatio-temporal scales of several hectares at a high, subdaily temporal resolution. CRNS relies on the detection of secondary neutrons above the soil surface which are produced from high-energy cosmic-ray particles in the atmosphere and the ground. Neutrons in a specific epithermal energy range are sensitive to the amount of hydrogen present in the surroundings of the CRNS neutron detector. Due to same mass as the hydrogen nucleus, neutrons lose kinetic energy upon collision and are subsequently absorbed when reaching low, thermal energies. A higher amount of hydrogen therefore leads to fewer neutrons being detected per unit time. Assuming that the largest amount of hydrogen is stored in most terrestrial ecosystems as soil moisture, changes of soil moisture can be estimated through an inverse relationship with observed neutron intensities. Although important scientific advancements have been made to improve the methodological framework of CRNS, several open challenges remain, of which some are addressed in the scope of this thesis. These include the influence of atmospheric variables such as air pressure and absolute air humidity, as well as, the impact of variations in incoming primary cosmic-ray intensity on observed epithermal and thermal neutron signals and their correction. Recently introduced advanced neutron-to-soil moisture transfer functions are expected to improve CRNS-derived soil moisture estimates, but potential improvements need to be investigated at study sites with differing environmental conditions. Sites with strongly heterogeneous, patchy soil moisture distributions challenge existing transfer functions and further research is required to assess the impact of, and correction of derived soil moisture estimates under heterogeneous site conditions. Despite its capability of measuring representative averages of soil moisture at the field scale, CRNS lacks an integration depth below the first few decimetres of the soil. Given the importance of soil moisture also in deeper soil layers, increasing the observational window of CRNS through modelling approaches or in situ measurements is of high importance for hydrological monitoring applications. By addressing these challenges, this thesis aids to closing knowledge gaps and finding answers to some of the open questions in CRNS research. Influences of different environmental variables are quantified, correction approaches are being tested and developed. Neutron-to-soil moisture transfer functions are evaluated and approaches to reduce effects of heterogeneous soil moisture distributions are presented. Lastly, soil moisture estimates from larger soil depths are derived from CRNS through modified, simple modelling approaches and in situ estimates by using CRNS as a downhole technique. Thereby, this thesis does not only illustrate the potential of new, yet undiscovered applications of CRNS in future but also opens a new field of CRNS research. Consequently, this thesis advances the methodological framework of CRNS for above-ground and downhole applications. Although the necessity of further research in order to fully exploit the potential of CRNS needs to be emphasised, this thesis contributes to current hydrological research and not least to advancing hydrological monitoring approaches being of utmost importance in context of intensifying hydro-meteorological extremes in a changing climate. N2 - Wasser, das als Bodenfeuchte in der ungesättigten Bodenzone gespeichert ist, beeinflusst zahlreiche hydrologische Prozesse. Sie ist von großer Bedeutung für hydrometeorologische Extremereignisse, da sie sowohl die Prozesse zur Entstehung von Hochwassereignissen beeinflusst als auch pflanzenverfügbares Wasser in Dürreperioden bereitstellt, in denen Regen ausbleibt. Vor allem Bodenfeuchte in tieferen Schichten des Bodens wird zum Beispiel durch die geringere Dichte an Pflanzenwurzeln langsamer aufgenommen und reduziert. Die Bodenfeuchte in diesen tieferen Schichten kann daher vor allem in Trockenperioden zum Überleben der Pflanzen in landwirtschaftlichen Gebieten und natürlichen Ökosystemen beitragen. Im Kontext hydro-meteorologischer Extremereignisse kommt der Bodenfeuchte so eine besondere Bedeutung zu und ist daher Teil nationaler Monitoring- und Anpassungsstrategien an sich verändernde Klimabedingungen. Cosmic-Ray Neutron Sensing (CRNS) ist ein geophysikalisches Messverfahren, das natürlich vorkommende Neutronen aus kosmischer Strahlung zur Bodenfeuchtebestimmung nutzt. Die Intensität der über dem Boden gemessenen Neutronen ist dabei abhängig von der Menge anWasserstoff in der Umgebung des Neutronendetektors. Da in den meisten Bereichen an Land die Bodenfeuchte den größten Teil des Wasserstoffs ausmacht, lassen Veränderungen in der gemessenen Neutronenintensität auf veränderte Bodenfeuchtebedingungen schließen. Ein Vorteil dieser nichtinvasiven Methode ist ihr großer Messbereich von mehreren Hektar. Die, selbst über kurze Distanzen und Zeiträume auftretenden, Unterschiede werden somit repräsentativ gemittelt und gemessene Bodenfeuchtewerte können so besser für Vorhersagemodelle von Hochwasser- und Dürreereignissen genutzt werden. Trotz des Potentials von CRNS für das Monitoring von Bodenfeuchte bleiben zahlreiche offene Forschungsfragen, von denen einige im Rahmen dieser Arbeit betrachtet werden. Hierzu zählt die Bestimmung und Korrektur von Einflussgrößen, die das Neutronensignal zusätzlich zur Bodenfeuchte beeinflussen. Ebenso gehört die Ableitung von Bodenfeuchte aus dem Neutronensignal selbst sowie der Umgang mit stark unterschiedlichen Bodenfeuchtebedingungen im Messbereich dazu. Obwohl CRNS einen großen horizontalen Messbereich besitzt, ist die Messtiefe auf die oberen ca. 30 cm des Bodens begrenzt. Hierzu werden Ansätze untersucht, die Bodenfeuchte mathematisch in größere Tiefen zu extrapolieren und sie direkt dort zu messen, indem Neutronendetektoren in Bohrlöchern installiert werden. Mit der Betrachtung der Forschungsfragen kann diese Arbeit einen wichtigen Beitrag zur Weiterentwicklung von CRNS und der Anwendbarkeit der Methode z.B. im Rahmen nationaler Monitoring-Programme leisten, denen im Kontext zunehmend intensiverer hydro-meteorologischer Extremereignisse eine besondere Bedeutung zukommt. KW - cosmic-ray neutron sensing KW - soil moisture KW - Cosmic-Ray Neutron Sensing KW - Bodenfeuchte KW - soil hydrology KW - geophysics KW - Bodenhydrologie KW - Geophysik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636465 ER - TY - THES A1 - Dronsella, Beau B. T1 - Overcoming natural biomass limitations in gram-negative bacteria through synthetic carbon fixation T1 - Überwindung natürlicher Biomasselimitationen in gramnegativen Bakterien mittels synthetischer Kohlenstofffixierung N2 - The carbon demands of an ever-increasing human population and the concomitant rise in net carbon emissions requires CO2 sequestering approaches for production of carbon-containing molecules. Microbial production of carbon-containing products from plant-based sugars could replace current fossil-based production. However, this form of sugar-based microbial production directly competes with human food supply and natural ecosystems. Instead, one-carbon feedstocks derived from CO2 and renewable energy were proposed as an alternative. The one carbon molecule formate is a stable, readily soluble and safe-to-store energetic mediator that can be electrochemically generated from CO2 and (excess off-peak) renewable electricity. Formate-based microbial production could represent a promising approach for a circular carbon economy. However, easy-to-engineer and efficient formate-utilizing microbes are lacking. Multiple synthetic metabolic pathways were designed for better-than-nature carbon fixation. Among them, the reductive glycine pathway was proposed as the most efficient pathway for aerobic formate assimilation. While some of these pathways have been successfully engineered in microbial hosts, these synthetic strains did so far not exceed the performance of natural strains. In this work, I engineered and optimized two different synthetic formate assimilation pathways in gram-negative bacteria to exceed the limits of a natural carbon fixation pathway, the Calvin cycle. The first chapter solidified Cupriavidus necator as a promising formatotrophic host to produce value-added chemicals. The formate tolerance of C. necator was assessed and a production pathway for crotonate established in a modularized fashion. Last, bioprocess optimization was leveraged to produce crotonate from formate at a titer of 148 mg/L. In the second chapter, I chromosomally integrated and optimized the synthetic reductive glycine pathway in C. necator using a transposon-mediated selection approach. The insertion methodology allowed selection for condition-specific tailored pathway expression as improved pathway performance led to better growth. I then showed my engineered strains to exceed the biomass yields of the Calvin cycle utilizing wildtype C. necator on formate. This demonstrated for the first time the superiority of a synthetic formate assimilation pathway and by extension of synthetic carbon fixation efforts as a whole. In chapter 3, I engineered a segment of a synthetic carbon fixation cycle in Escherichia coli. The GED cycle was proposed as a Calvin cycle alternative that does not perform a wasteful oxygenation reaction and is more energy efficient. The pathways simple architecture and reasonable driving force made it a promising candidate for enhanced carbon fixation. I created a deletion strain that coupled growth to carboxylation via the GED pathway segment. The CO2 dependence of the engineered strain and 13C-tracer analysis confirmed operation of the pathway in vivo. In the final chapter, I present my efforts of implementing the GED cycle also in C. necator, which might be a better-suited host, as it is accustomed to formatotrophic and hydrogenotrophic growth. To provide the carboxylation substrate in vivo, I engineered C. necator to utilize xylose as carbon source and created a selection strain for carboxylase activity. I verify activity of the key enzyme, the carboxylase, in the decarboxylative direction. Although CO2-dependent growth of the strain was not obtained, I showed that all enzymes required for operation of the GED cycle are active in vivo in C. necator. I then evaluate my success with engineering a linear and cyclical one-carbon fixation pathway in two different microbial hosts. The linear reductive glycine pathway presents itself as a much simpler metabolic solution for formate dependent growth over the sophisticated establishment of hard-to-balance carbon fixation cycles. Last, I highlight advantages and disadvantages of C. necator as an upcoming microbial benchmark organism for synthetic metabolism efforts and give and outlook on its potential for the future of C1-based manufacturing. N2 - Der Rohstoffbedarf einer ständig wachsenden menschlichen Bevölkerung und der damit einhergehende Anstieg der Kohlenstoffemissionen erfordert Konzepte zur CO2-Bindung für die Produktion von kohlenstoffhaltigen Molekülen. Hier bietet die mikrobielle Produktion von Chemikalien eine nachhaltige Alternative zu den bisher etablierten Syntheseprozessen. Da die Nutzung von pflanzlich hergestelltem Zucker durch die entsprechenden Mikroben allerdings in direkter Konkurrenz zur menschlichen Nahrungsmittelversorgung steht, soll aus CO2 und erneuerbarer Energie synthetisiertes Formiat (Ameisensäure) als alternativer Nährstoff nutzbar gemacht werden. Formiat fungiert als ein stabiler, leicht löslicher und sicher zu lagernder Energiespeicher, der als Ausgangsstoff mikrobieller Produktionen einen vielversprechenden Ansatz für eine nachhaltige Kreislaufwirtschaft eröffnet. Dieses Potenzial wurde bisher nicht realisiert, da es an einfach zu modifizierenden Mikroben, die Formiat effizient nutzen, mangelt. Zwecks mikrobieller Formiatnutzung wurden deshalb synthetische Stoffwechselwege entwickelt, die die Ein-Kohlenstoff Quelle deutlich effizienter als natürliche Alternativen in den Metabolismus einbringen. Die effizienteste Variante für die aerobe Formiat-Assimilation ist hierbei der reduktive Glycin-Stoffwechselweg. Während Letzterer zwar bereits erfolgreich in Mikroben eingebracht wurde, übertraf die Leistung dieser synthetischen Stämme trotz der theoretisch höheren Stoffwechseleffizienz nicht die des natürlichen Stoffwechsels. In dieser Arbeit entwickelte und optimierte ich zwei verschiedene synthetische Ein-Kohlenstoff-Fixierungswege in gramnegativen Bakterien, um die Grenzen der natürlichen CO2 Nutzung zu überschreiten. Das erste Kapitel untersuchte das Potenzial von Cupriavidus necator als vielversprechenden formatotrophen Wirt für die Produktion von Chemikalien mit hohem Mehrwert. Die Ameisensäuretoleranz von C. necator wurde getestet und ein Produktionsweg für Crotonat in einer modularen Weise etabliert. Schließlich wurde Bioprozessoptimierung genutzt, um Crotonat aus Formiat mit einem Titer von 148 mg/L zu produzieren. Im zweiten Kapitel integrierte ich den synthetischen reduktiven Glycinweg anstelle der nativen Formiatassimilierung chromosomal in C. necator und optimierte die Expressionsniveaus der beteiligten Enzyme und somit Wachstum des Stammes mit Hilfe eines transposonbasierten Selektionsansatzes. Die Kombination von randomisierter Insertionsmethodik und erzwungener Nutzung des Stoffwechselwegs für Wachstum auf Formiat ermöglichte hier die Selektion für bedingungsspezifisch optimale Expression des Stoffwechselweges, da eine höhere Operationsrate des Stoffwechselweges zu verbessertem Wachstum führte. Anschließend zeigte ich, dass meine optimierten synthetischen Stämme die Biomasseerträge des Calvin-Zyklus von C. necator auf Formiat übertrafen. Dies zeigte zum ersten Mal die bisher nur theoretisch prognostizierte Überlegenheit eines synthetischen Formiat-Assimilationsweges und damit der synthetischen Kohlenstofffixierung gegenüber natürlicher Kohlenstofffixierung. In Kapitel 3 entwickelte ich ein Segment des GED-Zyklus zur synthetischen CO2-Fixierung in Escherichia coli. Der GED-Zyklus ist eine Alternative zum Calvin-Zyklus, die im Gegensatz zu Letzterem keine ungewollte Aktivität mit Sauerstoff hat und somit energieeffizienter CO2 fixiert. Die einfache Architektur des Kreislaufs mit nur einer kritischen Reaktion macht ihn zu einem vielversprechenden Kandidaten für verbesserte Kohlenstofffixierung. Ich erzeugte einen Deletionsstamm, dessen Wachstum an besagte Reaktion, genauer die Carboxylierung mittels des GED-Segments, gekoppelt war. Die Fähigkeit des Stammes, CO2-abhängig zu wachsen, und die 13C-Tracer-Analyse bestätigten die Funktionalität des Weges in vivo. Im letzten Kapitel versuchte ich den GED-Zyklus auch in C. necator zu implementieren, da C. necator durch sein formatotrophes Wachstum potenziell ein vielversprechenderer Wirt sein könnte. Hierbei war das Wachstum des Calvin-Zyklus abhängigen Wildtyps, wie auch für den reduktiven Glycin-Weg, ein guter Referenzwert für den Vergleich mit den synthetischen Stämmen. Ich veränderte C. necator genetisch, sodass es das GED Substrat Xylose nutzt und zeigte, dass alle Enzyme für den Betrieb des Kohlenstofffixierungsweges in separierten Testeinheiten in vivo in C. necator funktional sind. Schließlich vergleiche ich meine Ergebnisse bezüglich der Entwicklung von linearer und zyklischer Ein-Kohlenstoff-Fixierung in zwei verschiedenen mikrobiellen Wirten. Es zeigt sich, dass der simplere lineare reduktive Glycinweg synthetische Formatotrophie von bisher unerschlossener Effizienz erlaubt, während sich die Realisierung komplexer autokatalytischer Kohlenstofffixierungszyklen als deutlich schwieriger erweist. Ich hebe die Vor- und Nachteile von C. necator als zukünftigem Plattformorganismus für synthetische Stoffwechselprozesse hervor und gebe einen Ausblick auf sein Potenzial für die Zukunft der C1-basierten Produktion. KW - synthetic biology KW - metabolic engineering KW - synthetic metabolism KW - carbon fixation KW - C1 assimilation KW - formate KW - reductive glycine pathway KW - GED cycle KW - cupriavidus necator KW - Ralstonia eutropha KW - H16 KW - Alcaligenes eutrophus KW - Wautersia eutropha KW - Hydrogenomonas eutrophus KW - Escherichia coli KW - bio-economy KW - Calvin cycle KW - Alcaligenes eutrophus KW - C1-Assimilation KW - Calvinzyklus KW - Escherichia coli KW - GED-Zyklus KW - H16 KW - Hydrogenomonas eutrophus KW - Ralstonia eutropha KW - Wautersia eutropha KW - Bioökonomie KW - Kohlenstofffixerung KW - Cupriavidus necator KW - Formiat KW - metabolisches Modifizieren KW - reduktiver Glycinstoffwechselweg KW - synthetische Biologie KW - synthetischer Metabolismus Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646273 ER - TY - THES A1 - Brembach, Theresa-Charlotte T1 - Regulators and effects of neutrophilic granulocytes in hidradenitis suppurativa Y1 - 2024 ER - TY - THES A1 - Blanz, Alkis T1 - Essays on the macroeconomics of climate change and policy Y1 - 2024 ER - TY - THES A1 - Ranaee, Mahdi T1 - Skepticism BT - Cartesian and Kantian N2 - This dissertation offers new and original readings of three major texts in the history of Western philosophy: Descartes’s “First Meditation,” Kant’s “Transcendental Deduction,” and his “Refutation of Idealism.” The book argues that each text addresses the problem of skepticism and posits that they have a hitherto underappreciated, organic relationship to one another. The dissertation begins with an analysis of Descartes’ “First Meditation,” which I argue offers two distinct and independent skeptical arguments that differ in both aim and scope. I call these arguments the “veil of ideas” argument and the “author of my origin” argument. My reading counters the standard interpretation of the text, which sees it as offering three stages of doubt, namely the occasional fallibility of the senses, the dream hypothesis, and the evil demon hypothesis. Building on this, the central argument of the dissertation is that Kant’s “Transcendental Deduction” actually transforms and radicalizes Descartes’s Author of My Origin argument, reconceiving its meaning within the framework of Kant’s own transcendental idealist philosophy. Finally, I argue that the Refutation of Idealism offers a similarly radicalized version of Descartes’s Veil of Ideas argument, albeit translated into the framework of transcendental idealism. N2 - Diese Dissertation bietet neue und originelle Lesarten von drei wichtigen Texten in der Geschichte der abendländischen Philosophie: Descartes‘ „Erste Meditation“, Kants „transzendentale Deduktion“ und seine „Widerlegung des Idealismus“. Die Arbeit argumentiert, dass jeder dieser Texte das Problem des Skeptizismus aufgreift, und schlägt vor, dass sie in einer bisher unterschätzten organischen Beziehung zueinander stehen. Die Dissertation beginnt mit einer Analyse von Descartes‘ „Erster Meditation“, die, wie ich behaupte, zwei verschiedene und unabhängige skeptische Argumente enthält, die sich in Ziel und Umfang unterscheiden. Ich nenne diese Argumente das Argument vom „Schleier der Ideen“ und das Argument vom „Urheber meines Ursprungs“. Meine Lesart widerspricht der Standardinterpretation des Textes, die drei Ebenen des Zweifels anbietet, nämlich die gelegentliche Fehlbarkeit der Sinne, die Traumhypothese und die Hypothese des bösen Dämons. Darauf aufbauend ist das zentrale Argument der Arbeit, dass Kants „Transzendentale Deduktion“ Descartes‘ „Urheber meines Ursprungs“-Argument transformiert und radikalisiert, indem sie dessen Bedeutung im Rahmen von Kants eigener transzendental-idealistischer Philosophie neu interpretiert. Schließlich argumentiere ich, dass die Widerlegung des Idealismus eine ähnlich radikalisierte Version von Descartes' Argument des Schleiers der Ideen bietet, wenn auch im Rahmen des transzendentalen Idealismus. KW - Descartes KW - Kant KW - skepticism KW - transcendental Deduction KW - refutation of idealism KW - Descartes KW - Kant KW - transzendentale Deduktion KW - Widerlegung des Idealismus KW - Skeptizismus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645652 ER - TY - THES A1 - Eckert, Konstantin Franz T1 - Vorleben, vorsterben, vorglauben? BT - Menschenführung in der Wehrmacht? T2 - Krieg und Konflikt N2 - Wie wurden die Soldaten der Wehrmacht – in der Kaserne und an der Front – von ihren Unteroffizieren und Offizieren behandelt? Wie war deren Menschenführung beeinflusst vom Nationalsozialismus und welche Bedeutung hatte sie für den Zusammenhalt des deutschen Heeres im Zweiten Weltkrieg? Konstantin Franz Eckert schließt, gestützt auf eine breite Quellenbasis, eine wichtige Forschungslücke. Seine Studie zeigt, wie junge Männer auf ihren Militärdienst vorbereitet wurden und was sie von ihren Vorgesetzten erwarteten. Sie weist nach, dass Vorbild und persönlicher Einsatz, Konstruktivität und absolute Unterordnung unter das Gehorsamsprinzip im Dienst des NS-Regimes zentrale Führungselemente der Wehrmacht waren. Zudem wirft sie einen Blick auf die militärische Ausbildung und ordnet die alten Narrative vom »Kasernenhofschleifer« sachlich ein. Y1 - 2024 SN - 978-3-593-51865-7 SN - 978-3-593-45704-8 SN - 978-3-593-45703-1 VL - 22 PB - Campus CY - Frankfurt am Main ER - TY - THES A1 - Blaser, Berenike Lisa T1 - Premenstrual symptoms as a function of altered central autonomous nervous activity T1 - Prämenstruelle Symptome als Funktion veränderter zentralautonomer Netzwerkaktivität BT - a neurovisceral integration perspective on premenstrual syndrome BT - eine neuroviszerale Integrations-Perspektive auf das Prämenstruelle Syndrom N2 - The experience of premenstrual syndrome (PMS) affects up to 90% of individuals with an active menstrual cycle and involves a spectrum of aversive physiological and psychological symptoms in the days leading up to menstruation (Tschudin et al., 2010). Despite its high prevalence, the precise origins of PMS remain elusive, with influences ranging from hormonal fluctuations to cognitive, social, and cultural factors (Hunter, 2007; Matsumoto et al., 2013). Biologically, hormonal fluctuations, particularly in gonadal steroids, are commonly believed to be implicated in PMS, with the central factor being varying susceptibilities to the fluctuations between individuals and cycles (Rapkin & Akopians, 2012). Allopregnanolone (ALLO), a neuroactive steroid and progesterone metabolite, has emerged as a potential link to PMS symptoms (Hantsoo & Epperson, 2020). ALLO is a positive allosteric modulator of the GABAA receptor, influencing inhibitory communication (Rupprecht, 2003; Andréen et al., 2006). Different susceptibility to ALLO fluctuations throughout the cycle may lead to reduced GABAergic signal transmission during the luteal phase of the menstrual cycle. The GABAergic system's broad influence leads to a number of affected physiological systems, including a consistent reduction in vagally mediated heart rate variability (vmHRV) during the luteal phase (Schmalenberger et al., 2019). This reduction in vmHRV is more pronounced in individuals with high PMS symptoms (Baker et al., 2008; Matsumoto et al., 2007). Fear conditioning studies have shown inconsistent associations with cycle phases, suggesting a complex interplay between physiological parameters and PMS-related symptoms (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). The neurovisceral integration model posits that vmHRV reflects the capacity of the central autonomous network (CAN), which is responsible for regulatory processes on behavioral, cognitive, and autonomous levels (Thayer & Lane, 2000, 2009). Fear learning, mediated within the CAN, is suggested to be indicative of vmHRV's capacity for successful VI regulation (Battaglia & Thayer, 2022). Given the GABAergic mediation of central inhibitory functional connectivity in the CAN, which may be affected by ALLO fluctuations, this thesis proposes that fluctuating CAN activity in the luteal phase contributes to diverse aversive symptoms in PMS. A research program was designed to empirically test these propositions. Study 1 investigated fear discrimination during different menstrual cycle phases and its interaction with vmHRV, revealing nuanced effects on acoustic startle response and skin conductance response. While there was heightened fear discrimination in acoustic startle responses in participants in the luteal phase, there was an interaction between menstrual cycle phase and vmHRV in skin conductance responses. In this measure, heightened fear discrimination during the luteal phase was only visible in individuals with high resting vmHRV; those with low vmHRV showed reduced fear discrimination and higher overall responses. Despite affecting the vast majority of menstruating people, there are very limited tools available to reliably assess these symptoms in the German speaking area. Study 2 aimed at closing this gap, by translating and validating a German version of the short version of the Premenstrual Assessment Form (Allen et al., 1991), providing a reliable tool for future investigations, which closes the gap in PMS questionnaires in the German-speaking research area. Study 3 employed a diary study paradigm to explore daily associations between vmHRV and PMS symptoms. The results showed clear simultaneous fluctuations between the two constructs with a peak in PMS and a low point in vmHRV a few days before menstruation onset. The association between vmHRV and PMS was driven by psychological PMS symptoms. Based on the theoretical considerations regarding the neurovisceral perspective on PMS, another interesting construct to consider is attentional control, as it is closely related to functions of the CAN. Study 4 delved into attentional control and vmHRV differences between menstrual cycle phases, demonstrating an interaction between cycle phase and PMS symptoms. In a pilot, we found reduced vmHRV and attentional control during the luteal phase only in participants who reported strong PMS. While Studies 1-4 provided evidence for the mechanisms underlying PMS, Studies 5 and 6 investigated short- and long-term intervention protocols to ameliorate PMS symptomatology. Study 5 explored the potential of heart rate variability biofeedback (HRVB) in alleviating PMS symptoms and a number of other outcome measures. In a waitlist-control design, participants underwent a 4-week smartphone-based HRVB intervention. The results revealed positive effects on PMS, with larger effect sizes on psychological symptoms, as well as on depressive symptoms, anxiety/stress and attentional control. Finally, Study 6 examined the acute effects of HRVB on attentional control. The study found positive impact but only in highly stressed individuals. The thesis, based on this comprehensive research program, expands our understanding of PMS as an outcome of CAN fluctuations mediated by GABAA receptor reactivity. The results largely support the model. These findings not only deepen our understanding of PMS but also offer potential avenues for therapeutic interventions. The promising results of smartphone-based HRVB training suggest a non-pharmacological approach to managing PMS symptoms, although further research is needed to confirm its efficacy. In conclusion, this thesis illuminates the complex web of factors contributing to PMS, providing valuable insights into its etiological underpinnings and potential interventions. By elucidating the relationships between hormonal fluctuations, CAN activity, and psychological responses, this research contributes to more effective treatments for individuals grappling with the challenges of PMS. The findings hold promise for improving the quality of life for those affected by this prevalent and often debilitating condition. N2 - Das prämenstruelle Syndrom (PMS) betrifft bis zu 90% aller Personen mit einem aktiven Menstruationszyklus und umfasst ein Spektrum aversiver physiologischer und psychologischer Symptome in den Tagen vor der Menstruation (Tschudin et al., 2010). Trotz der hohen Prävalenz bleiben die genauen Ursachen von PMS weitgehend unklar, wobei Einflüsse von hormonellen Schwankungen bis hin zu kognitiven, sozialen und kulturellen Faktoren reichen (Hunter, 2007; Matsumoto et al., 2013). Von einer biologischen Perspektive werden hormonelle Schwankungen insbesondere in den Geschlechtshormonen häufig mit PMS in Verbindung gebracht. Dabei gelten individuelle und zyklusabhängige Anfälligkeiten gegenüber der hormonellen Schwankungen als zentraler Faktor (Rapkin & Akopians, 2012). Allopregnanolon (ALLO), ein neuroaktives Steroid und ein Progesteronmetabolit, hat sich als potenzielle Verbindung zu PMS-Symptomen herausgestellt (Hantsoo & Epperson, 2020). ALLO ist ein positiver allosterischer Modulator des GABAA-Rezeptors, der die inhibitorische Kommunikation beeinflusst (Rupprecht, 2003; Andréen et al., 2006). Eine unterschiedliche Anfälligkeit für ALLO-Schwankungen im Verlauf des Menstruationszyklus kann zu einer verminderten GABAergen Signalübertragung während der Lutealphase führen. Der breite Einfluss des GABAergen Systems führt zu einer Vielzahl von betroffenen physiologischen Systemen, einschließlich einer konstanten Reduktion der vagal vermittelten Herzfrequenzvariabilität (vmHRV) während der Lutealphase (Schmalenberger et al., 2019). Diese Reduktion der vmHRV ist bei Personen mit starken PMS-Symptomen stärker ausgeprägt (Baker et al., 2008; Matsumoto et al., 2007). Studien zur Furchtkonditionierung haben inkonsistente Assoziationen mit den Zyklusphasen gezeigt, was auf ein komplexes Zusammenspiel zwischen physiologischen Parametern und PMS-spezifischen Symptomen hindeutet (Carpenter et al., 2022; Epperson et al., 2007; Milad et al., 2006). Das neuroviszerale Integrationsmodell postuliert, dass die vmHRV die Kapazität des zentralen autonomen Netzwerks (CAN) widerspiegelt, das für regulatorische Prozesse auf Verhaltens-, kognitiver und autonomer Ebene verantwortlich ist (Thayer & Lane, 2000, 2009). Das innerhalb des CAN vermittelte Furchtlernen wird als Indikator für die Fähigkeit der vmHRV zur erfolgreichen Regulation betrachtet (Battaglia & Thayer, 2022). Angesichts der GABAergen Vermittlung der zentralen inhibitorischen funktionellen Konnektivität im CAN, die durch ALLO-Schwankungen beeinflusst werden kann, postuliert diese Arbeit, dass eine fluktuierende CAN-Aktivität in der Lutealphase zu den vielfältigen aversiven Symptomen des PMS beiträgt. Ein Forschungsprogramm wurde konzipiert, um diese Annahmen empirisch zu überprüfen. Studie 1 untersuchte die Furchtdiskriminierung während verschiedener Menstruationszyklusphasen und deren Wechselwirkung mit vmHRV. Dabei wurden nuancierte Effekte auf den akustischen Schreckreflex und die Hautleitfähigkeitsreaktion aufgedeckt. Während eine gesteigerte Furchtdiskriminierung in akustischen Startlereaktionen bei Teilnehmenden in der Lutealphase festgestellt wurde, zeigte sich in den Hautleitfähigkeitsreaktionen eine Wechselwirkung zwischen Menstruationszyklusphase und vmHRV. In dieser Variable war eine erhöhte Furchtdiskriminierung während der Lutealphase nur bei Personen mit hoher Ruhe-vmHRV sichtbar; Personen mit niedriger vmHRV zeigten eine verringerte Furchtdiskriminierung und insgesamt stärkere Reaktionen. Trotzdem PMS die Mehrzahl aller menstruierender Personen betrifft, gibt es im deutschen Sprachraum wenige Instrumente, die die Symptomatik reliabel erfassen. Um diese Lücke zu schließen, übersetzte und validierte Studie 2 eine deutsche Version der Kurzversion der Premenstrual Assessment Form (Allen et al., 1991), wodurch ein reliables Instrument für zukünftige Untersuchungen bereitgestellt wurde. Dieses schließt eine Lücke in PMS-Fragebögen in der deutschen Forschungslandschaft. Studie 3 verwendete ein Tagebuchstudienparadigma, um tägliche Zusammenhänge zwischen vmHRV und PMS-Symptomen zu erforschen. Die Ergebnisse zeigten klare simultane Fluktuationen zwischen den beiden Konstrukten mit einem Höhepunkt in PMS und einem Tiefpunkt in vmHRV einige Tage vor Beginn der Menstruation. Die Assoziation zwischen vmHRV und PMS wurde hautsächlich durch psychologische PMS-Symptome verursacht. Basierend auf den theoretischen Überlegungen zur neuroviszeralen Perspektive auf PMS, ist ein weiteres interessantes zu betrachtende Konstrukt Aufmerksamkeitskontrolle, da diese eng mit Funktionen des CAN zusammenhängt. Studie 4 untersuchte Aufmerksamkeitskontrolle und Unterschiede in der vmHRV zwischen der Luteal- und Follikelphase des Menstruationszyklus und zeigte eine Wechselwirkung zwischen Zyklusphase und PMS-Symptomen. In einer Pilotstudie fanden wir eine reduzierte vmHRV und Aufmerksamkeitskontrolle während der Lutealphase ausschließlich bei Teilnehmenden, die starke PMS-Symptome berichteten. Während die Studien 1-4 Evidenz für die Mechanismen hinter PMS lieferten, untersuchten Studien 5 und 6 Kurz- und Langzeitinterventionsprotokolle zur Verbesserung der PMS-Symptomatik. Studie 5 untersuchte den Effekt von Herzratenvariabilitätsbiofeedback (HRVB) auf PMS-Symptome und einer Reihe anderer Outcomemaße. In einem Wartelisten-Kontroll-Design durchliefen die Teilnehmenden eine 4-wöchige Smartphone-basierte HRVB-Intervention. Die Ergebnisse zeigten positive Effekte auf PMS, mit größeren Effektstärken in psychologischen Symptomen, sowie bei depressiven Symptomen, Ängstlichkeit/Stress und Aufmerksamkeitskontrolle. Schließlich untersuchte Studie 6 die akuten Effekte von HRVB auf Aufmerksamkeitskontrolle. Die Studie zeigte positive Effekte, jedoch nur bei stark gestressten Personen. KW - premenstrual syndrome KW - prämenstruelles Syndrom KW - heart rate variability KW - Herzratenvariabilität KW - biofeedback KW - Aufmerksamkeit KW - attention Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645970 ER - TY - THES A1 - Pörschke, Alexander T1 - Koalitionsbildung und Gesetzgebung im Semi-Parlamentarismus T1 - Coalition formation and legislation in semi-parliamentarism N2 - Der Semi-Parlamentarismus beschreibt das Regierungssystem, in dem die Regierung von einem Teil des Parlaments gewählt wird und abberufen werden kann, von einem anderen Teil des Parlaments aber unabhängig ist. Beide Kammern müssen dabei der Gesetzgebung zustimmen. Dieses von Steffen Ganghof klassifizierte System ergänzt gängige Regierungssystemtypologien, wie sie beispielsweise von David Samuels und Matthew Shugart genutzt werden. Der Semi-Parlamentarismus ist der logische Gegenpart zum Semi-Präsidentialismus, bei dem nur ein Teil der Exekutive von der Legislative abhängt, während im Semi-Parlamentarismus die Exekutive von nur einem Teil der Legislative abhängt. Der Semi-Parlamentarismus verkörpert so ein System der Gewaltenteilung ohne einen exekutiven Personalismus, wie er durch die Direktwahl und Unabhängigkeit der Regierungchef:in im Präsidentialismus hervorgerufen wird. Dadurch ist der Semi-Parlamentarismus geeignet, Unterschiede zwischen Parlamentarismus und Präsidentialismus auf den separaten Einfluss der Gewaltenteilung und des exekutiven Personalismus zurückzuführen. Die Untersuchung des Semi-Parlamentarismus ist daher für die Regierungssystemliteratur insgesamt von Bedeutung. Der Semi-Parlamentarismus ist dabei kein rein theoretisches Konstrukt, sondern existiert im australischen Bundesstaat, den australischen Substaaten und Japan. Die vorliegende Dissertation untersucht erstmals umfassend die Gesetzgebung der semi-parlamentarischen Staaten als solchen. Der Fokus liegt dabei auf den zweiten Kammern, da diese durch die Unabhängigkeit von der Regierung der eigentliche Ort der Gesetzgebung sind. Die Gesetzgebung in Parlamentarismus und Präsidentialismus unterscheidet sich insbesondere in der Geschlossenheit der Parteien, der Koalitionsbildung und dem legislativen Erfolg der Regierungen. Diese Punkte sind daher auch von besonderem Interesse bei der Analyse des Semi-Parlamentarismus. Die semi-parlamentarischen Staaten unterscheiden sich auch untereinander teilweise erheblich in der institutionellen Ausgestaltung wie den Wahlsystemen oder den verfügbaren Mitteln zur Überwindung von Blockadesituationen. Die Darstellung und die Analyse der Auswirkungen dieser Unterschiede auf die Gesetzgebung ist neben dem Vergleich des Semi-Parlamentarismus mit anderen Systemen das zweite wesentliche Ziel dieser Arbeit. Als Fundament der Analyse habe ich einen umfangreichen Datensatz erhoben, der alle Legislaturperioden der australischen Staaten zwischen 1997 und 2019 umfasst. Wesentliche Bestandteile des Datensatzes sind alle namentlichen Abstimmungen beider Kammern, alle eingebrachten und verabschiedeten Gesetzen der Regierung sowie die mit Hilfe eines Expert-Surveys erhobenen Parteipositionen in den relevanten Politikfeldern auf substaatlicher Ebene. Hauptsächlich mit der Hilfe von Mixed-Effects- und Fractional-Response-Analysen kann ich so zeigen, dass der Semi-Parlamentarismus in vielen Aspekten eher parlamentarischen als präsidentiellen Systemen gleicht. Nur die Koalitionsbildung erfolgt deutlich flexibler und unterscheidet sich daher von der typischen parlamentarischen Koalitionsbildung. Die Analysen legen nahe, dass wesentliche Unterschiede zwischen Parlamentarismus und Präsidentialismus eher auf den exekutiven Personalismus als auf die Gewaltenteilung zurückzuführen sind. Zwischen den semi-parlamentarischen Staaten scheinen vor allem die Kontrolle des Medians beider Parlamentskammern durch die Regierung und die Möglichkeit der Regierung, die zweite Kammer mitaufzulösen, zu entscheidenden Unterschieden in der Gesetzgebung zu führen. Die Kontrolle des Medians ermöglicht eine flexible Koalitionsbildung und führt zu höheren legislativen Erfolgsraten. Ebenso führt eine möglichst leichte Auflösungsmöglichkeit der zweiten Kammern zu höheren legislativen Erfolgsraten. Die Parteigeschlossenheit ist unabhängig von diesen Aspekten in beiden Kammern der semi-parlamentarischen Parlamente sehr hoch. N2 - Semi-parliamentarism describes a system of government in which the government is elected and can be dismissed by one part of the parliament, but is independent of another part of the parliament. Both chambers must approve legislation. This system, as classified by Steffen Ganghof, complements common typologies of government systems such as those used by David Samuels and Matthew Shugart. Semi-parliamentarism is the logical counterpart to semi-presidentialism, in which only part of the executive depends on the legislature, while in semi-parliamentarism the executive depends on only part of the legislature. Semi-parliamentarism thus embodies a system of separation of powers without executive personalism, which is caused by the direct election and independence of the head of government in presidentialism. This makes semi-parliamentarism suitable for attributing differences between parliamentarism and presidentialism to the separate influence of separation of powers and executive personalism. The study of semi-parliamentarism is therefore important to the literature on governmental systems as a whole. Semi-parliamentarism is not a purely theoretical construct, but exists in the Australian federal state, the Australian sub-states, and Japan. This dissertation is the first to comprehensively examine the legislation of semi-parliamentary states as such. The focus is on the second chambers, which, because of their independence from the government, are the real locus of legislation. Legislation in parliamentary and presidential systems differs in terms of party unity, the formation of coalitions, and the legislative success of governments. These points are therefore of particular interest in the analysis of semi-parliamentarism. Some of the semi-parliamentary states also differ considerably from one another in terms of their institutional design, such as their electoral systems or the means available to overcome deadlock situations. In addition to comparing semi-parliamentarism with other systems, the second main objective of this thesis is to present and analyze the effects of these differences on legislation. As a basis for the analysis, I collected a comprehensive dataset covering all Australian state parliaments between 1997 and 2019. Essential components of the dataset are all roll call votes of both chambers, all introduced and passed government bills as well as the party positions in relevant policy areas at the sub-state level, which were collected with the help of an expert survey. Using mainly mixed-effects and fractional-response analyses, I show that semi-parliamentarism is more similar to parliamentary than to presidential systems in many respects. Only coalition formation is much more flexible and thus differs from typical parliamentary coalition formation. The analyses suggest that major differences between parliamentarism and presidentialism are due more to executive personalism than to the separation of powers. In semi-parliamentary states, government control over the median of the two parliamentary chambers and the government's ability to dissolve the second chamber seem to lead to significant differences in legislation. Control of the median allows for flexible coalition building and leads to higher legislative success rates. Similarly, making it as easy as possible to dissolve the second chamber leads to higher legislative success rates. Regardless of these aspects, party unity is very high in both chambers of semi-parliamentary parliaments. KW - Semi-Parlamentarismus KW - Gewaltenteilung KW - exekutiver Personalismus KW - Koalitionsbildung KW - legislative Erfolgsraten KW - Parteigeschlossenheit KW - Australien KW - semi-parliamentarism KW - separation of powers KW - executive personalism KW - coalition formation KW - legislative success rates KW - party unity KW - Australia Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634498 ER -