TY - THES A1 - Knollmüller, Robert T1 - Zum Zusammenhang von Jahresnoten und Kompetenzen in der Neuen Mittelschule BT - eine empirisch-quantitative Studie im Unterrichtsfach Mathematik in der Sekundarstufe I in Niederösterreich N2 - Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen. Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung. An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben. Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen. N2 - The present study deals with the school model of the Neuen Mittelschule that emerged after a structural change in lower secondary education. It examines whether this school model and the new teaching, learning and examination cul-ture intended by it allow correlations to be established between the mathematical competences measured in the pupils and the annual marks awarded by the tea-chers. The literature research makes it clear that the criticism of the monoculture of teacher-centred teaching does lead to a new teaching, learning and examination culture, but its contents are quite different, complex and not clearly defined. In the NMS, performance assessment is supposed to function as a learning aid, but also to make reliable statements about the students' performance. There are no empirical findings on the effect of the new learning culture in the NMS, nor on the effect of performance assessment. The empirical study involves 79 sixth-grade pupils from three Neue Mittelschulen (densely populated, moderately populated, sparsely populated municipality) in Niederösterreich. In each school, two classes are examined. The level of compe-tence in mathematics, pupil-centredness as well as social and performance pres-sure from the pupils' point of view as well as the annual grade will be surveyed. A path model is developed for the study and evaluated with a path analysis. Although there are correlations between the competencies measured in mathema-tics and the annual grades, these annual grades are only of limited significance beyond the class or school. However, these annual grades have only limited significance for the performance achieved beyond the class or school. KW - Mathematik KW - Noten KW - Kompetenzen KW - mathematics KW - grades KW - competences Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591514 ER - TY - THES A1 - Afifi, Haitham T1 - Wireless In-Network Processing for Multimedia Applications T1 - Drahtlose In-Network-Verarbeitung für Multimedia-Anwendungen N2 - With the recent growth of sensors, cloud computing handles the data processing of many applications. Processing some of this data on the cloud raises, however, many concerns regarding, e.g., privacy, latency, or single points of failure. Alternatively, thanks to the development of embedded systems, smart wireless devices can share their computation capacity, creating a local wireless cloud for in-network processing. In this context, the processing of an application is divided into smaller jobs so that a device can run one or more jobs. The contribution of this thesis to this scenario is divided into three parts. In part one, I focus on wireless aspects, such as power control and interference management, for deciding which jobs to run on which node and how to route data between nodes. Hence, I formulate optimization problems and develop heuristic and meta-heuristic algorithms to allocate wireless and computation resources. Additionally, to deal with multiple applications competing for these resources, I develop a reinforcement learning (RL) admission controller to decide which application should be admitted. Next, I look into acoustic applications to improve wireless throughput by using microphone clock synchronization to synchronize wireless transmissions. In the second part, I jointly work with colleagues from the acoustic processing field to optimize both network and application (i.e., acoustic) qualities. My contribution focuses on the network part, where I study the relation between acoustic and network qualities when selecting a subset of microphones for collecting audio data or selecting a subset of optional jobs for processing these data; too many microphones or too many jobs can lessen quality by unnecessary delays. Hence, I develop RL solutions to select the subset of microphones under network constraints when the speaker is moving while still providing good acoustic quality. Furthermore, I show that autonomous vehicles carrying microphones improve the acoustic qualities of different applications. Accordingly, I develop RL solutions (single and multi-agent ones) for controlling these vehicles. In the third part, I close the gap between theory and practice. I describe the features of my open-source framework used as a proof of concept for wireless in-network processing. Next, I demonstrate how to run some algorithms developed by colleagues from acoustic processing using my framework. I also use the framework for studying in-network delays (wireless and processing) using different distributions of jobs and network topologies. N2 - Mit der steigenden Anzahl von Sensoren übernimmt Cloud Computing die Datenverarbeitung vieler Anwendungen. Dies wirft jedoch viele Bedenken auf, z. B. in Bezug auf Datenschutz, Latenzen oder Fehlerquellen. Alternativ und dank der Entwicklung eingebetteter Systeme können drahtlose intelligente Geräte für die lokale Verarbeitung verwendet werden, indem sie ihre Rechenkapazität gemeinsam nutzen und so eine lokale drahtlose Cloud für die netzinterne Verarbeitung schaffen. In diesem Zusammenhang wird eine Anwendung in kleinere Aufgaben unterteilt, so dass ein Gerät eine oder mehrere Aufgaben ausführen kann. Der Beitrag dieser Arbeit zu diesem Szenario gliedert sich in drei Teile. Im ersten Teil konzentriere ich mich auf drahtlose Aspekte wie Leistungssteuerung und Interferenzmanagement um zu entscheiden, welche Aufgaben auf welchem Knoten ausgeführt werden sollen und wie die Daten zwischen den Knoten weitergeleitet werden sollen. Daher formuliere ich Optimierungsprobleme und entwickle heuristische und metaheuristische Algorithmen zur Zuweisung von Ressourcen eines drahtlosen Netzwerks. Um mit mehreren Anwendungen, die um diese Ressourcen konkurrieren, umgehen zu können, entwickle ich außerdem einen Reinforcement Learning (RL) Admission Controller, um zu entscheiden, welche Anwendung zugelassen werden soll. Als Nächstes untersuche ich akustische Anwendungen zur Verbesserung des drahtlosen Durchsatzes, indem ich Mikrofon-Taktsynchronisation zur Synchronisierung drahtloser Übertragungen verwende. Im zweiten Teil arbeite ich mit Kollegen aus dem Bereich der Akustikverarbeitung zusammen, um sowohl die Netzwerk- als auch die Anwendungsqualitäten (d.h. die akustischen) zu optimieren. Mein Beitrag konzentriert sich auf den Netzwerkteil, wo ich die Beziehung zwischen akustischen und Netzwerkqualitäten bei der Auswahl einer Teilmenge von Mikrofonen für die Erfassung von Audiodaten oder der Auswahl einer Teilmenge von optionalen Aufgaben für die Verarbeitung dieser Daten untersuche; zu viele Mikrofone oder zu viele Aufgaben können die Qualität durch unnötige Verzögerungen verringern. Daher habe ich RL-Lösungen entwickelt, um die Teilmenge der Mikrofone unter Netzwerkbeschränkungen auszuwählen, wenn sich der Sprecher bewegt, und dennoch eine gute akustische Qualität gewährleistet. Außerdem zeige ich, dass autonome Fahrzeuge, die Mikrofone mit sich führen, die akustische Qualität verschiedener Anwendungen verbessern. Dementsprechend entwickle ich RL-Lösungen (Einzel- und Multi-Agenten-Lösungen) für die Steuerung dieser Fahrzeuge. Im dritten Teil schließe ich die Lücke zwischen Theorie und Praxis. Ich beschreibe die Eigenschaften meines Open-Source-Frameworks, das als Prototyp für die drahtlose netzinterne Verarbeitung verwendet wird. Anschließend zeige ich, wie einige Algorithmen, die von Kollegen aus der Akustikverarbeitung entwickelt wurden, mit meinem Framework ausgeführt werden können. Außerdem verwende ich das Framework für die Untersuchung von netzinternen Verzögerungen unter Verwendung verschiedener Aufgabenverteilungen und Netzwerktopologien. KW - wireless networks KW - reinforcement learning KW - network optimization KW - Netzoptimierung KW - bestärkendes Lernen KW - drahtloses Netzwerk Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604371 ER - TY - THES A1 - Verch, Ronald T1 - Whole-body electrical muscle stimulation superimposed walking as training tool in the management of type 2 diabetes mellitus T1 - Elektrische Ganzkörpermuskelstimulation überlagertes Gehen als Trainingsinstrument bei der Behandlung von Diabetes mellitus Typ 2 N2 - Background: The worldwide prevalence of diabetes has been increasing in recent years, with a projected prevalence of 700 million patients by 2045, leading to economic burdens on societies. Type 2 diabetes mellitus (T2DM), representing more than 95% of all diabetes cases, is a multifactorial metabolic disorder characterized by insulin resistance leading to an imbalance between insulin requirements and supply. Overweight and obesity are the main risk factors for developing type 2 diabetes mellitus. The lifestyle modification of following a healthy diet and physical activity are the primary successful treatment and prevention methods for type 2 diabetes mellitus. Problems may exist with patients not achieving recommended levels of physical activity. Electrical muscle stimulation (EMS) is an increasingly popular training method and has become in the focus of research in recent years. It involves the external application of an electric field to muscles, which can lead to muscle contraction. Positive effects of EMS training have been found in healthy individuals as well as in various patient groups. New EMS devices offer a wide range of mobile applications for whole-body electrical muscle stimulation (WB-EMS) training, e.g., the intensification of dynamic low-intensity endurance exercises through WB-EMS. This dissertation project aims to investigate whether WB-EMS is suitable for intensifying low-intensive dynamic exercises such as walking and Nordic walking. Methods: Two independent studies were conducted. The first study aimed to investigate the reliability of exercise parameters during the 10-meter Incremental Shuttle Walk Test (10MISWT) using superimposed WB-EMS (research question 1, sub-question a) and the difference in exercise intensity compared to conventional walking (CON-W, research question 1, sub-question b). The second study aimed to compare differences in exercise parameters between superimposed WB-EMS (WB-EMS-W) and conventional walking (CON-W), as well as between superimposed WB-EMS (WB-EMS-NW) and conventional Nordic walking (CON-NW) on a treadmill (research question 2). Both studies took place in participant groups of healthy, moderately active men aged 35-70 years. During all measurements, the Easy Motion Skin® WB-EMS low frequency stimulation device with adjustable intensities for eight muscle groups was used. The current intensity was individually adjusted for each participant at each trial to ensure safety, avoiding pain and muscle cramps. In study 1, thirteen individuals were included for each sub question. A randomized cross-over design with three measurement appointments used was to avoid confounding factors such as delayed onset muscle soreness. The 10MISWT was performed until the participants no longer met the criteria of the test and recording five outcome measures: peak oxygen uptake (VO2peak), relative VO2peak (rel.VO2peak), maximum walk distance (MWD), blood lactate concentration, and the rate of perceived exertion (RPE). Eleven participants were included in study 2. A randomized cross-over design in a study with four measurement appointments was used to avoid confounding factors. A treadmill test protocol at constant velocity (6.5 m/s) was developed to compare exercise intensities. Oxygen uptake (VO2), relative VO2 (rel.VO2) blood lactate, and the RPE were used as outcome variables. Test-retest reliability between measurements was determined using a compilation of absolute and relative measures of reliability. Outcome measures in study 2 were studied using multifactorial analyses of variances. Results: Reliability analysis showed good reliability for VO2peak, rel.VO2peak, MWD and RPE with no statistically significant difference for WB-EMS-W during 10WISWT. However, differences compared to conventional walking in outcome variables were not found. The analysis of the treadmill tests showed significant effects for the factors CON/WB-EMS and W/NW for the outcome variables VO2, rel.VO2 and lactate, with both factors leading to higher results. However, the difference in VO2 and relative VO2 is within the range of biological variability of ± 12%. The factor combination EMS∗W/NW is statistically non-significant for all three variables. WB-EMS resulted in the higher RPE values, RPE differences for W/NW and EMS∗W/NW were not significant. Discussion: The present project found good reliability for measuring VO2peak, rel. VO2peak, MWD and RPE during 10MISWT during WB-EMS-W, confirming prior research of the test. The test appears technically limited rather than physiologically in healthy, moderately active men. However, it is unsuitable for investigating differences in exercise intensities using WB-EMS-W compared to CON-W due to different perceptions of current intensity between exercise and rest. A treadmill test with constant walking speed was conducted to adjust individual maximum tolerable current intensity for the second part of the project. The treadmill test showed a significant increase in metabolic demands during WB-EMS-W and WB-EMS-NW by an increased VO2 and blood lactate concentration. However, the clinical relevance of these findings remains debatable. The study also found that WB-EMS superimposed exercises are perceived as more strenuous than conventional exercise. While in parts comparable studies lead to higher results for VO2, our results are in line with those of other studies using the same frequency. Due to the minor clinical relevance the use of WB-EMS as exercise intensification tool during walking and Nordic walking is limited. High device cost should be considered. Habituation to WB-EMS could increase current intensity tolerance and VO2 and make it a meaningful method in the treatment of T2DM. Recent figures show that WB-EMS is used in obese people to achieve health and weight goals. The supposed benefit should be further investigated scientifically. N2 - Hintergrund: Die weltweite Prävalenz von Diabetes hat in den letzten Jahren zugenommen. Bis zum Jahr 2045 wird mit einer Prävalenz von 700 Millionen Patienten gerechnet, was zu einer wirtschaftlichen Belastung für die Gesellschaft führt. Diabetes mellitus Typ 2, der mehr als 95 % aller Diabetesfälle ausmacht, ist eine multifaktorielle Stoffwechselstörung, die durch Insulinresistenz gekennzeichnet ist und zu einem Ungleichgewicht zwischen Insulinbedarf und -angebot führt. Übergewicht und Adipositas sind die Hauptrisikofaktoren für die Entwicklung von Diabetes mellitus Typ 2. Die Änderung des Lebensstils durch eine gesunde Ernährung und körperliche Aktivität ist die wichtigste und erfolgreichste Behandlungs- und Präventionsmethode für Diabetes mellitus Typ 2. Probleme können bei den Patienten bestehen, den empfohlenen Umfang an körperlicher Aktivität zu erreichen. Die elektrische Muskelstimulation (EMS) ist eine zunehmend beliebte Trainingsmethode, die in den letzten Jahren in den Mittelpunkt der Forschung gerückt ist. Dabei wird von außen ein elektrisches Feld an die Muskeln angelegt, was zu einer Muskelkontraktion führen kann. Positive Effekte des EMS-Trainings wurden sowohl bei gesunden Personen als auch in verschiedenen Patientengruppen gefunden. Neue EMS-Geräte bieten eine breite Palette mobiler Anwendungen für das Ganzkörper-EMS-Training (WB-EMS), z.B. die Intensivierung von dynamischen Ausdauerübungen mit niedriger Intensität durch WB-EMS. In diesem Dissertationsprojekt soll untersucht werden, ob die WB-EMS zur Intensivierung von dynamischen Übungen mit geringer Intensität wie Walking und Nordic Walking geeignet ist. Methodik: Zwei unabhängige Studien wurden durchgeführt. In der ersten Studie wurden die Zuverlässigkeit von Belastungsparametern während des 10-Meter-Inkremental-Penlde-Gehtests (10MISWT) unter Verwendung von überlagertem WB-EMS (Forschungsfrage 1, Unterfrage a) und der Unterschied in der Belastungsintensität zum konventionellen Gehen (Forschungsfrage 1, Unterfrage b) untersucht. Die zweite Studie beschäftigte sich mit Unterschieden in Belastungsparametern zwischen überlagertem WB-EMS (WB-EMS-W) und konventionellem Gehen (CON-W) sowie zwischen überlagertem WB-EMS (WB-EMS-NW) und konventionellem Nordic Walking (CON-NW) auf einem Laufband zu vergleichen (Forschungsfrage 2). Beide Studien wurden an Teilnehmergruppen von gesunden, mäßig aktiven Männern im Alter von 35-70 Jahren durchgeführt. Bei allen Messungen wurde das Niederfrequenz-Stimulationsgerät Easy Motion Skin® für WB-EMS mit einstellbaren Intensitäten für acht Muskelgruppen verwendet. Um die Sicherheit zu gewährleisten und Schmerzen und Muskelkrämpfe zu vermeiden, wurde die Stromintensität für jeden Teilnehmer bei jedem Versuch individuell angepasst. In Studie 1 wurden dreizehn Personen für jede Unterfrage einbezogen. Es wurde ein randomisiertes Cross-over-Design mit drei Messterminen verwendet, um Störfaktoren wie z. B. einen verzögert einsetzenden Muskelkater zu vermeiden. Der 10MISWT wurde so lange durchgeführt, bis die Teilnehmer die Kriterien des Tests, das Erreichen des Kegels bis zum nächsten akustischen Signal, nicht mehr erfüllten. Fünf Ergebnisgrößen erfasst wurden: Spitzenwertmessung der Sauerstoffaufnahme (VO2peak), relative VO2peak (rel.VO2peak), maximale Gehstrecke (MWD), Blutlaktatkonzentration und der Grad der wahrgenommenen Anstrengung (RPE). Elf Teilnehmer wurden in Studie 2 eingeschlossen. Um Störfaktoren zu vermeiden, wurde ein randomisiertes Cross-over-Design in einer Studie mit vier Messterminen verwendet. Es wurde ein Laufbandtestprotokoll mit konstanter Geschwindigkeit (6,5 m/s) entwickelt, um die Belastungsintensitäten zu vergleichen. Sauerstoffaufnahme (VO2), relative VO2 (rel. VO2), Blutlaktat und der RPE wurden als Ergebnisvariablen verwendet. Die Test-Retest-Reproduzierbarkeit zwischen den Messungen wurde anhand einer Zusammenstellung absoluter und relativer Zuverlässigkeitsmaße ermittelt. Die Ergebnisgrößen in Studie 2 wurden mit Hilfe multifaktorieller Varianzanalysen untersucht. Ergebnisse: Die Reliabilitätsanalyse zeigte eine gute Zuverlässigkeit für VO2peak, rel.VO2peak, MWD und RPE ohne statistisch signifikanten Unterschied für das WB-EMS überlagerte Gehen zwischen den beiden Messungen während des 10WISWT. Es wurden jedoch keine Unterschiede bei den Ergebnisvariablen im Vergleich zum konventionellen Gehen festgestellt. Die Analyse der Laufbandtests zeigte signifikante Effekte für die Faktoren CON/WB-EMS und W/NW für die Ergebnisvariablen VO2, rel.VO2 und Laktat, wobei beide Faktoren zu höheren Ergebnissen führten. Der Unterschied bei VO2 und rel.VO2 liegt jedoch im Bereich der biologischen Variabilität von ± 12 %. Die Faktorenkombination EMS∗W/NW ist für alle drei Variablen statistisch nicht signifikant. WB-EMS führte zu den höheren RPE-Werten, die RPE-Unterschiede für W/NW und EMS∗W/NW waren nicht signifikant. Diskussion: Das vorliegende Projekt ergab eine gute Zuverlässigkeit bei der Messung von VO2peak, rel.VO2peak, MWD und RPE während des 10MISWT mit WB-EMS-Überlagerung beim Gehen, was frühere Untersuchungen zu diesem Test bestätigen. Der Test scheint bei gesunden, mäßig aktiven Männern eher technisch als physiologisch begrenzt zu sein. Er ist jedoch ungeeignet für die Untersuchung von Unterschieden in der Belastungsintensität bei überlagertem WB-EMS im Vergleich zum herkömmlichen Gehen, da die Stromstärkenintensität des WB-EMS zwischen Belastung und Ruhe unterschiedlich wahrgenommen wird. Für den zweiten Teil des Projekts wurde ein Laufbandtest mit konstanter Gehgeschwindigkeit durchgeführt, um die individuell maximal tolerierbare Stromintensität während der Belastung einzustellen. Der Laufbandtest zeigte eine signifikante Erhöhung der metabolischen Anforderungen während des WB-EMS überlagerten Gehens und des Nordic Walking durch eine erhöhte VO2 und Blutlaktatkonzentration. Die klinische Relevanz dieser Ergebnisse bleibt jedoch umstritten. Die Studie ergab auch, dass WB-EMS-überlagerte Übungen als anstrengender empfunden werden als konventionelle Übungen. Während vergleichbare Studien zum Teil zu höheren VO2-Werten führen, stimmen unsere Ergebnisse mit denen anderer Studien überein, welche dieselbe Stromfrequenz verwenden. Aufgrund der bisher fehlenden klinischen Relevanz ist der Einsatz von WB-EMS zur Trainingsintensivierung beim Gehen und Nordic Walking begrenzt. Die hohen Gerätekosten sollten berücksichtigt werden. Die Gewöhnung an WB-EMS könnte die Toleranz gegenüber der aktuellen Intensität erhöhen, die VO2 weiter steigern und es zu einer sinnvollen Methode für die Behandlung von T2DM machen. Jüngste Zahlen zeigen, dass WB-EMS bei adipösen Menschen eingesetzt wird, um Gesundheits- und Gewichtsziele zu erreichen, der vermeintliche Nutzen sollte wissenschaftlich weiter untersucht werden. KW - whole-body electrical muscle stimulation KW - walking KW - type 2 diabetes mellitus KW - Diabetes mellitus Typ 2 KW - Gehen KW - elektrische Ganzkörpermuskelstimulation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634240 ER - TY - THES A1 - Fortes Martín, Rebeca T1 - Water-in-oil microemulsions as soft-templates to mediate nanoparticle interfacial assembly into hybrid nanostructures T1 - Wasser-in-Öl Mikroemulsionen als Soft-Templat für die Grenzfläche-Anordnung von Nanopartikeln in hybride Nanostrukturen T1 - Microemulsiones de aceite-en-agua como estructuras templadas blandas para el ensamblaje de nanoparticulas en su interfase dando nanoestructuras híbridas N2 - Hybrid nanomaterials offer the combination of individual properties of different types of nanoparticles. Some strategies for the development of new nanostructures in larger scale rely on the self-assembly of nanoparticles as a bottom-up approach. The use of templates provides ordered assemblies in defined patterns. In a typical soft-template, nanoparticles and other surface-active agents are incorporated into non-miscible liquids. The resulting self-organized dispersions will mediate nanoparticle interactions to control the subsequent self-assembly. Especially interactions between nanoparticles of very different dispersibility and functionality can be directed at a liquid-liquid interface. In this project, water-in-oil microemulsions were formulated from quasi-ternary mixtures with Aerosol-OT as surfactant. Oleyl-capped superparamagnetic iron oxide and/or silver nanoparticles were incorporated in the continuous organic phase, while polyethyleneimine-stabilized gold nanoparticles were confined in the dispersed water droplets. Each type of nanoparticle can modulate the surfactant film and the inter-droplet interactions in diverse ways, and their combination causes synergistic effects. Interfacial assemblies of nanoparticles resulted after phase-separation. On one hand, from a biphasic Winsor type II system at low surfactant concentration, drop-casting of the upper phase afforded thin films of ordered nanoparticles in filament-like networks. Detailed characterization proved that this templated assembly over a surface is based on the controlled clustering of nanoparticles and the elongation of the microemulsion droplets. This process offers versatility to use different nanoparticle compositions by keeping the surface functionalization, in different solvents and over different surfaces. On the other hand, a magnetic heterocoagulate was formed at higher surfactant concentration, whose phase-transfer from oleic acid to water was possible with another auxiliary surfactant in ethanol-water mixture. When the original components were initially mixed under heating, defined oil-in-water, magnetic-responsive nanostructures were obtained, consisting on water-dispersible nanoparticle domains embedded by a matrix-shell of oil-dispersible nanoparticles. Herein, two different approaches were demonstrated to form diverse hybrid nanostructures from reverse microemulsions as self-organized dispersions of the same components. This shows that microemulsions are versatile soft-templates not only for the synthesis of nanoparticles, but also for their self-assembly, which suggest new approaches towards the production of new sophisticated nanomaterials in larger scale. N2 - Hybride Nanomaterialen ermöglichen die Kombination von individuellen Eigenschaften jeder Art von Nanopartikeln. Einige Strategien für die Herstellung neuer großskaliger Nanostrukturen beruhen auf der Selbstassemblierung von Nanopartikeln über einen Bottom-up-Ansatz. Die Nutzung von Templatstrukturen ermöglicht Anordnungen in definierten Mustern. In einem typischen Soft-Templat werden Nanopartikel und andere oberflächenaktive Wirkstoffe in nicht-mischbare Flüssigkeiten eingebracht. Die resultierenden selbst-organisierten Dispersionen beeinflussen die Nanopartikel Interaktionen und kontrollieren die nachfolgende Selbstassemblierung. Insbesondere Interaktionen zwischen Nanopartikeln mit sehr unterschiedlicher Dispergierbarkeit und Funktionalität können Interaktionen an einer Flüssig-Flüssig Grenzfläche gerichtet werden. In diesem Forschungsprojekt wurden Wasser-in-Öl Mikroemulsionen aus quasi-ternären Mischungen mit Aerosol-OT als Tensid hergestellt. Oleyl-beschichtete superparamagnetische Eisenoxid und/oder Silber Nanopartikel wurden in der kontinuierlichen Ölphase eingebracht, während die Polyethyleneimin-stabilisierten Gold Nanopartikel in feinverteilte Wassertröpfchen inkorporiert wurden. Jede Sorte von Nanopartikeln kann den Tensidfilm und die Tröpfchen-Interaktionen auf verschiedene Weise beeinflussen, und seine Kombination führt dabei zu synergetischen Effekten. Die Anordnung von Nanopartikeln an der Grenzfläche basiert auf der Phasentrennung. Auf der einen Seite, bildeten sich aus einem zweiphasigen Winsor II System mit niedrigen Tensid Konzentrationen durch Evaporation der oberen Phase dünne Schichten aus geordneten Nanopartikeln in Form von Filament-Netzen aus. Eine detaillierte Charakterisierung zeigte, dass die Filament-artige Strukturierung auf ein kontrolliertes Nanopartikeln-Clustering und auf die Ausdehnung der Mikroemulsions-Tröpfchen zurückzuführen ist. Dieser Prozess eröffnet flexible Einsatzmöglichkeiten für unterschiedliche Nanopartikel Kompositionen, indem die Oberflächenfunktionalisierung in unterschiedlichen Lösungsmitteln erhalten bleibt, und auch für verschiedenen Lösungsmitteln und über verschiedene Flächen. Auf der anderen Seite wurde ein magnetisches Heterokoagulat in höheren Tensid Konzentration hergestellt, dessen Phasentransfer von Ölsäure in Wasser mit einem anderen zusätzlichen Tensid in einer Ethanol-Wasser Mischung ermöglicht wurde. In Abhängigkeit von der Ausgangstemperatur der initialen Komponenten konnten definierte magnetisch-stimulierbare Öl-in-Wasser Nanostrukturen erhaltet werden. Dabei gelang es Wasser-dispergierbare Nanopartikelkompartimente in eine Matrix-Hülle aus Öl-dispergierbaren Nanopartikeln einzubetten. In dieser Arbeit wurden zwei verschiedene Wege aufgezeigt, um hybride Nanostrukturen aus inversen Mikroemulsionen selbst-organisiert herzustellen. Dies belegt, dass Mikroemulsions-Template nicht nur für die Nanopartikel Synthese geeignet sind, sondern auch für die Herstellung filamentartiger, selbstorganisierter Systeme. Es eröffnen sich hiermit neue Zugänge für die selbstorganisierte Strukturierung von Nanopartikeln auf der Mikrometerskala. N2 - Los nanomateriales híbridos ofrecen la combinación de propiedades individuales de diferentes tipos de nanopartículas. Algunas estrategias para el desarrollo de nuevas nanoestructuras en mayor escala se basan en el auto-ensamblaje (self-assembly) de nanopartículas, como una estrategia “de abajo hacia arriba” (bottom-up). El uso de estructuras de plantilla (templates) proporciona ensamblajes ordenados de formas definidas. En una plantilla blanda típica, las nanopartículas y otros agentes de actividad superficial se incorporan en líquidos no miscibles. Esto da lugar a dispersiones auto-organizadas que mediarán las interacciones entre las nanopartículas, para controlar su auto-ensamblaje resultante. Especialmente las interacciones entre nanopartículas de dispersibilidad y funcionalidades muy diferentes pueden ser redirigidas a una interfase líquido-líquido. En este proyecto se formularon microemulsiones de agua-en-aceite a partir de mezclas cuasi-ternarias con Aerosol-OT (docusato de sodio) como tensioactivo. Las nanopartículas cubiertas de ligandos oleicos, de óxido de hierro superparamagnéticas o de plata, se incorporaron en la fase orgánica continua, mientras que las nanopartículas de oro estabilizadas por polietilenimina fueron confinadas en las gotículas de agua dispersas. Cada tipo de nanopartícula puede modular de fomas muy diversas la capa de tensioactivo y las interacciones entre gotículas, y además su combinación resulta en efectos sinérgicos. Los ensamblajes interfase de nanopartículas se obtuvieron bajo procesos de separación entre fases. Por un lado, a partir de un sistema bifásico de Winsor del tipo II con baja concentración del tensioactivo, la deposición y evaporación de una gota sobre una superficie (drop-casting) de la fase superior proporcionó películas finas de nanopartículas ordenadas como redes de filamentos. Su caracterización detallada probó que este ensamblaje por plantilla sobre una superficie se basa en un agrupamiento (clustering) controlado entre nanopartículas y en la elongación de las gotículas de microemulsiones. Este proceso ofrece versatilidad para usar diferentes composiciones de nanopartículas siempre que su funcionalidad en su superficie se mantenga, además de poder usar diferentes disolventes y sobre diferentes superficies. Por otro lado, un heterocoagulado magnético se formó sobre concentraciones más altas del tensioactivo, y su transferencia de fase desde ácido oleico a agua fue posible usando otro tensioactivo auxiliar en una mezcla de agua y etanol. Cuando los componentes iniciales fueron mezclados al principio bajo calentamiento, se obtuvieron nanoestucturas definidas de aceite-en-agua que responden a un imán, las cuales consisten de dominios de nanopartículas dispersibles en agua que se rodean por un embalaje (matrix-shell) de nanopartículas dispersibles en fase oleosa. De este modo, se demostraron dos propuestas para formar diversos tipos de nanoestructuras híbridas a partir de microemulsiones inversas como dispersiones auto-organizadas de unos mismos componentes. Esto demuestra que las microemulsiones constituyen estructuras de plantilla blandas no sólo para la síntesis de nanopartículas, sino también para su auto-ensamblaje, lo que sugiere novedosas estrategias para la producción de nuevos nanomateriales sofisticados en mayor escala. KW - microemulsions KW - nanoparticles KW - surfactants KW - Colloid Chemistry KW - soft-templates KW - nanostructures KW - nanoparticle assembly KW - hybrid nanostructures KW - Kolloidchemie KW - hybride Nanostrukturen KW - Mikroemulsionen KW - Nanopartikeln-Anordnung KW - Nanopartikeln KW - Nanostrukturen KW - Soft-Templaten KW - Tenside KW - Química de Coloides KW - nanoestructuras híbridas KW - microemulsiones KW - ensamblaje de nanopartículas KW - nanopartículas KW - nanoestructuras KW - estructuras templadas blandas KW - tensioactivos Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571801 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Giuri, Chiara T1 - VERITAS Dark Matter search in dwarf spheroidal galaxies: an extended analysis T1 - VERITAS-Suche nach dunkler Materie in sphäroidischen Zwerggalaxien: eine erweiterte Analyse” N2 - In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Haß, Ulrike T1 - Vergleich anti-inflammatorischer Ernährungsstrategien auf Inflammation und Muskelfunktion bei älteren Erwachsenen T1 - Comparison of anti-inflammatory dietary approaches on inflammation and muscle function in old adults N2 - Mit dem Alter kann eine Zunahme leichtgradiger Entzündungsprozesse beobachtet werden, von denen angenommen wird, dass sie den typischen, altersbedingten Verlust an Muskelmasse, -kraft und -funktion „befeuern“. Diese als Inflammaging bezeichneten Prozesse können auf ein komplexes Zusammenspiel aus einem dysfunktionalen (viszeralen) Fettgewebe, einer Dysbiose und damit einhergehender mikrobiellen Translokation und geringeren Abwehrfähigkeit sowie einer insgesamt zunehmenden Immunseneszenz zurückgeführt werden. In Summa begünstigt ein pro-inflammatorisches Milieu metabolische Störungen und chronische, altersassoziierte Erkrankungen, die das Entzündungsgeschehen aufrechterhalten oder vorantreiben. Neben einem essenziellen Bewegungsmangel trägt auch eine westlich geprägte, industrialisierte Ernährungsweise zum Entzündungsgeschehen und zur Entwicklung chronischer Erkrankungen bei. Daher liegt die Vermutung nahe, dem Entzündungsgeschehen mit ausreichend Bewegung und einer anti-inflammatorischen Ernährung entgegenzuwirken. In dieser Hinsicht werden insbesondere Omega-3-Fettsäuren (Omega-3) mit anti-inflammatorischen Eigenschaften verbunden. Obwohl ein Zusammenhang zwischen dem ernährungsbedingten Inflammationspotenzial bzw. der Zufuhr von Omega-3 und dem Inflammationsprofil bereits untersucht wurde, fehlen bislang Untersuchungen insbesondere bei älteren Erwachsenen, die den Link zwischen dem Inflammationspotenzial der Ernährung und Sarkopenie-relevanten Muskelparametern herstellen. Aufgrund des Proteinmehrbedarfs zum Erhalt der funktionellen Muskulatur im Alter wurde bereits eine Vielzahl an Sport- und Ernährungsinterventionen durchgeführt, die eine Verbesserung des Muskelstatus mit Hilfe von strukturiertem Krafttraining und einer proteinreichen Ernährung zeigen. Es gibt zudem Hinweise, dass Omega-3 auch die Proteinsynthese verstärken könnten. Unklar ist jedoch, inwiefern eine anti-inflammatorische Ernährung mit Fokus auf Omega-3 sowohl die Entzündungsprozesse als auch den Muskelproteinmetabolismus und die neuromuskuläre Funktionalität im Alter günstig unterstützen kann. Dies vor allem im Hinblick auf die Muskelleistung, die eng mit der Sturzneigung und der Autonomie im Alltag verknüpft ist, aber in Interventionsstudien mit älteren Erwachsenen bisher wenig Berücksichtigung erhielt. Darüber hinaus werden häufig progressive Trainingselemente genutzt, die nach Studienabschluss oftmals wenig Anschluss im Lebensalltag der Betroffenen finden und somit wenig nachhaltig sind. Ziel dieser Arbeit war demnach die Evaluierung einer proteinreichen und zusätzlich mit Omega-3 supplementierten Ernährung in Kombination mit einem wöchentlichen Vibrationstraining und altersgemäßen Bewegungsprogramm auf Inflammation und neuromuskuläre Funktion bei älteren, selbständig lebenden Erwachsenen. Hierzu wurden zunächst mögliche Zusammenhänge zwischen dem ernährungsbedingten Inflammationspotenzial, ermittelt anhand des Dietary Inflammatory Index, und dem Muskelstatus sowie dem Inflammationsprofil im Alter eruiert. Dazu dienten die Ausgangswerte von älteren, selbständig lebenden Erwachsenen einer postprandialen Interventionsstudie (POST-Studie), die im Querschnitt analysiert wurden. Die Ergebnisse bestätigten, dass eine pro-inflammatorische Ernährung sich einerseits in einem stärkeren Entzündungsgeschehen widerspiegelt und andererseits mit Sarkopenie-relevanten Parametern, wie einer geringeren Muskelmasse und Gehgeschwindigkeit, ungünstig assoziiert ist. Darüber hinaus zeigten sich diese Zusammenhänge auch in Bezug auf die Handgreifkraft bei den inaktiven, älteren Erwachsenen der Studie. Anschließend wurde in einer explorativ ausgerichteten Pilot-Interventionsstudie (AIDA-Studie) in einem dreiarmigen Design untersucht, inwieweit sich eine Supplementierung mit Omega-3 unter Voraussetzung einer optimierten Proteinzufuhr und altersgemäßen Sportintervention mit Vibrationstraining auf die neuromuskuläre Funktion und Inflammation bei selbständig lebenden, älteren Erwachsenen auswirkt. Nach acht Wochen Intervention zeigte sich, dass eine mit Omega-3 supplementierte, proteinreiche Ernährung die Muskelleistung insbesondere bei den älteren Männern steigerte. Während sich die Kontrollgruppe nach acht Wochen Sportintervention nicht verbesserte, bestätigte sich zusätzlich eine Verbesserung der Beinkraft und der Testzeit beim Stuhl-Aufsteh-Test der älteren Erwachsenen mit einer proteinreichen Ernährung in Kombination mit der Sportintervention. Darüber hinaus wurde deutlich, dass die zusätzliche Omega-3-Supplementierung insbesondere bei den Männern eine Reduktion der pro-inflammatorischen Zytokine im Serum zur Folge hatte. Allerdings spiegelten sich diese Beobachtungen nicht auf Genexpressionsebene in mononukleären Immunzellen oder in der LPS-induzierten Sekretion der Zytokine und Chemokine in Vollblutzellkulturen wider. Dies erfordert weitere Untersuchungen. N2 - With aging, a persistent low-grade inflammatory process can be observed, which is thought to "fuel" the typical age-related loss of muscle mass, strength and function. These processes, also known as inflammaging, can be attributed to a complex interplay of dysfunctional (visceral) adipose tissue, dysbiosis and associated microbial translocation, with a reduced immune defence and overall increasing immunosenescence. This pro-inflammatory milieu favours metabolic disorders and chronic, age-associated diseases, which in turn maintain or increase the inflammatory process. Additionally, inactivity and a westernized diet contribute to inflammation and the development of chronic diseases. Therefore, it is assumed that regular exercise and an anti-inflammatory diet can counteract inflammaging. In particular, omega-3 fatty acids (omega-3) are known for their anti-inflammatory properties. Although it has been shown that the dietary inflammatory load as well as the intake of omega-3 is associated with inflammation, studies that establish the link between the diet-related inflammatory load and sarcopenia-relevant muscle parameters are still lacking, especially in older adults. Due to the higher protein requirement to maintain muscle function in higher age, exercise and nutritional interventions have been extensively studied and consistently show improvements in muscle status with resistance exercise and high-protein diets. Experimental investigations indicate that omega-3 may also support protein synthesis. However, it is unclear to what extent an anti-inflammatory diet with focus on omega-3 can support the inflammatory processes as well as muscle protein metabolism and neuromuscular function in higher age. In particular muscle power, which is a key element of functionality and strongly related with fall risk, received little attention in interventional studies with older adults so far. In addition, exercise studies often use elements of progressive resistance training protocols, which, however, are seldom sustained by the participants in everyday life after intervention. Therefore, the aim of this work was to evaluate a high-protein diet supplemented with omega-3 in combination with an age-appropriate, home-based resistance exercise program and weekly vibration training on inflammation and neuromuscular function in community-dwelling older adults. For this purpose, cross-sectional associations between the diet-related inflammatory load, as determined by the Dietary Inflammatory Index, and muscle status as well as inflammation were investigated by baseline values of community-dwelling older adults, who participated in a postprandial intervention study (POST study). This cross-sectional analysis confirmed that a pro-inflammatory diet was reflected in a higher systemic inflammation and at the same time was associated with unfavourable sarcopenia-relevant parameters such as lower muscle mass and slower gait speed. In addition, a higher dietary inflammatory load and higher inflammation were both found to be associated with lower hand grip strength in inactive, older adults. Subsequently, the effects of an omega-3 supplemented, high-protein diet in combination with age-appropriate resistance exercises and weekly vibration training on neuromuscular function and inflammation were examined in community-dwelling older adults. For this purpose, an 8-week exploratory pilot trial in a three-arm study design (AIDA study) was carried out. It was shown that a high-protein diet, additionally supplemented with omega-3 increased muscle power particularly in older men. While the control group did not improve after eight weeks of exercise intervention, there was an improvement in leg strength and chair rise time in older adults receiving a high-protein diet combined with the exercise intervention. Moreover, an additional omega-3 supplementation resulted in a reduction of circulating pro-inflammatory cytokines in particular in older men. However, these observations in serum were not reflected on gene expression levels in mononuclear immune cells or in lipopolysaccharide-induced secretion of the cytokines and chemokines in whole blood cultures and requires further investigation. KW - Ernährung KW - nutrition KW - Gerontologie KW - gerontology KW - Sport KW - exercise KW - Muskelschwund KW - sarcopenia KW - Hoch-Protein Diät KW - high protein diet KW - Omega-3 Fettsäuren KW - omega-3 fatty acid Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611976 ER - TY - THES A1 - Lindinger, Jakob T1 - Variational inference for composite Gaussian process models T1 - Variationelle Inferenz für zusammengesetzte Gauß-Prozess Modelle N2 - Most machine learning methods provide only point estimates when being queried to predict on new data. This is problematic when the data is corrupted by noise, e.g. from imperfect measurements, or when the queried data point is very different to the data that the machine learning model has been trained with. Probabilistic modelling in machine learning naturally equips predictions with corresponding uncertainty estimates which allows a practitioner to incorporate information about measurement noise into the modelling process and to know when not to trust the predictions. A well-understood, flexible probabilistic framework is provided by Gaussian processes that are ideal as building blocks of probabilistic models. They lend themself naturally to the problem of regression, i.e., being given a set of inputs and corresponding observations and then predicting likely observations for new unseen inputs, and can also be adapted to many more machine learning tasks. However, exactly inferring the optimal parameters of such a Gaussian process model (in a computationally tractable manner) is only possible for regression tasks in small data regimes. Otherwise, approximate inference methods are needed, the most prominent of which is variational inference. In this dissertation we study models that are composed of Gaussian processes embedded in other models in order to make those more flexible and/or probabilistic. The first example are deep Gaussian processes which can be thought of as a small network of Gaussian processes and which can be employed for flexible regression. The second model class that we study are Gaussian process state-space models. These can be used for time-series modelling, i.e., the task of being given a stream of data ordered by time and then predicting future observations. For both model classes the state-of-the-art approaches offer a trade-off between expressive models and computational properties (e.g. speed or convergence properties) and mostly employ variational inference. Our goal is to improve inference in both models by first getting a deep understanding of the existing methods and then, based on this, to design better inference methods. We achieve this by either exploring the existing trade-offs or by providing general improvements applicable to multiple methods. We first provide an extensive background, introducing Gaussian processes and their sparse (approximate and efficient) variants. We continue with a description of the models under consideration in this thesis, deep Gaussian processes and Gaussian process state-space models, including detailed derivations and a theoretical comparison of existing methods. Then we start analysing deep Gaussian processes more closely: Trading off the properties (good optimisation versus expressivity) of state-of-the-art methods in this field, we propose a new variational inference based approach. We then demonstrate experimentally that our new algorithm leads to better calibrated uncertainty estimates than existing methods. Next, we turn our attention to Gaussian process state-space models, where we closely analyse the theoretical properties of existing methods.The understanding gained in this process leads us to propose a new inference scheme for general Gaussian process state-space models that incorporates effects on multiple time scales. This method is more efficient than previous approaches for long timeseries and outperforms its comparison partners on data sets in which effects on multiple time scales (fast and slowly varying dynamics) are present. Finally, we propose a new inference approach for Gaussian process state-space models that trades off the properties of state-of-the-art methods in this field. By combining variational inference with another approximate inference method, the Laplace approximation, we design an efficient algorithm that outperforms its comparison partners since it achieves better calibrated uncertainties. N2 - Bei Vorhersagen auf bisher ungesehenen Datenpunkten liefern die meisten maschinellen Lernmethoden lediglich Punktprognosen. Dies kann problematisch sein, wenn die Daten durch Rauschen verfälscht sind, z. B. durch unvollkommene Messungen, oder wenn der abgefragte Datenpunkt sich stark von den Daten unterscheidet, mit denen das maschinelle Lernmodell trainiert wurde. Mithilfe probabilistischer Modellierung (einem Teilgebiet des maschinellen Lernens) werden die Vorhersagen der Methoden auf natürliche Weise durch Unsicherheiten ergänzt. Dies erlaubt es, Informationen über Messunsicherheiten in den Modellierungsprozess mit einfließen zu lassen, sowie abzuschätzen, bei welchen Vorhersagen dem Modell vertraut werden kann. Grundlage vieler probabilistischer Modelle bilden Gaußprozesse, die gründlich erforscht und äußerst flexibel sind und daher häufig als Bausteine für größere Modelle dienen. Für Regressionsprobleme, was heißt, von einem Datensatz bestehend aus Eingangsgrößen und zugehörigen Messungen auf wahrscheinliche Messwerte für bisher ungesehene Eingangsgrößen zu schließen, sind Gaußprozesse hervorragend geeignet. Zusätzlich können sie an viele weitere Aufgabenstellungen des maschinellen Lernens angepasst werden. Die Bestimmung der optimalen Parameter eines solchen Gaußprozessmodells (in einer annehmbaren Zeit) ist jedoch nur für Regression auf kleinen Datensätzen möglich. In allen anderen Fällen muss auf approximative Inferenzmethoden zurückgegriffen werden, wobei variationelle Inferenz die bekannteste ist. In dieser Dissertation untersuchen wir Modelle, die Gaußprozesse eingebettet in andere Modelle enthalten, um Letztere flexibler und/oder probabilistisch zu machen. Das erste Beispiel hierbei sind tiefe Gaußprozesse, die man sich als kleines Netzwerk von Gaußprozessen vorstellen kann und die für flexible Regression eingesetzt werden können. Die zweite Modellklasse, die wir genauer analysieren ist die der Gaußprozess-Zustandsraummodelle. Diese können zur Zeitreihenmodellierung verwendet werden, das heißt, um zukünftige Datenpunkte auf Basis eines nach der Zeit geordneten Eingangsdatensatzes vorherzusagen. Für beide genannten Modellklassen bieten die modernsten Ansatze einen Kompromiss zwischen expressiven Modellen und wunschenswerten rechentechnischen Eigenschaften (z. B. Geschwindigkeit oder Konvergenzeigenschaften). Desweiteren wird für die meisten Methoden variationelle Inferenz verwendet. Unser Ziel ist es, die Inferenz für beide Modellklassen zu verbessern, indem wir zunächst ein tieferes Verständnis der bestehenden Ansätze erlangen und darauf aufbauend bessere Inferenzverfahren entwickeln. Indem wir die bestehenden Kompromisse der heutigen Methoden genauer untersuchen, oder dadurch, dass wir generelle Verbesserungen anbieten, die sich auf mehrere Modelle anwenden lassen, erreichen wir dieses Ziel. Wir beginnen die Thesis mit einer umfassender Einführung, die den notwendigen technischen Hintergrund zu Gaußprozessen sowie spärlichen (approximativen und effizienten) Gaußprozessen enthält. Anschließend werden die in dieser Thesis behandelten Modellklassen, tiefe Gaußprozesse und Gaußprozess-Zustandsraummodelle, eingeführt, einschließlich detaillierter Herleitungen und eines theoretischen Vergleichs existierender Methoden. Darauf aufbauend untersuchen wir zuerst tiefe Gaußprozesse genauer und entwickeln dann eine neue Inferenzmethode. Diese basiert darauf, die wünschenswerten Eigenschaften (gute Optimierungseigenschaften gegenüber Expressivität) der modernsten Ansätze gegeneinander abzuwägen. Anschließend zeigen wir experimentell, dass unser neuer Algorithmus zu besser kalibrierten Unsicherheitsabschätzungen als bei bestehenden Methoden führt. Als Nächstes wenden wir uns Gaußprozess-Zustandsraummodelle zu, wo wir zuerst die theoretischen Eigenschaften existierender Ansätze genau analysieren. Wir nutzen das dabei gewonnene Verständnis, um ein neues Inferenzverfahren für Gaußprozess-Zustandsraummodelle einzuführen, welches Effekte auf verschiedenen Zeitskalen berücksichtigt. Für lange Zeitreihen ist diese Methode effizienter als bisherige Ansätze. Darüber hinaus übertrifft sie ihre Vergleichspartner auf Datensätzen, bei denen Effekte auf mehreren Zeitskalen (sich schnell und langsam verändernde Signale) auftreten. Zuletzt schlagen wir ein weiteres neues Inferenzverfahren für Gaußprozess-Zustandsraummodelle vor, das die Eigenschaften der aktuellsten Methoden auf diesem Gebiet gegeneinander abwägt. Indem wir variationelle Inferenz mit einem weiteren approximativen Inferenzverfahren, der Laplace- Approximation, kombinieren, entwerfen wir einen effizienten Algorithmus der seine Vergleichspartner dadurch übertrifft, dass er besser kalibrierte Unsicherheitsvorhersagen erzielt. KW - probabilistic machine learning KW - Gaussian processes KW - variational inference KW - deep Gaussian processes KW - Gaussian process state-space models KW - Gauß-Prozess Zustandsraummodelle KW - Gauß-Prozesse KW - tiefe Gauß-Prozesse KW - probabilistisches maschinelles Lernen KW - variationelle Inferenz Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604441 ER - TY - THES A1 - Aktas, Berfin T1 - Variation in coreference patterns BT - analyses across language modes and genres N2 - This thesis explores the variation in coreference patterns across language modes (i.e., spoken and written) and text genres. The significance of research on variation in language use has been emphasized in a number of linguistic studies. For instance, Biber and Conrad [2009] state that “register/genre variation is a fundamental aspect of human language” and “Given the ubiquity of register/genre variation, an understanding of how linguistic features are used in patterned ways across text varieties is of central importance for both the description of particular languages and the development of cross-linguistic theories of language use.”[p.23] We examine the variation across genres with the primary goal of contributing to the body of knowledge on the description of language use in English. On the computational side, we believe that incorporating linguistic knowledge into learning-based systems can boost the performance of automatic natural language processing systems, particularly for non-standard texts. Therefore, in addition to their descriptive value, the linguistic findings we provide in this study may prove to be helpful for improving the performance of automatic coreference resolution, which is essential for a good text understanding and beneficial for several downstream NLP applications, including machine translation and text summarization. In particular, we study a genre of texts that is formed of conversational interactions on the well-known social media platform Twitter. Two factors motivate us: First, Twitter conversations are realized in written form but resemble spoken communication [Scheffler, 2017], and therefore they form an atypical genre for the written mode. Second, while Twitter texts are a complicated genre for automatic coreference resolution, due to their widespread use in the digital sphere, at the same time they are highly relevant for applications that seek to extract information or sentiments from users’ messages. Thus, we are interested in discovering more about the linguistic and computational aspects of coreference in Twitter conversations. We first created a corpus of such conversations for this purpose and annotated it for coreference. We are interested in not only the coreference patterns but the overall discourse behavior of Twitter conversations. To address this, in addition to the coreference relations, we also annotated the coherence relations on the corpus we compiled. The corpus is available online in a newly developed form that allows for separating the tweets from their annotations. This study consists of three empirical analyses where we independently apply corpus-based, psycholinguistic and computational approaches for the investigation of variation in coreference patterns in a complementary manner. (1) We first make a descriptive analysis of variation across genres through a corpus-based study. We investigate the linguistic aspects of nominal coreference in Twitter conversations and we determine how this genre relates to other text genres in spoken and written modes. In addition to the variation across genres, studying the differences in spoken-written modes is also in focus of linguistic research since from Woolbert [1922]. (2) In order to investigate whether the language mode alone has any effect on coreference patterns, we carry out a crowdsourced experiment and analyze the patterns in the same genre for both spoken and written modes. (3) Finally, we explore the potentials of domain adaptation of automatic coreference resolution (ACR) for the conversational Twitter data. In order to answer the question of how the genre of Twitter conversations relates to other genres in spoken and written modes with respect to coreference patterns, we employ a state-of-the-art neural ACR model [Lee et al., 2018] to examine whether ACR on Twitter conversations will benefit from mode-based separation in out-of-domain training data. N2 - In dieser Dissertation wird die Variation von Koreferenzmustern in verschiedenen Sprachmodi (d. h., gesprochen und geschrieben) und Textgenres untersucht. Die Relevanz der Erforschung von Variation im Sprachgebrauch wurde in einer ganzen Reihe von linguistischen Studien betont. Zum Beispiel stellen Biber und Conrad [2009] fest: "register/genre variation is a fundamental aspect of human language" und "Given the ubiquity of register/genre variation, an understanding of how linguistic features are used in patterned ways across text varieties is of central importance for both the description of particular languages and the development of cross-linguistic theories of language use."[S.23] Wir untersuchen die Variation zwischen Genres mit dem primären Ziel, einen Beitrag zum Wissensstand zur Beschreibung des Sprachgebrauchs im Englischen zu leisten. Auf der technischen Seite glauben wir, dass das Einbeziehen von linguistischem Wissen in machine learning Ansätzen die Leistung von sprachverarbeitenden Systemen verbessern kann, insbesondere für Texte in nicht-Standard Varietäten. Neben ihrem sprachbeschreibenden Wert können die linguistischen Erkenntnisse, die wir in dieser Studie liefern, sich also als nützlich für die Verbesserung von Systemen für automatische Koreferenzauflösung erweisen; diese ist für ein tiefgreifendes Textverständnis unerlässlich, und potenziell hilfreich für verschiedene nachgelagerte NLP-Applikationen wie etwa die maschinelle Übersetzung und die Textzusammenfassung. Insbesondere untersuchen wir ein Textgenre, das aus Konversationsinteraktionen auf der bekannten Social-Media-Plattform Twitter gebildet wird. Zwei Faktoren motivieren uns dazu: Erstens werden Twitter-Konversationen in schriftlicher Form realisiert, ähneln dabei aber der gesprochenen Kommunikation [Scheffler, 2017] und bilden daher ein für den schriftlichen Modus untypisches Genre. Zweitens sind Twitter-Texte zwar ein kompliziertes Genre für die automatische Auflösung von Koreferenzen, aufgrund ihrer weiten Verbreitung in der digitalen Sphäre sind sie aber für Applikationen, die Informationen oder Stimmungen aus den Nachrichten der Nutzer extrahieren wollen, höchst relevant. Daher sind wir daran interessiert, mehr über die linguistischen und komputationellen Aspekte der Koreferenz in Twitter-Konversationen herauszufinden. Zu diesem Zweck haben wir zunächst ein Korpus solcher Unterhaltungen erstellt und es hinsichtlich der Koreferenzbeziehungen annotiert. Wir interessieren uns dabei aber nicht nur für die Koreferenzmuster, sondern auch allgemein für diskursstrukturelle Eigenschaften von Twitter-Konversationen. Daher haben wir zusätzlich zu den Koreferenzrelationen auch die semantisch/pragmatischen Kohärenzrelationen in dem von uns erstellten Korpus annotiert. Das Korpus ist online in einer neu entwickelten Form verfügbar, die es erlaubt, die Tweets von ihren Annotationen getrennt zu repräsentieren. Diese Studie besteht aus drei empirischen Analysen, in denen wir unabhängig voneinander korpusbasierte, psycholinguistische und computerlinguistische Ansätze zur komplementären Untersuchung der Variation von Koreferenzmustern anwenden. (1) Zunächst führen wir eine deskriptive Analyse der Variation zwischen den Genres anhand einer korpusbasierten Studie durch. Wir untersuchen linguistische Aspekte der nominalen Koreferenz in Twitter-Konversationen und stellen fest, wie sich dieses Genre zu anderen Textgenres im gesprochenen und schriftlichen Modus verhält. Neben der Variation zwischen Genres steht auch die Untersuchung der Unterschiede zwischen mündlichen und schriftlichen Formen im Fokus der linguistischen Forschung beginnend mit Woolbert [1922]. (2) Um zu untersuchen, ob der Sprachmodus auch allein einen Einfluss auf die Koreferenzmuster ausübt, führen wir ein Crowdsourcing-Experiment durch und analysieren die Muster, die sich innerhalb desselben Genres für den gesprochenen und den geschriebenen Modus ergeben. (3) Schließlich untersuchen wir Möglichkeiten der Domain-Anpassung der automatischen Koreferenzauflösung für die Twitter-Konversationsdaten. Um die Frage zu beantworten, wie sich das Genre der Twitter-Konversationen zu anderen Genres im gesprochenen und geschriebenen Modus im Hinblick auf die Koreferenzmuster verhält, verwenden wir ein neuronales Koreferenzresolutionsmodell auf dem aktuellen Stand der Technik [Lee et al., 2018], um zu untersuchen, ob die Resolution auf Twitter-Konversationen von einer modusbasierten Trennung der Trainingsdaten aus externen Domänen profitiert. KW - coreference KW - variation KW - spoken KW - written KW - genre KW - Koreferenzmustern KW - Variation KW - gesprochen KW - geschrieben KW - Textgenre Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-596086 ER - TY - THES A1 - Pregla, Dorothea T1 - Variability in sentence processing performance in German people with aphasia and unimpaired German native speakers T1 - Variabilität in der Satzverarbeitungsleistung von deutschsprachigen Personen mit und ohne Aphasie N2 - Individuals with aphasia vary in the speed and accuracy they perform sentence comprehension tasks. Previous results indicate that the performance patterns of individuals with aphasia vary between tasks (e.g., Caplan, DeDe, & Michaud, 2006; Caplan, Michaud, & Hufford, 2013a). Similarly, it has been found that the comprehension performance of individuals with aphasia varies between homogeneous test sentences within and between sessions (e.g., McNeil, Hageman, & Matthews, 2005). These studies ascribed the variability in the performance of individuals with aphasia to random noise. This conclusion would be in line with an influential theory on sentence comprehension in aphasia, the resource reduction hypothesis (Caplan, 2012). However, previous studies did not directly compare variability in language-impaired and language-unimpaired adults. Thus, it is still unclear how the variability in sentence comprehension differs between individuals with and without aphasia. Furthermore, the previous studies were exclusively carried out in English. Therefore, the findings on variability in sentence processing in English still need to be replicated in a different language. This dissertation aims to give a systematic overview of the patterns of variability in sentence comprehension performance in aphasia in German and, based on this overview, to put the resource reduction hypothesis to the test. In order to reach the first aim, variability was considered on three different dimensions (persons, measures, and occasions) following the classification by Hultsch, Strauss, Hunter, and MacDonald (2011). At the dimension of persons, the thesis compared the performance of individuals with aphasia and language-unimpaired adults. At the dimension of measures, this work explored the performance across different sentence comprehension tasks (object manipulation, sentence-picture matching). Finally, at the dimension of occasions, this work compared the performance in each task between two test sessions. Several methods were combined to study variability to gain a large and diverse database. In addition to the offline comprehension tasks, the self-paced-listening paradigm and the visual world eye-tracking paradigm were used in this work. The findings are in line with the previous results. As in the previous studies, variability in sentence comprehension in individuals with aphasia emerged between test sessions and between tasks. Additionally, it was possible to characterize the variability further using hierarchical Bayesian models. For individuals with aphasia, it was shown that both between-task and between-session variability are unsystematic. In contrast to that, language-unimpaired individuals exhibited systematic differences between measures and between sessions. However, these systematic differences occurred only in the offline tasks. Hence, variability in sentence comprehension differed between language-impaired and language-unimpaired adults, and this difference could be narrowed down to the offline measures. Based on this overview of the patterns of variability, the resource reduction hypothesis was evaluated. According to the hypothesis, the variability in the performance of individuals with aphasia can be ascribed to random fluctuations in the resources available for sentence processing. Given that the performance of the individuals with aphasia varied unsystematically, the results support the resource reduction hypothesis. Furthermore, the thesis proposes that the differences in variability between language-impaired and language-unimpaired adults can also be explained by the resource reduction hypothesis. More specifically, it is suggested that the systematic changes in the performance of language-unimpaired adults are due to decreasing fluctuations in available processing resources. In parallel, the unsystematic variability in the performance of individuals with aphasia could be due to constant fluctuations in available processing resources. In conclusion, the systematic investigation of variability contributes to a better understanding of language processing in aphasia and thus enriches aphasia research. N2 - Personen mit Aphasie unterscheiden sich in der Geschwindigkeit und Genauigkeit, mit der sie Satzverständnisaufgaben lösen. Ergebnisse früherer Studien weisen darauf hin, dass die Leistungsmuster von Personen mit Aphasie zwischen verschiedenen Aufgaben variieren (z.B. Caplan, DeDe & Michaud, 2006; Caplan, Michaud & Hufford, 2013a). In ähnlicher Weise wurde festgestellt, dass die Verständnisleistung von Personen mit Aphasie zwischen ähnlich komplexen Testsätzen innerhalb und zwischen Sitzungen variiert (z.B. McNeil, Hageman & Matthews, 2005). In diesen Studien wurde die Variabilität in der Leistung von Personen mit Aphasie auf bloßen Zufall durch Rauschen in den Daten zurückgeführt. Diese Schlussfolgerung steht im Einklang mit einer einflussreichen Theorie zum Satzverständnis bei Aphasie, der resource reduction hypothesis (Caplan, 2012). In früheren Studien wurde die Variabilität bei Personen mit und ohne Aphasie jedoch nicht direkt verglichen. Daher ist noch unklar, wie sich die Variabilität im Satzverständnis zwischen Personen mit und ohne Aphasie unterscheidet. Außerdem wurden die bisherigen Studien ausschließlich im Englischen durchgeführt. Eine Replikation der Ergebnisse in einer anderen Sprache steht bisher noch aus. Ziel dieser Arbeit ist es, einen systematischen Überblick über die Variabilitätsmuster in der Satzverständnisleistung bei Aphasie im Deutschen zu geben und darauf aufbauend die resource reduction hypothesis zu überprüfen. Für das erste Ziel wurde die Variabilität in Anlehnung an die Klassifikation von Hultsch, Strauss, Hunter und MacDonald (2011) auf drei verschiedenen Ebenen (Personen, Maße und Messzeitpunkte) untersucht. Auf der Ebene der Personen wurden die Leistungen von Personen mit und ohne Aphasie miteinander verglichen. Auf der Ebene der Maße wurde die Leistung beider Versuchspersonengruppen über verschiedene Satzverständninsaufgaben hinweg untersucht (Objektmanipulierung, Satz-Bild-Zuordnung). Auf der Ebene der Messzeitpunkte wurden die Leistungen in jeder Aufgabe zwischen zwei Testsitzungen verglichen. Um eine große und vielfältige Datenbasis zu erhalten, wurden mehrere Methoden zur Untersuchung der Variabilität kombiniert. So wurden zusätzlich zu den Offline-Verständnisaufgaben in dieser Arbeit self-paced-listening (selbstgesteuertes Hören) und visual world eye-tracking (Blickbewegungsmessung beim Betrachten von Bildern) verwendet. Die Ergebnisse stimmen mit den bisherigen Befunden überein. Wie in den vorangegangenen Studien trat Variabilität im Satzverständnis bei Personen mit Aphasie zwischen den Testsitzungen und zwischen den Aufgaben auf. Darüber hinaus wurde die Variabilität mittels hierarchischer Bayesianischer Modelle weiter charakterisiert. Für Personen mit Aphasie war sowohl die Variabilität zwischen den Aufgaben als auch zwischen den Sitzungen unsystematisch. Im Gegensatz dazu zeigten sich bei Personen ohne Aphasie systematische Unterschiede zwischen den Aufgaben und zwischen den Sitzungen. Diese systematischen Unterschiede traten jedoch nur bei den Offline-Verständnisaufgaben auf. Die Variabilität im Satzverständnis unterscheidet sich also zwischen Personen mit und ohne Aphasie in der Offline-Verständnisleistung. Auf der Grundlage dieses Überblicks über die Variabilitätsmuster wurde die resource reduction hypothesis evaluiert. Laut dieser Hypothese kann die Variabilität in der Leistung von Personen mit Aphasie auf zufällige Schwankungen in den verfügbaren Satzverarbeitungsressourcen zurückgeführt werden. Da die Leistung der Personen mit Aphasie unsystematisch variiert, stimmen die Ergebnisse mit der resource reduction hypothesis überein. Zusätzlich lassen sich auch die Unterschiede in der Variabilität zwischen Personen mit und ohne Aphasie durch die resource reduction hypothesis erklären. Die systematischen Veränderungen im Satzverständnis bei Personen ohne Aphasie werden auf eine Abnahme der Fluktuationen in den Verarbeitungsressourcen zurückgeführt. Parallel dazu könnte die unsystematische Variabilität in der Leistung von Personen mit Aphasie auf konstante Schwankungen der verfügbaren Verarbeitungsressourcen zurückgeführt werden. Zusammenfassend lässt sich sagen, dass die systematische Untersuchung der Variabilität zu einem besseren Verständnis der Sprachverarbeitung bei Aphasie beiträgt und somit die Aphasieforschung bereichert. KW - aphasia KW - sentence comprehension KW - variability KW - resource reduction KW - Aphasie KW - Satzverständnis KW - Variabilität KW - Reduzierte Ressourcen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-614201 ER - TY - THES A1 - Schmitz, Seán T1 - Using low-cost sensors to gather high resolution measurements of air quality in urban environments and inform mobility policy N2 - Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality. In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations. With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments. To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results. As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research. N2 - Luftverschmutzung ist seit hundert Jahren ein anhaltendes globales Problem. Während sich die Luftqualität in einigen Industrieländern durch strengere Vorschriften verbessert hat, hat sie sich in anderen Ländern im Zuge der schnell fortschreitenden Industrialisierung verschlechtert. Die Aktualisierung der von der WHO für das Jahr 2021 empfohlenen Grenzwerte für die Luftverschmutzung spiegelt die erheblichen Aus-wirkungen von Schadstoffen wie Stickstoffdioxid (NO2) und Ozon (O3) auf die menschliche Gesundheit wider, da neuere epidemiologische Erkenntnisse darauf hindeuten, dass Luft-verschmutzung selbst bei niedrigen Konzentrationen erhebliche langfristige gesundheitliche Auswirkungen hat. Parallel zu den Entwicklungen in unserem Verständnis der gesundheitlichen Auswirkungen von Luftverschmutzung wurde die neue Technologie der Low-Cost-Sensoren (LCS) sowohl von der Wissenschaft als auch von der Industrie als neue Methode zur Messung der Luftverschmutzung aufgegriffen. Vor allem aufgrund ihrer geringeren Kosten und kleineren Größe können sie in einer Vielzahl von Anwendungen eingesetzt werden, u. a. bei der Entwicklung von Messnetzen mit höherer räumlicher Auf-lösung, bei der Identifizierung von Quellen und bei der Messung der Luftverschmutzung. Es wurden zwar erhebliche Anstrengungen unternommen, um LCS mit Hilfe von Referenzinstrumenten und verschiedenen statistischen Modellen genau zu kalibrieren, aber die Genauigkeit und Präzision bleiben durch die variable Sensorempfindlichkeit begrenzt. Darüber hinaus gibt es immer noch keine Standardverfahren für die Kalibrierung, und die meisten proprietären Kalibrierungsalgorithmen sind Blackboxen, die für die Öffentlichkeit nicht zugänglich sind. Mit dieser Arbeit soll die Wissensbasis über LCS auf verschiedene Weise erweitert werden: 1) durch die Entwicklung einer Open-Source-Kalibrierungsmethodik; 2) durch den Einsatz von LCS mit hoher räumlicher Auflösung in städtischen Umgebungen, um ihre Fähigkeit zur Messung kleinräumlicher Veränderungen der städtischen Luftverschmutzung zu testen; 3) durch die Verknüpfung von LCS-Einsätzen mit der Umsetzung lokaler Verkehrsmaßnahmen, um politische Empfehlungen zu den daraus resultierenden Veränderungen der Luftqualität geben zu können. In einem ersten Schritt wurde festgestellt, dass LCS mit Hilfe von sieben allgemeinen Schritten konsistent und mit guter Leistung gegenüber Referenzinstrumenten kalibriert werden können: 1) Bewertung der Rohdatenverteilung, 2) Datenbereinigung, 3) Kenn-zeichnung von Daten, 4) Modellauswahl und -abstimmung, 5) Modellvalidierung, 6) Export der endgültigen Vorhersagen und 7) Berechnung der damit verbundenen Unsicherheit. Durch die Betonung der Notwendigkeit einer konsistenten Berichterstattung über Details bei jedem Schritt, insbesondere bei der Modellauswahl, -validierung und -leistung, hat diese Arbeit die Bemühungen um eine Standardisierung der Kalibrierungs-methoden vorangetrieben. Darüber hinaus wurden mit der Open-Source-Veröffentlichung von Code und Daten für die siebenstufige Methodik Fortschritte bei der Reformierung der weitgehenden Blackbox-Natur von LCS-Kalibrierungen erzielt. Nach der Einführung einer transparenten und zuverlässigen Kalibrierungsmethode wurden die LCS zwischen 2017 und 2020 an verschiedenen Straßen eingesetzt. Unter Ver-wendung von zwei Arten von LCS, Metalloxid (MOS) und elektrochemisch (EC), wurde ihre Leistung bei der Erfassung der erwarteten Muster der NO2- und O3-Belastung in Städten bewertet. Die Ergebnisse zeigten, dass die kalibrierten Konzentrationen der MOS- und EC-Sensoren mit den allgemeinen Tagesmustern der NO2- und O3-Belastung überein-stimmten, die mit Referenzgeräten gemessen wurden. Während sich MOS als unzuverlässig erwies, wenn es darum ging, Unterschiede zwischen den gemessenen Orten inner-halb der städtischen Umgebung zu erkennen, entsprachen die mit kalibrierten EC-Sensoren gemessenen Konzentrationen den Erwartungen aus Modellierungsstudien zur Verteilung der NO2- und O3-Belastung in Straßenschluchten. Daraus wurde der Schluss gezogen, dass LCS für die Messung der Luftqualität in Städten geeignet sind, auch zur Unterstützung der Entwicklung von Luftverschmutzungsmodellen auf städtischer Ebene, und dass sie neue Erkenntnisse über die Luftverschmutzung in städtischen Umgebungen liefern können. Um das letzte Ziel dieser Arbeit zu erreichen, wurden zwei Messkampagnen im Zusammenhang mit der Umsetzung von drei verkehrspolitischen Maßnahmen in Berlin durchgeführt. Bei der ersten handelte es sich um den Bau einer Pop-up-Radweg auf dem Kottbusser Damm als Reaktion auf die COVID-19-Pandemie, bei der zweiten um die vorübergehende Einrichtung eines Gemeinschaftsraums in der Böckhstraße und bei der letzten um die Sperrung eines Teils der Friedrichstraße für den gesamten motorisierten Verkehr. In allen Fällen wurden NO2-Messungen vor und nach der Durchführung der Maßnahme durchgeführt, um die Veränderungen der Luftqualität infolge dieser Maßnahmen zu bewerten. Die Ergebnisse des Experiments am Kottbusser Damm zeigten, dass die NO2-Konzentrationen, denen die Radfahrer ausgesetzt waren, durch den Radweg um 22 ± 19 % gesenkt wurden. In der Friedrichstraße sank die NO2-Konzentration durch die Straßensperrung auf das Niveau des städtischen Hintergrunds, ohne dass sich die Luft-qualität in den Seitenstraßen verschlechterte. Diese wertvollen Ergebnisse wurden den verantwortlichen Ansprechpersonen in der Stadtverwaltung, die für die Bewertung des Erfolgs und der Zukunft der Maßnahmen verantwortlich sind, schnell mitgeteilt, was die Fähigkeit von LCS unterstreicht, politisch relevante Ergebnisse zu liefern. Da es sich um eine neue Technologie handelt, muss noch viel über LCS und ihren Wert für die akademische Forschung im Bereich der Atmosphärenwissenschaften gelernt werden. Dennoch hat diese Arbeit den Stand der Technik in mehrfacher Hinsicht verbessert. Erstens wurde eine neuartige Open-Source-Kalibrierungsmethode entwickelt, die von LCS-Anwender*innen für verschiedene Luftschadstoffe verwendet werden kann. Zweitens wurde die Beweisgrundlage für die Zuverlässigkeit von LCS zur Messung der Luftqualität in Städten gestärkt, indem durch neuartige Einsätze in Straßenschluchten festgestellt wurde, dass LCS mit hoher räumlicher Auflösung zum Verständnis der Dynamik der Luftverschmutzung auf kleinräumlicher Ebene eingesetzt werden kann. Schließlich ist es die erste Studie dieser Art, die LCS-Messungen direkt mit verkehrspolitischen Maßnahmen verknüpft, um deren Einfluss auf die lokale Luftqualität zu verstehen, was zu politisch relevanten Erkenntnissen führt, die für Entscheidungsträger*innen wertvoll sind. Die Studie ist ein Beispiel für das Potenzial von LCS, unser Verständnis von Luftverschmutzung in verschiedenen Maßstäben zu erweitern, sowie für ihre Fähigkeit, als wert-volle Werkzeuge in der transdisziplinären Forschung zu dienen. T2 - Verwendung kostengünstiger Sensoren zur Erfassung hochauflösender Messungen der Luftqualität in städtischen Umgebungen und zur Information über die Mobilitätspolitik KW - air pollution KW - urban KW - low-cost sensor KW - transdisciplinary KW - sustainability KW - mobility KW - policy KW - Luftverschmutzung KW - Mobilität KW - Politik KW - Nachhaltigkeit KW - Transdisziplinarität KW - Städte Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601053 ER - TY - THES A1 - Rigamonti, Lia T1 - Use of digital media for remote instruction in exercise sciences education and research N2 - To grant high-quality evidence-based research in the field of exercise sciences, it is often necessary for various institutions to collaborate over longer distances and internationally. Here, not only with regard to the recent COVID-19-pandemic, digital means provide new options for remote scientific exchanges. This thesis is meant to analyse and test digital opportunities to support the dissemination of knowledge and instruction of investigators about defined examination protocols in an international multi-center context. The project consisted of three studies. The first study, a questionnaire-based survey, aimed at learning about the opinions and preferences of digital learning or social media among students of sport science faculties in two universities each in Germany, the UK and Italy. Based on these findings, in a second study, an examination video of an ultrasound determination of the intima-media-thickness and diameter of an artery was distributed by a messenger app to doctors and nursing personnel as simulated investigators and efficacy of the test setting was analysed. Finally, a third study integrated the use of an augmented reality device for direct remote supervision of the same ultrasound examinations in a long-distance international setting with international experts from the fields of engineering and sports science and later remote supervision of augmented reality equipped physicians performing a given task. The first study with 229 participating students revealed a high preference for YouTube to receive video-based knowledge as well as a preference for using WhatsApp and Facebook for peer-to-peer contacts for learning purposes and to exchange and discuss knowledge. In the second study, video-based instructions send by WhatsApp messenger showed high approval of the setup in both study groups, one with doctors familiar with the use of ultrasound technology as well as one with nursing staff who were not familiar with the device, with similar results in overall time of performance and the measurements of the femoral arteries. In the third and final study, experts from different continents were connected remotely to the examination site via an augmented reality device with good transmission quality. The remote supervision to doctors ́ examination produced a good interrater correlation. Experiences with the augmented reality-based setting were rated as highly positive by the participants. Potential benefits of this technique were seen in the fields of education, movement analysis, and supervision. Concluding, the findings of this thesis were able to suggest modern and addressee- centred digital solutions to enhance the understanding of given examinations techniques of potential investigators in exercise science research projects. Head-mounted augmented reality devices have a special value and may be recommended for collaborative research projects with physical examination–based research questions. While the established setting should be further investigated in prospective clinical studies, digital competencies of future researchers should already be enhanced during the early stages of their education. N2 - Um qualitativ hochwertige, evidenzbasierte Forschung im Bereich der Bewegungswissenschaften zu gewährleisten, ist es oft notwendig, dass verschiedene Einrichtungen über größere Entfernungen und international zusammenarbeiten. Hier bieten digitale Mittel, nicht nur im Hinblick auf die aktuelle COVID-19-Pandemie, neue Möglichkeiten des wissenschaftlichen Austauschs aus der Ferne. In dieser Arbeit sollen digitale Möglichkeiten zur Unterstützung der Wissensverbreitung und der Instruktion von Untersuchern über definierte Untersuchungsprotokolle in einem internationalen multizentrischen Kontext analysiert und getestet werden. Das Projekt bestand aus drei Studien. Die erste Studie, eine fragebogenbasierte Umfrage, zielte darauf ab, die Meinungen und Präferenzen von Studierenden sportwissenschaftlicher Fakultäten an je zwei Universitäten in Deutschland, Großbritannien und Italien in Bezug auf digitales Lernen oder soziale Medien zu erfahren. Darauf aufbauend wurde in einer zweiten Studie ein Untersuchungsvideo einer Ultraschallbestimmung der Intima-Media-Dicke und des Durchmessers einer Arterie mittels einer Messenger-App an Ärzt*innen und Pflegepersonal als simulierte Untersucher verteilt und die Wirksamkeit des Testsettings analysiert. Schließlich wurde in einer dritten Studie die Verwendung eines Augmented-Reality-Geräts zur direkten Fernüberwachung derselben Ultraschalluntersuchungen in einem internationalen Umfeld mit internationalen Experten aus den Bereichen Ingenieurwesen und Sportwissenschaft und später zur Fernüberwachung von mit Augmented Reality ausgestatteten Ärzt*innen bei der Durchführung einer bestimmten Aufgabe integriert. Die erste Studie mit 229 teilnehmenden Studierenden ergab eine hohe Präferenz für YouTube, um videobasiertes Wissen zu erhalten, sowie eine Präferenz für die Nutzung von WhatsApp und Facebook für Peer-to-Peer-Kontakte zu Lernzwecken und zum Austausch und zur Diskussion von Wissen. In der zweiten Studie zeigten videobasierte Anleitungen, die per WhatsApp-Messenger versandt wurden, eine hohe Akzeptanz in beiden Studiengruppen, sowohl bei Ärzt*innen, die mit der Anwendung der Ultraschalltechnologie vertraut waren, als auch bei dem Pflegepersonal, das mit dem Gerät nicht vertraut war, mit ähnlichen Ergebnissen bei der Gesamtdurchführungszeit und den Messungen der Oberschenkelarterien. In der dritten und letzten Studie wurden Experten aus verschiedenen Kontinenten über ein Augmented-Reality-Gerät mit guter Übertragungsqualität aus der Ferne mit dem Untersuchungsort verbunden. Die Fernüberwachung der ärztlichen Untersuchung ergab eine gute Interrater-Korrelation. Die Erfahrungen mit dem Augmented-Reality-basierten Setting wurden von den Teilnehmenden als sehr positiv bewertet. Potenzielle Vorteile dieser Technik wurden in den Bereichen Ausbildung, Bewegungsanalyse und Supervision gesehen. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Arbeit moderne und adressatenorientierte digitale Lösungen vorschlagen können, um das Verständnis für bestimmte Untersuchungstechniken bei potenziellen Untersuchenden in bewegungswissenschaftlichen Forschungsprojekten zu verbessern. Kopfgetragene Augmented-Reality-Geräte haben einen besonderen Wert und können für kollaborative Forschungsprojekte mit untersuchungsbasierten Forschungsfragen empfohlen werden. Während das etablierte Setting in prospektiven klinischen Studien weiter untersucht werden sollte, sollten die digitalen Kompetenzen zukünftiger Forschenden bereits in den frühen Phasen ihrer Ausbildung verbessert werden. KW - digital media KW - remote instruction KW - exercise science KW - digitale Medien KW - Bewegungswissenschaft KW - Fernausbildung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583642 ER - TY - THES A1 - Badetko, Dominik T1 - Untersuchungen zur Totalsynthese von Arylnaphthalen-Lignanen mittels Photo-Dehydro-Diels-Alder-Reaktion als Schlüsselschritt T1 - Studies on the total synthesis of arylnaphthalene lignans using Photo-Dehydro-Diels-Alder reaction as a key step N2 - Im Rahmen dieser Dissertation wurden die erstmaligen Totalsynthesen der Arylnaphthalen-Lignane Alashinol D, Vitexdoin C, Vitrofolal E, Noralashinol C1 und Ternifoliuslignan E vorgestellt. Der Schlüsselschritt der entwickelten Methode, basiert auf einer regioselektiven intramolekularen Photo-Dehydro-Diels-Alder (PDDA)-Reaktion, die mittels UV-Strahlung im Durchflussreaktor durchgeführt wurde. Bei der Synthese der PDDA-Vorläufer (Diarylsuberate) wurde eine Synthesestrategie nach dem Baukastenprinzip verfolgt. Diese ermöglicht die Darstellung asymmetrischer komplexer Systeme aus nur wenigen Grundbausteinen und die Totalsynthese einer Vielzahl an Lignanen. In systematischen Voruntersuchungen konnte zudem die klare Überlegenheit der intra- gegenüber der intermolekularen PDDA-Reaktion aufgezeigt werden. Dabei stellte sich eine Verknüpfung der beiden Arylpropiolester über einen Korksäurebügel, in para-Position, als besonders effizient heraus. Werden asymmetrisch substituierte Diarylsuberate, bei denen einer der endständigen Estersubstituenten durch eine Trimethylsilyl-Gruppe oder ein Wasserstoffatom ersetzt wurde, verwendet, durchlaufen diese Systeme eine regioselektive Cyclisierung und als Hauptprodukt werden Naphthalenophane mit einem Methylester in 3-Position erhalten. Mit Hilfe von umfangreichen Experimenten zur Funktionalisierung der 4-Position, konnte zudem gezeigt werden, dass die Substitution der nucleophilen Cycloallen-Intermediate, während der PDDA-Reaktion, generell durch die Zugabe von N-Halogen-Succinimiden möglich ist. In Anbetracht der geringen Ausbeuten haben diese intermolekularen Abfangreaktionen, jedoch keinen präparativen Nutzen für die Totalsynthesen von Lignanen. Mit dem Ziel die allgemeinen photochemischen Reaktionsbedingungen zu optimieren, wurde erstmalig die triplettsensibilisierte PDDA-Reaktion vorgestellt. Durch die Verwendung von Xanthon als Sensibilisator wurde der Einsatz von effizienteren UVA-Lichtquellen ermöglicht, wodurch die Gefahr einer Photozersetzung durch Überbestrahlung minimiert wurde. Im Vergleich zur direkten Anregung mit UVB-Strahlung, konnten die Ausbeuten mit indirekter Anregung durch einen Photokatalysator signifikant gesteigert werden. Die grundlegenden Erkenntnisse und die entwickelten Synthesestrategien dieser Arbeit, können dazu beitragen zukünftig die Erschließung neuer pharmakologisch interessanter Lignane voranzutreiben. 1 Bisher ist nur die semisynthetische Darstellung von Noralashinol C ausgehend von Hydroxymatairesinol literaturbekannt. N2 - In this dissertation, the first total syntheses of the arylnaphthalene lignans alashinol D, vitexdoin C, vitrofolal E, noralashinol C (1) and ternifoliuslignan E were presented. The key step of the developed method, is based on a regioselective intramolecular photo-dehydro-Diels-Alder (PDDA) reaction, which was carried out using UV radiation in a flow reactor. For the synthesis of the PDDA precursors (diaryl suberates), a synthesis strategy based on the modular principle was followed. This allows the preparation of asymmetric complex systems from only a few basic building blocks and the total synthesis of a large number of lignans. Systematic preliminary studies have also demonstrated the clear superiority of the intra- versus intermolecular PDDA reaction. In this context, linking the two arylpropiol esters via a subaric acide linker, in the para position, was found to be particularly efficient. If asymmetrically substituted diaryl suberates, in which one of the terminal ester substituents has been replaced by a trimethylsilyl group or a hydrogen atom, are used, these systems undergo regioselective cyclization and naphthalenophanes with a methyl ester in the 3-position are obtained as the main product. With the help of extensive experiments on the functionalization of the 4-position, it was also shown that the substitution of the nucleophilic cycloallen intermediates, during the PDDA reaction, is generally possible by the addition of N-halogen succinimides. Considering the low yields, these intermolecular interception reactions, however, have no preparative utility for the total syntheses of lignans. With the aim of optimizing the general photochemical reaction conditions, the triplet-sensitized PDDA reaction was presented for the first time. The use of xanthone as a sensitizer enabled the use of more efficient UVA light sources, minimizing the risk of photodecomposition due to overirradiation. Compared to direct excitation with UVB radiation, yields were significantly increased with indirect excitation by a photocatalyst. The basic findings and the developed synthesis strategies of this work, may contribute to the future development of new pharmacologically interesting lignans. (1) So far, only the semisynthetic preparation of noralashinol C starting from hydroxymatairesinol is is known from the literature. KW - Totalsynthese KW - Arylnaphthalen-Lignane KW - Photo-Dehydro-Diels-Alder-Reaktion KW - Arylnaphthalene lignans KW - Photo-Dehydro-Diels-Alder reaction KW - total synthesis Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-593065 ER - TY - THES A1 - Koßmann, Jan T1 - Unsupervised database optimization BT - efficient index selection & data dependency-driven query optimization N2 - The amount of data stored in databases and the complexity of database workloads are ever- increasing. Database management systems (DBMSs) offer many configuration options, such as index creation or unique constraints, which must be adapted to the specific instance to efficiently process large volumes of data. Currently, such database optimization is complicated, manual work performed by highly skilled database administrators (DBAs). In cloud scenarios, manual database optimization even becomes infeasible: it exceeds the abilities of the best DBAs due to the enormous number of deployed DBMS instances (some providers maintain millions of instances), missing domain knowledge resulting from data privacy requirements, and the complexity of the configuration tasks. Therefore, we investigate how to automate the configuration of DBMSs efficiently with the help of unsupervised database optimization. While there are numerous configuration options, in this thesis, we focus on automatic index selection and the use of data dependencies, such as functional dependencies, for query optimization. Both aspects have an extensive performance impact and complement each other by approaching unsupervised database optimization from different perspectives. Our contributions are as follows: (1) we survey automated state-of-the-art index selection algorithms regarding various criteria, e.g., their support for index interaction. We contribute an extensible platform for evaluating the performance of such algorithms with industry-standard datasets and workloads. The platform is well-received by the community and has led to follow-up research. With our platform, we derive the strengths and weaknesses of the investigated algorithms. We conclude that existing solutions often have scalability issues and cannot quickly determine (near-)optimal solutions for large problem instances. (2) To overcome these limitations, we present two new algorithms. Extend determines (near-)optimal solutions with an iterative heuristic. It identifies the best index configurations for the evaluated benchmarks. Its selection runtimes are up to 10 times lower compared with other near-optimal approaches. SWIRL is based on reinforcement learning and delivers solutions instantly. These solutions perform within 3 % of the optimal ones. Extend and SWIRL are available as open-source implementations. (3) Our index selection efforts are complemented by a mechanism that analyzes workloads to determine data dependencies for query optimization in an unsupervised fashion. We describe and classify 58 query optimization techniques based on functional, order, and inclusion dependencies as well as on unique column combinations. The unsupervised mechanism and three optimization techniques are implemented in our open-source research DBMS Hyrise. Our approach reduces the Join Order Benchmark’s runtime by 26 % and accelerates some TPC-DS queries by up to 58 times. Additionally, we have developed a cockpit for unsupervised database optimization that allows interactive experiments to build confidence in such automated techniques. In summary, our contributions improve the performance of DBMSs, support DBAs in their work, and enable them to contribute their time to other, less arduous tasks. N2 - Sowohl die Menge der in Datenbanken gespeicherten Daten als auch die Komplexität der Datenbank-Workloads steigen stetig an. Datenbankmanagementsysteme bieten viele Konfigurationsmöglichkeiten, zum Beispiel das Anlegen von Indizes oder die Definition von Unique Constraints. Diese Konfigurations-möglichkeiten müssen für die spezifische Datenbankinstanz angepasst werden, um effizient große Datenmengen verarbeiten zu können. Heutzutage wird die komplizierte Datenbankoptimierung manuell von hochqualifizierten Datenbankadministratoren vollzogen. In Cloud-Szenarien ist die manuelle Daten-bankoptimierung undenkbar: Die enorme Anzahl der verwalteten Systeme (einige Anbieter verwalten Millionen von Instanzen), das fehlende Domänenwissen durch Datenschutzanforderungen und die Kom-plexität der Konfigurationsaufgaben übersteigen die Fähigkeiten der besten Datenbankadministratoren. Aus diesen Gründen betrachten wir, wie die Konfiguration von Datenbanksystemen mit der Hilfe von Unsupervised Database Optimization effizient automatisiert werden kann. Während viele Konfigura-tionsmöglichkeiten existieren, konzentrieren wir uns auf die automatische Indexauswahl und die Nutzung von Datenabhängigkeiten, zum Beispiel Functional Dependencies, für die Anfrageoptimierung. Beide Aspekte haben großen Einfluss auf die Performanz und ergänzen sich gegenseitig, indem sie Unsupervised Database Optimization aus verschiedenen Perspektiven betrachten. Wir leisten folgende Beiträge: (1) Wir untersuchen dem Stand der Technik entsprechende automatisierte Indexauswahlalgorithmen hinsichtlich verschiedener Kriterien, zum Beispiel bezüglich ihrer Berücksichtigung von Indexinteraktionen. Wir stellen eine erweiterbare Plattform zur Leistungsevaluierung solcher Algorithmen mit Industriestandarddatensätzen und -Workloads zur Verfügung. Diese Plattform wird von der Forschungsgemeinschaft aktiv verwendet und hat bereits zu weiteren Forschungsarbeiten geführt. Mit unserer Plattform leiten wir die Stärken und Schwächen der untersuchten Algorithmen ab. Wir kommen zu dem Schluss, dass bestehende Lösung häufig Skalierungsschwierigkeiten haben und nicht in der Lage sind, schnell (nahezu) optimale Lösungen für große Problemfälle zu ermitteln. (2) Um diese Einschränkungen zu bewältigen, stellen wir zwei neue Algorithmen vor. Extend ermittelt (nahezu) optimale Lösungen mit einer iterativen Heuristik. Das Verfahren identifiziert die besten Indexkonfigurationen für die evaluierten Benchmarks und seine Laufzeit ist bis zu 10-mal geringer als die Laufzeit anderer nahezu optimaler Ansätze. SWIRL basiert auf Reinforcement Learning und ermittelt Lösungen ohne Wartezeit. Diese Lösungen weichen maximal 3 % von den optimalen Lösungen ab. Extend und SWIRL sind verfügbar als Open-Source-Implementierungen. (3) Ein Mechanismus, der mittels automatischer Workload-Analyse Datenabhängigkeiten für die Anfrageoptimierung bestimmt, ergänzt die vorigen Beiträge. Wir beschreiben und klassifizieren 58 Techniken, die auf Functional, Order und Inclusion Dependencies sowie Unique Column Combinations basieren. Der Analysemechanismus und drei Optimierungstechniken sind in unserem Open-Source-Forschungsdatenbanksystem Hyrise implementiert. Der Ansatz reduziert die Laufzeit des Join Order Benchmark um 26 % und erreicht eine bis zu 58-fache Beschleunigung einiger TPC-DS-Anfragen. Darüber hinaus haben wir ein Cockpit für Unsupervised Database Optimization entwickelt. Dieses Cockpit ermöglicht interaktive Experimente, um Vertrauen in automatisierte Techniken zur Datenbankoptimie-rung zu schaffen. Zusammenfassend lässt sich festhalten, dass unsere Beiträge die Performanz von Datenbanksystemen verbessern, Datenbankadministratoren in ihrer Arbeit unterstützen und ihnen ermöglichen, ihre Zeit anderen, weniger mühsamen, Aufgaben zu widmen. KW - Datenbank KW - Datenbanksysteme KW - database KW - DBMS KW - Hyrise KW - index selection KW - database systems KW - RL KW - reinforcement learning KW - query optimization KW - data dependencies KW - functional dependencies KW - order dependencies KW - unique column combinations KW - inclusion dependencies KW - funktionale Abhängigkeiten KW - Anfrageoptimierung KW - Query-Optimierung KW - extend KW - SWIRL KW - unsupervised KW - database optimization KW - self-driving KW - autonomous Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-589490 ER - TY - THES A1 - Elsässer, Joshua Philipp T1 - United Nations beyond the state? Interactions of intergovernmental treaty secretariats in global environmental governance N2 - Within the context of United Nations (UN) environmental institutions, it has become apparent that intergovernmental responses alone have been insufficient for dealing with pressing transboundary environmental problems. Diverging economic and political interests, as well as broader changes in power dynamics and norms within global (environmental) governance, have resulted in negotiation and implementation efforts by UN member states becoming stuck in institutional gridlock and inertia. These developments have sparked a renewed debate among scholars and practitioners about an imminent crisis of multilateralism, accompanied by calls for reforming UN environmental institutions. However, with the rise of transnational actors and institutions, states are not the only relevant actors in global environmental governance. In fact, the fragmented architectures of different policy domains are populated by a hybrid mix of state and non-state actors, as well as intergovernmental and transnational institutions. Therefore, coping with the complex challenges posed by severe and ecologically interdependent transboundary environmental problems requires global cooperation and careful management from actors beyond national governments. This thesis investigates the interactions of three intergovernmental UN treaty secretariats in global environmental governance. These are the secretariats of the United Nations Framework Convention on Climate Change, the Convention on Biological Diversity, and the United Nations Convention to Combat Desertification. While previous research has acknowledged the increasing autonomy and influence of treaty secretariats in global policy-making, little attention has been paid to their strategic interactions with non-state actors, such as non-governmental organizations, civil society actors, businesses, and transnational institutions and networks, or their coordination with other UN agencies. Through qualitative case-study research, this thesis explores the means and mechanisms of these interactions and investigates their consequences for enhancing the effectiveness and coherence of institutional responses to underlying and interdependent environmental issues. Following a new institutionalist ontology, the conceptual and theoretical framework of this study draws on global governance research, regime theory, and scholarship on international bureaucracies. From an actor-centered perspective on institutional interplay, the thesis employs concepts such as orchestration and interplay management to assess the interactions of and among treaty secretariats. The research methodology involves structured, focused comparison, and process-tracing techniques to analyze empirical data from diverse sources, including official documents, various secondary materials, semi-structured interviews with secretariat staff and policymakers, and observations at intergovernmental conferences. The main findings of this research demonstrate that secretariats employ tailored orchestration styles to manage or bypass national governments, thereby raising global ambition levels for addressing transboundary environmental problems. Additionally, they engage in joint interplay management to facilitate information sharing, strategize activities, and mobilize relevant actors, thereby improving coherence across UN environmental institutions. Treaty secretariats play a substantial role in influencing discourses and knowledge exchange with a wide range of actors. However, they face barriers, such as limited resources, mandates, varying leadership priorities, and degrees of politicization within institutional processes, which may hinder their impact. Nevertheless, the secretariats, together with non-state actors, have made progress in advancing norm-building processes, integrated policy-making, capacity building, and implementation efforts within and across framework conventions. Moreover, they utilize innovative means of coordination with actors beyond national governments, such as data-driven governance, to provide policy-relevant information for achieving overarching governance targets. Importantly, this research highlights the growing interactions between treaty secretariats and non-state actors, which not only shape policy outcomes but also have broader implications for the polity and politics of international institutions. The findings offer opportunities for rethinking collective agency and actor dynamics within UN entities, addressing gaps in institutionalist theory concerning the interaction of actors in inter-institutional spaces. Furthermore, the study addresses emerging challenges and trends in global environmental governance that are pertinent to future policy-making. These include reflections for the debate on reforming international institutions, the role of emerging powers in a changing international world order, and the convergence of public and private authority through new alliance-building and a division of labor between international bureaucracies and non-state actors in global environmental governance. N2 - Im Kontext internationaler Umweltinstitutionen unter den Vereinten Nationen (VN) ist deutlich geworden, dass allein zwischenstaatliche Verhandlungen für den Umgang mit dringenden grenzüberschreitenden Umweltproblemen unzureichend sind. Unterschiedliche wirtschaftliche und politische Interessen sowie umfassende Veränderungen in den Macht- und Normendynamiken der globalen (Umwelt-)Governance haben dazu geführt, dass die Verhandlungs- und Umsetzungsbemühungen der VN-Mitgliedstaaten häufig von institutionellen Blockaden und Trägheit geprägt sind. Diese Situation hat erneute Debatten unter Wissenschaftlern und Praktikern über die Krise des Multilateralismus ausgelöst, begleitet von Forderungen nach Reformen von VN-Umweltinstitutionen. Mit einem signifikanten Anstieg transnationaler Akteure und Institutionen sind jedoch nicht nur Staaten relevante Akteure in der globalen Umweltgovernance. Tatsächlich sind die Architekturen verschiedener Politikbereiche durch eine hochfragmentierte und hybride Mischung aus staatlichen und nichtstaatlichen Akteuren sowie zwischenstaatlichen und transnationalen Institutionen gekennzeichnet. Daher erfordert der Umgang mit den komplexen Herausforderungen grenzüberschreitender Umweltprobleme eine globale Zusammenarbeit und sorgfältiges Management auch durch Akteure jenseits nationaler Regierungen. Diese Arbeit untersucht die Interaktionen von drei intergouvernementaler VN-Vertragssekretariaten in der globalen Umweltgovernance. Dabei handelt es sich um die Vertragssekretariate der Klimarahmenkonvention, der Biodiversitätskonvention und der Wüstenkonvention im Rahmen der VN. Obwohl frühere Forschungen die zunehmende Autonomie, Handlungsfähigkeit und den Einfluss von Vertragssekretariaten in bestimmten Teilbereichen der internationalen Umweltpolitik anerkannt haben, wurde ihren strategischen Interaktionen mit nichtstaatlichen Akteuren wie Nichtregierungsorganisationen, zivilgesellschaftlichen Akteuren, Unternehmen und transnationalen Institutionen und Netzwerken sowie ihrer Koordination mit anderen VN-Sekretariaten bisher wenig Aufmerksamkeit geschenkt. Durch qualitative Fallstudien untersucht diese Arbeit die Mittel und Mechanismen dieser Interaktionen und ihre potenziellen Auswirkungen auf die Verbesserung der Effektivität und Kohärenz internationaler Institutionen hinsichtlich zugrunde liegender, interdependenter Umweltprobleme. Basierend auf einer (neo)institutionalistischen Ontologie stützt sich der konzeptionelle und theoretische Rahmen dieser Dissertation auf Forschung zur globalen Governance, der Regimetheorie und Studien zu internationalen Bürokratien. Aus einer akteurszentrierten Perspektive auf das Zusammenspiel internationaler Institutionen verwendet die Arbeit dabei Konzepte wie Orchestrierung und Interplay-Management, um die Interaktionen von und zwischen Vertragssekretariaten genauer zu erforschen. Die Untersuchungsmethodik umfasst sowohl Techniken der vergleichenden Analyse als auch Prozessanalyse, mittels derer empirische Daten aus verschiedenen Quellen, einschließlich offizieller Dokumente, verschiedener Sekundärmaterialien, semistrukturierter Interviews mit Sekretariatsmitarbeitern und politischen Entscheidungsträgern sowie Beobachtungen auf zwischenstaatlichen Konferenzen, ausgewertet wurden. Die Ergebnisse dieser Forschung zeigen, dass Vertragssekretariate spezifische Orchestrierungsstile verwenden, um Regierungshandeln in internationalen Institutionen zu lenken (oder zu umgehen) und folglich globale Ambitionen bezüglich des Umgangs mit grenzüberschreitenden Umweltproblemen zu erhöhen. Darüber hinaus betreiben Vertragssekretariate untereinander ein gemeinsames Interplay-Management, das den Austausch von Informationen, die strategische Planung von Aktivitäten und die gezielte Mobilisierung relevanter Akteure umfasst, um die Kohärenz zwischen VN-Umweltabkommen zu verbessern. Vertragssekretariate spielen eine bedeutende Rolle bei der Beeinflussung von Diskursen und dem Austausch von Wissen mit einer Vielzahl von Akteuren. Gerade durch das Zusammenspiel mit nichtstaatlichen Akteuren prägen sie Normbildungsprozesse, wirken bei der Gestaltung hin zu integrierten Politiken mit oder nehmen eine unterstützende Funktion beim Kapazitätsaufbau und den Umsetzungsbemühungen innerhalb und zwischen Rahmenübereinkommen ein. Darüber hinaus nutzen sie innovative Koordinationsmechanismen mit Akteuren jenseits nationaler Regierungen, wie beispielsweise die Generierung, Nutzung und Verbreitung von Daten, um politikrelevante Informationen für die Implementierung übergeordneter Governance-Ziele bereitzustellen. Allerdings stehen sie in ihren Interaktionen auch vor Hindernissen, wie beispielsweise dem Umgang mit begrenzten Ressourcen und Mandaten, unterschiedlichen Prioritäten der Exekutivkräfte und unterschiedlichen Politisierungsgraden von Umweltproblemen innerhalb internationaler Institutionen, die den Einfluss von Sekretariaten beeinträchtigen können. Bedeutsam ist, dass die zunehmende Verflechtung zwischen Sekretariaten und nichtstaatlichen Akteuren nicht nur auf politische Inhalte (Policy) wirkt, sondern auch weitreichende Auswirkungen auf die Strukturen (Polity) und Prozesse (Politics) internationaler Institutionen hat. Die Ergebnisse regen dazu an, über kollektive Handlungsfähigkeit und Akteursdynamiken innerhalb von VN-Entitäten nachzudenken und Lücken in der neo-institutionalistischen Theorie hinsichtlich der Interaktion von Akteuren in interinstitutionellen Räumen zu schließen. Darüber hinaus thematisiert die Studie Trends und Herausforderungen in der globalen Umweltgovernance, die für zukünftige Politikgestaltung relevant sein können. Dazu gehören Reflexionen über die Reform-Debatte internationaler Institutionen, die Rolle aufstrebender Mächte in einer sich verändernden internationalen Weltordnung sowie die Konvergenz öffentlicher und privater Autorität durch neue Allianzen zwischen internationalen Bürokratien und nichtstaatlichen Akteuren in der globalen Umweltgovernance. KW - international relations KW - global environmental politics KW - internationale Beziehungen KW - globale Umweltpolitik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621651 ER - TY - THES A1 - Smirnov, Artem T1 - Understanding the dynamics of the near-earth space environment utilizing long-term satellite observations T1 - Verständnis der Dynamik der erdnahen Weltraumumgebung mit Hilfe von Langzeit-Satellitenbeobachtungen N2 - The near-Earth space environment is a highly complex system comprised of several regions and particle populations hazardous to satellite operations. The trapped particles in the radiation belts and ring current can cause significant damage to satellites during space weather events, due to deep dielectric and surface charging. Closer to Earth is another important region, the ionosphere, which delays the propagation of radio signals and can adversely affect navigation and positioning. In response to fluctuations in solar and geomagnetic activity, both the inner-magnetospheric and ionospheric populations can undergo drastic and sudden changes within minutes to hours, which creates a challenge for predicting their behavior. Given the increasing reliance of our society on satellite technology, improving our understanding and modeling of these populations is a matter of paramount importance. In recent years, numerous spacecraft have been launched to study the dynamics of particle populations in the near-Earth space, transforming it into a data-rich environment. To extract valuable insights from the abundance of available observations, it is crucial to employ advanced modeling techniques, and machine learning methods are among the most powerful approaches available. This dissertation employs long-term satellite observations to analyze the processes that drive particle dynamics, and builds interdisciplinary links between space physics and machine learning by developing new state-of-the-art models of the inner-magnetospheric and ionospheric particle dynamics. The first aim of this thesis is to investigate the behavior of electrons in Earth's radiation belts and ring current. Using ~18 years of electron flux observations from the Global Positioning System (GPS), we developed the first machine learning model of hundreds-of-keV electron flux at Medium Earth Orbit (MEO) that is driven solely by solar wind and geomagnetic indices and does not require auxiliary flux measurements as inputs. We then proceeded to analyze the directional distributions of electrons, and for the first time, used Fourier sine series to fit electron pitch angle distributions (PADs) in Earth's inner magnetosphere. We performed a superposed epoch analysis of 129 geomagnetic storms during the Van Allen Probes era and demonstrated that electron PADs have a strong energy-dependent response to geomagnetic activity. Additionally, we showed that the solar wind dynamic pressure could be used as a good predictor of the PAD dynamics. Using the observed dependencies, we created the first PAD model with a continuous dependence on L, magnetic local time (MLT) and activity, and developed two techniques to reconstruct near-equatorial electron flux observations from low-PA data using this model. The second objective of this thesis is to develop a novel model of the topside ionosphere. To achieve this goal, we collected observations from five of the most widely used ionospheric missions and intercalibrated these data sets. This allowed us to use these data jointly for model development, validation, and comparison with other existing empirical models. We demonstrated, for the first time, that ion density observations by Swarm Langmuir Probes exhibit overestimation (up to ~40-50%) at low and mid-latitudes on the night side, and suggested that the influence of light ions could be a potential cause of this overestimation. To develop the topside model, we used 19 years of radio occultation (RO) electron density profiles, which were fitted with a Chapman function with a linear dependence of scale height on altitude. This approximation yields 4 parameters, namely the peak density and height of the F2-layer and the slope and intercept of the linear scale height trend, which were modeled using feedforward neural networks (NNs). The model was extensively validated against both RO and in-situ observations and was found to outperform the International Reference Ionosphere (IRI) model by up to an order of magnitude. Our analysis showed that the most substantial deviations of the IRI model from the data occur at altitudes of 100-200 km above the F2-layer peak. The developed NN-based ionospheric model reproduces the effects of various physical mechanisms observed in the topside ionosphere and provides highly accurate electron density predictions. This dissertation provides an extensive study of geospace dynamics, and the main results of this work contribute to the improvement of models of plasma populations in the near-Earth space environment. N2 - Die erdnahe Weltraumumgebung ist ein hochkomplexes System, das aus mehreren Regionen und Partikelpopulationen besteht, die für den Satellitenbetrieb gefährlich sind. Die in den Strahlungsgürteln und dem Ringstrom gefangenen Teilchen können bei Weltraumwetterereignissen aufgrund der tiefen dielektrischen und oberflächlichen Aufladung erhebliche Schäden an Satelliten verursachen. Näher an der Erde liegt eine weitere wichtige Region, die Ionosphäre, die die Ausbreitung von Funksignalen verzögert und die Navigation und Positionsbestimmung beeinträchtigen kann. Als Reaktion auf Fluktuationen der solaren und geomagnetischen Aktivität können sowohl die Populationen der inneren Magnetosphäre als auch der Ionosphäre innerhalb von Minuten bis Stunden drastische und plötzliche Veränderungen erfahren, was eine Herausforderung für die Vorhersage ihres Verhaltens darstellt. Angesichts der zunehmenden Abhängigkeit unserer Gesellschaft von der Satellitentechnologie ist ein besseres Verständnis und eine bessere Modellierung dieser Populationen von größter Bedeutung. In den letzten Jahren wurden zahlreiche Raumsonden gestartet, um die Dynamik von Partikelpopulationen im erdnahen Weltraum zu untersuchen, was diesen in eine datenreiche Umgebung verwandelt hat. Um aus der Fülle der verfügbaren Beobachtungen wertvolle Erkenntnisse zu gewinnen, ist der Einsatz fortschrittlicher Modellierungstechniken unabdingbar, und Methoden des maschinellen Lernens gehören zu den leistungsfähigsten verfügbaren Ansätzen. Diese Dissertation nutzt langfristige Satellitenbeobachtungen, um die Prozesse zu analysieren, die die Teilchendynamik antreiben, und schafft interdisziplinäre Verbindungen zwischen Weltraumphysik und maschinellem Lernen, indem sie neue hochmoderne Modelle der innermagnetosphärischen und ionosphärischen Teilchendynamik entwickelt. Das erste Ziel dieser Arbeit ist es, das Verhalten von Elektronen im Strahlungsgürtel und Ringstrom der Erde zu untersuchen. Unter Verwendung von ~18 Jahren Elektronenflussbeobachtungen des Global Positioning System (GPS) haben wir das erste maschinelle Lernmodell des Elektronenflusses im mittleren Erdorbit (MEO) entwickelt, das ausschließlich durch Sonnenwind und geomagnetische Indizes gesteuert wird und keine zusätzlichen Flussmessungen als Eingaben benötigt. Anschließend analysierten wir die Richtungsverteilungen der Elektronen und verwendeten zum ersten Mal Fourier-Sinus-Reihen, um die Elektronen-Stellwinkelverteilungen (PADs) in der inneren Magnetosphäre der Erde zu bestimmen. Wir führten eine epochenübergreifende Analyse von 129 geomagnetischen Stürmen während der Van-Allen-Sonden-Ära durch und zeigten, dass die Elektronen-PADs eine starke energieabhängige Reaktion auf die geomagnetische Aktivität haben. Außerdem konnten wir zeigen, dass der dynamische Druck des Sonnenwindes als guter Prädiktor für die PAD-Dynamik verwendet werden kann. Anhand der beobachteten Abhängigkeiten haben wir das erste PAD-Modell mit einer kontinuierlichen Abhängigkeit von L, der magnetischen Ortszeit (MLT) und der Aktivität erstellt und zwei Techniken entwickelt, um die Beobachtungen des äquatornahen Elektronenflusses aus Daten mit niedrigem Luftdruck mit Hilfe dieses Modells zu rekonstruieren. Das zweite Ziel dieser Arbeit ist die Entwicklung eines neuen Modells der Topside-Ionosphäre. Um dieses Ziel zu erreichen, haben wir Beobachtungen von fünf der meistgenutzten Ionosphärenmissionen gesammelt und diese Datensätze interkalibriert. So konnten wir diese Daten gemeinsam für die Modellentwicklung, die Validierung und den Vergleich mit anderen bestehenden empirischen Modellen nutzen. Wir haben zum ersten Mal gezeigt, dass die Ionendichtebeobachtungen von Swarm-Langmuir-Sonden in niedrigen und mittleren Breiten auf der Nachtseite eine Überschätzung (bis zu ~40-50%) aufweisen, und haben vorgeschlagen, dass der Einfluss leichter Ionen eine mögliche Ursache für diese Überschätzung sein könnte. Zur Entwicklung des Oberseitenmodells wurden 19 Jahre lang Elektronendichteprofile aus der Radio-Okkultation (RO) verwendet, die mit einer Chapman-Funktion mit einer linearen Abhängigkeit der Skalenhöhe von der Höhe angepasst wurden. Aus dieser Näherung ergeben sich 4 Parameter, nämlich die Spitzendichte und die Höhe der F2-Schicht sowie die Steigung und der Achsenabschnitt des linearen Trends der Skalenhöhe, die mit Hilfe von neuronalen Feedforward-Netzwerken (NN) modelliert wurden. Das Modell wurde sowohl anhand von RO- als auch von In-situ-Beobachtungen umfassend validiert und übertrifft das Modell der Internationalen Referenz-Ionosphäre (IRI). Unsere Analyse zeigte, dass die größten Abweichungen des IRI-Modells von den Daten in Höhen von 100-200 km über der F2-Schichtspitze auftreten. Das entwickelte NN-basierte Ionosphärenmodell reproduziert die Auswirkungen verschiedener physikalischer Mechanismen, die in der Topside-Ionosphäre beobachtet werden, und liefert sehr genaue Vorhersagen der Elektronendichte. Diese Dissertation bietet eine umfassende Untersuchung der Dynamik in der Geosphäre, und die wichtigsten Ergebnisse dieser Arbeit tragen zur Verbesserung der Modelle von Plasmapopulationen in der erdnahen Weltraumumgebung bei. KW - Ionosphere KW - radiation belts KW - ring current KW - space physics KW - empirical modeling KW - machine learning KW - gradient boosting KW - neural networks KW - Ionosphäre KW - empirische Modellierung KW - Gradient Boosting KW - maschinelles Lernen KW - neuronale Netze KW - Strahlungsgürtel KW - Ringstrom KW - Weltraumphysik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613711 ER - TY - THES A1 - Förstner, Bernd Rainer T1 - Transdiagnostic assessment of mental disorders using the Research Domain Criteria (RDoC) approach: relationship to disease severity N2 - Traditionally, mental disorders have been identified based on specific symptoms and standardized diagnostic systems such as the DSM-5 and ICD-10. However, these symptom-based definitions may only partially represent neurobiological and behavioral research findings, which could impede the development of targeted treatments. A transdiagnostic approach to mental health research, such as the Research Domain Criteria (RDoC) approach, maps resilience and broader aspects of mental health to associated components. By investigating mental disorders in a transnosological way, we can better understand disease patterns and their distinguishing and common factors, leading to more precise prevention and treatment options. Therefore, this dissertation focuses on (1) the latent domain structure of the RDoC approach in a transnosological sample including healthy controls, (2) its domain associations to disease severity in patients with anxiety and depressive disorders, and (3) an overview of the scientific results found regarding Positive (PVS) and Negative Valence Systems (NVS) associated with mood and anxiety disorders. The following main results were found: First, the latent RDoC domain structure for PVS and NVS, Cognitive Systems (CS), and Social Processes (SP) could be validated using self-report and behavioral measures in a transnosological sample. Second, we found transdiagnostic and disease-specific associations between those four domains and disease severity in patients with depressive and anxiety disorders. Third, the scoping review showed a sizable amount of RDoC research conducted on PVS and NVS in mood and anxiety disorders, with research gaps for both domains and specific conditions. In conclusion, the research presented in this dissertation highlights the potential of the transnosological RDoC framework approach in improving our understanding of mental disorders. By exploring the latent RDoC structure and associations with disease severity and disease-specific and transnosological associations for anxiety and depressive disorders, this research provides valuable insights into the full spectrum of psychological functioning. Additionally, this dissertation highlights the need for further research in this area, identifying both RDoC indicators and research gaps. Overall, this dissertation represents an important contribution to the ongoing efforts to improve our understanding and the treatment of mental disorders, particularly within the commonly comorbid disease spectrum of mood and anxiety disorders. N2 - Traditionell werden psychische Störungen auf der Grundlage spezifischer Symptome und standardisierter Diagnosesysteme wie DSM-5 und ICD-10 diagnostiziert. Diese symptombasierten Definitionen entsprechen jedoch nur teilweise den Erkenntnissen der neurobiologischen und Verhaltensforschung, was die Entwicklung gezielter Behandlungen behindern kann. Ein transdiagnostischer Ansatz zur Erforschung psychischer Gesundheit, wie z. B. der Research Domain Criteria (RDoC) Ansatz, ordnet umfassendere Aspekte psychischer Gesundheit, wie z. B. Resilienz, den entsprechenden Komponenten zu. Durch die Untersuchung psychischer Störungen aus einer transnosologischen Perspektive können wir Krankheitsbilder und ihre gemeinsamen und unterscheidenden Faktoren besser verstehen, was zu präziseren Präventions- und Behandlungsmöglichkeiten führt. Daher konzentriert sich diese Dissertation auf (1) die latente Domänenstruktur des RDoC-Ansatzes in einer transnosologischen Stichprobe einschließlich gesunder Kontrollen, (2) die domänenspezifischen Assoziationen zur Krankheitsschwere bei Patienten mit Angst- und depressiven Störungen und (3) einen Überblick über die wissenschaftlichen Ergebnisse zu Positiven (PVS) und Negativen Valenzsystemen (NVS), die mit Affektiven Störungen assoziiert sind. Die folgenden Hauptergebnisse wurden gefunden: Erstens konnte die latente RDoC-Domänenstruktur für PVS und NVS, Kognitive Systeme (CS) und Soziale Prozesse (SP) anhand von Selbstberichten und Verhaltensmessungen in einer transnosologischen Stichprobe validiert werden. Zweitens fanden wir transdiagnostische und krankheitsspezifische Assoziationen zwischen diesen vier Domänen und der Krankheitsschwere bei Patienten mit Angst- und depressiven Störungen. Drittens zeigte die durchgeführte Übersichtsarbeit eine beträchtliche Menge an RDoC-Forschung zu PVS und NVS bei affektiven Störungen, mit Forschungslücken für beide Domänen und spezifische Bedingungen. Zusammenfassend lässt sich sagen, dass die in dieser Dissertation vorgestellten Forschungsergebnisse das Potenzial des transnosologischen RDoC-Konzepts zur Verbesserung unseres Verständnisses psychischer Störungen unterstreichen. Durch die Untersuchung der latenten RDoC-Struktur und der Assoziationen mit dem Krankheitsschweregrad sowie der krankheitsspezifischen und transnosologischen Assoziationen für Angst- und depressive Störungen liefert diese Forschungsarbeit wertvolle Einblicke in das gesamte Spektrum psychischer Funktionsweisen. Darüber hinaus zeigt diese Dissertation den Bedarf an weiterer Forschung in diesem Bereich auf, indem sie sowohl RDoC-Indikatoren als auch Forschungslücken identifiziert. Insgesamt stellt diese Dissertation einen wichtigen Beitrag zu den laufenden Bemühungen um ein besseres Verständnis und eine bessere Behandlung psychischer Störungen dar, insbesondere innerhalb des häufig komorbiden Krankheitsspektrums der affektiven Störungen. KW - diagnosis and classification KW - Research Domain Criteria KW - RDoC KW - transdiagnostic KW - positive valence systems KW - negative valence systems KW - disease severity KW - Diagnose und Klassifikation KW - transdiagnostisch KW - positives Valenzsystem KW - negatives Valenzsystem KW - Krankheitsschwere Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611150 ER - TY - THES A1 - Drobyshev, Evgenii T1 - Toxic or beneficial? What is the role of food-relevant selenium species selenoneine? T1 - Giftig oder nützlich? Welche Rolle spielt die lebensmittelrelevante Selenspezies Selenonein? N2 - Selenium (Se) is an essential trace element that is ubiquitously present in the environment in small concentrations. Essential functions of Se in the human body are manifested through the wide range of proteins, containing selenocysteine as their active center. Such proteins are called selenoproteins which are found in multiple physiological processes like antioxidative defense and the regulation of thyroid hormone functions. Therefore, Se deficiency is known to cause a broad spectrum of physiological impairments, especially in endemic regions with low Se content. Nevertheless, being an essential trace element, Se could exhibit toxic effects, if its intake exceeds tolerable levels. Accordingly, this range between deficiency and overexposure represents optimal Se supply. However, this range was found to be narrower than for any other essential trace element. Together with significantly varying Se concentrations in soil and the presence of specific bioaccumulation factors, this represents a noticeable difficulty in the assessment of Se epidemiological status. While Se is acting in the body through multiple selenoproteins, its intake occurs mainly in form of small organic or inorganic molecular mass species. Thus, Se exposure not only depends on daily intake but also on the respective chemical form, in which it is present. The essential functions of selenium have been known for a long time and its primary forms in different food sources have been described. Nevertheless, analytical capabilities for a comprehensive investigation of Se species and their derivatives have been introduced only in the last decades. A new Se compound was identified in 2010 in the blood and tissues of bluefin tuna. It was called selenoneine (SeN) since it is an isologue of naturally occurring antioxidant ergothioneine (ET), where Se replaces sulfur. In the following years, SeN was identified in a number of edible fish species and attracted attention as a new dietary Se source and potentially strong antioxidant. Studies in populations whose diet largely relies on fish revealed that SeN represents the main non-protein bound Se pool in their blood. First studies, conducted with enriched fish extracts, already demonstrated the high antioxidative potential of SeN and its possible function in the detoxification of methylmercury in fish. Cell culture studies demonstrated, that SeN can utilize the same transporter as ergothioneine, and SeN metabolite was found in human urine. Until recently, studies on SeN properties were severely limited due to the lack of ways to obtain the pure compound. As a predisposition to this work was firstly a successful approach to SeN synthesis in the University of Graz, utilizing genetically modified yeasts. In the current study, by use of HepG2 liver carcinoma cells, it was demonstrated, that SeN does not cause toxic effectsup to 100 μM concentration in hepatocytes. Uptake experiments showed that SeN is not bioavailable to the used liver cells. In the next part a blood-brain barrier (BBB) model, based on capillary endothelial cells from the porcine brain, was used to describe the possible transfer of SeN into the central nervous system (CNS). The assessment of toxicity markers in these endothelial cells and monitoring of barrier conditions during transfer experiments demonstrated the absence of toxic effects from SeN on the BBB endothelium up to 100 μM concentration. Transfer data for SeN showed slow but substantial transfer. A statistically significant increase was observed after 48 hours following SeN incubation from the blood-facing side of the barrier. However, an increase in Se content was clearly visible already after 6 hours of incubation with 1 μM of SeN. While the transfer rate of SeN after application of 0.1 μM dose was very close to that for 1 μM, incubation with 10 μM of SeN resulted in a significantly decreased transfer rate. Double-sided application of SeN caused no side-specific transfer of SeN, thus suggesting a passive diffusion mechanism of SeN across the BBB. This data is in accordance with animal studies, where ET accumulation was observed in the rat brain, even though rat BBB does not have the primary ET transporter – OCTN1. Investigation of capillary endothelial cell monolayers after incubation with SeN and reference selenium compounds showed no significant increase of intracellular selenium concentration. Speciesspecific Se measurements in medium samples from apical and basolateral compartments, as good as in cell lysates, showed no SeN metabolization. Therefore, it can be concluded that SeN may reach the brain without significant transformation. As the third part of this work, the assessment of SeN antioxidant properties was performed in Caco-2 human colorectal adenocarcinoma cells. Previous studies demonstrated that the intestinal epithelium is able to actively transport SeN from the intestinal lumen to the blood side and accumulate SeN. Further investigation within current work showed a much higher antioxidant potential of SeN compared to ET. The radical scavenging activity after incubation with SeN was close to the one observed for selenite and selenomethionine. However, the SeN effect on the viability of intestinal cells under oxidative conditions was close to the one caused by ET. To answer the question if SeN is able to be used as a dietary Se source and induce the activity of selenoproteins, the activity of glutathione peroxidase (GPx) and the secretion of selenoprotein P (SelenoP) were measured in Caco-2 cells, additionally. As expected, reference selenium compounds selenite and selenomethionine caused efficient induction of GPx activity. In contrast to those SeN had no effect on GPx activity. To examine the possibility of SeN being embedded into the selenoproteome, SelenoP was measured in a culture medium. Even though Caco-2 cells effectively take up SeN in quantities much higher than selenite or selenomethionine, no secretion of SelenoP was observed after SeN incubation. Summarizing, we can conclude that SeN can hardly serve as a Se source for selenoprotein synthesis. However, SeN exhibit strong antioxidative properties, which appear when sulfur in ET is exchanged by Se. Therefore, SeN is of particular interest for research not as part of Se metabolism, but important endemic dietary antioxidant. N2 - Selen (Se) ist ein essentielles Spurenelement, das in geringen Konzentrationen ubiquitär in der Umwelt vorkommt. Essentielle Funktionen von Se im menschlichen Körper manifestieren sich in einer Vielzahl von Proteinen, die Selenocystein als aktives Zentrum enthalten. Solche Proteine werden Selenoproteine genannt, die in zahlreichen physiologischen Prozessen wie der antioxidativen Abwehr und der Regulierung der Schilddrüsenhormonfunktionen vorkommen. Daher ist bekannt, dass ein Se-Mangel ein breites Spektrum physiologischer Beeinträchtigungen verursacht, insbesondere in solchen Regionen mit niedrigem Se-Bodengahlten. Dennoch kann Se als essentielles Spurenelement auch toxische Wirkungen entfalten, wenn seine Aufnahme das tolerierbare Maß überschreitet. Dementsprechend stellt dieser Bereich zwischen Mangel und Überbelichtung eine optimale Se-Versorgung dar. Dieser Bereich erwies sich jedoch als enger als bei jedem anderen essentiellen Spurenelement. Zusammen mit stark schwankenden SeKonzentrationen im Boden und dem Vorliegen spezifischer Bioakkumulationsfaktoren stellt dies eine deutliche Schwierigkeit bei der Beurteilung des epidemiologischen Selenstatus dar. Während im Körper mehrere Selenoproteine vorliegen, erfolgt seine Aufnahme hauptsächlich in Form kleiner organischer oder anorganischer Moleküle. Somit hängt die Se-Exposition nicht nur von der täglichen Aufnahme ab, sondern auch von der jeweiligen chemischen Form, in der es vorliegt. Die essentiellen Funktionen von Selen sind seit langem bekannt und seine Primärformen in verschiedenen Nahrungsquellen dominierenden Formen wurden bereits gut beschrieben. Dennoch wurden erst in den letzten Jahrzehnten neue analytische Möglichkeiten für eine umfassendere Untersuchung von Se-Spezies und ihren Derivaten entwickelt. Beispielsweise wurde 2010 eine neue Se-Verbindung im Blut und im Gewebe von Rotem Thunfisch identifiziert. Es wurde Selenonein (SeN) genannt, da es ein Isolog des natürlich vorkommenden Antioxidans Ergothionein (ET) ist, bei dem Se durch Schwefel ersetzt ist. In den folgenden Jahren wurde SeN in einer Reihe von essbaren Fischarten identifiziert und erregte einerseits als neue Nahrungsquelle für Se und andererseits als potenziell starkes Antioxidans Aufmerksamkeit. Studien an Probanden, deren Ernährung hauptsächlich von Fisch geprägt ist, haben gezeigt, dass SeN den hauptsächlichen nicht-proteingebundenen Se-Pool in ihrem Blut darstellt. Erste Studien mit angereicherten Fischextrakten zeigten bereits das hohe antioxidative Potenzial von SeN und seine mögliche Funktion bei der Entgiftung von Methylquecksilber im Fisch. Zellkulturstudien zeigten, dass SeN den gleichen Transporter wie Ergothionein nutzen kann und ein weiterer SeN-Metabolit wurde im menschlichen Urin gefunden. Bis vor kurzem waren Studien zu den Eigenschaften von SeN aufgrund fehlender Möglichkeiten, die reine Verbindung zu erwerben, stark eingeschränkt. Als wichtige Grundlage für die vorliegende Arbeit diente zunächst die erfolgreiche Synthese des SeN, welche an der Universität Graz unter Verwendung gentechnisch veränderter Hefen erfolgte. In der aktuellen Studie wurde unter Verwendung von HepG2-Leberkarzinomzellen gezeigt, dass SeN in physiologisch relevanten Konzentrationen keine toxischen Effekte in diesen Hepatozyten induziert. Bioverfügbarkeitsexperimente zeigten, dass SeN für die verwendeten Leberzellen nicht bioverfügbar ist. Im nächsten Teil wurde ein Modell der Blut-Hirn-Schranke (BHS) verwendet, das auf kapillaren Endothelzellen aus dem Schweinehirn basiert, um den möglichen Transfer von SeN in das zentrale Nervensystem (ZNS) zu untersuchen. Die Bewertung von Toxizitätsmarkern in diesen Endothelzellen und die online Überwachung der Barriere-Bedingungen während der Transferexperimente zeigten, dass bei physiologisch relevanten Konzentrationen keine toxischen Wirkungen von SeN auf das BHS-Endothel auftreten. Daten bezüglich des Übergangs der Selenspezies SeN zeigten zwar eine langsame, jedoch eine nicht zu vernachlässigenden Menge, die die Barriere passieren kann. Die gleichzeitige Inkubation von SeN auf beiden Barriere-Seiten verursachte keinen seitenspezifischen Transfer von SeN, was auf einen passiven Diffusionsmechanismus von SeN über die BHS hindeutet. Diese Daten stimmen mit Tierstudien überein, in denen eine ET-Akkumulation im Rattengehirn beobachtet wurde, obwohl die BHS der Ratte nicht über den primären ET-Transporter – OCTN1 – verfügt. Die Untersuchung von Monolayern aus kapillaren Endothelzellen nach Inkubation mit SeN und Referenzselenverbindungen zeigte keinen signifikanten Anstieg der intrazellulären Selenkonzentration. Speziesspezifische Se-Messungen in Mediumproben aus den apikalen und basolateralen Kompartimenten, sowie in den Zelllysaten zeigten keine SeN-Metabolisierung. Daraus kann geschlossen werden, dass SeN das Gehirn ohne signifikante Transformation erreichen kann. Als dritter Teil dieser Arbeit wurde die Bewertung der antioxidativen Eigenschaften von SeN in menschlichen Caco-2, also kolorektale Adenokarzinomzellen, durchgeführt. Frühere Studien zeigten, dass das Darmepithel in der Lage ist, SeN aktiv vom Darmlumen zur Blutseite zu transportieren und dort SeN anzureichern. Weitere Untersuchungen im Rahmen der aktuellen Arbeiten zeigten ein viel höheres antioxidatives Potenzial von SeN im Vergleich zu ET. Die Aktivität als Radikalfänger nach Inkubation mit SeN war ähnlich wie bei Selenit und Selenomethionin. Wobei die Wirkung von SeN auf die Lebensfähigkeit von Darmzellen unter oxidativen Bedingungen jedoch ähnlich der durch ET verursachten war. Um die Frage zu beantworten, ob SeN als diätetische Se-Quelle verwendet werden kann um die Aktivität von Selenoproteinen zu induzieren, wurden zusätzlich die Aktivität der Glutathionperoxidase (GPx) und die Sekretion von Selenoprotein P (SelenoP) in Caco-2-Zellen gemessen. Wie erwartet, bewirkten die Referenz-Selenverbindungen Selenit und Selenomethionin eine effiziente Induktion der GPx-Aktivität, im Gegensatz zu diesen hatte SeN keinen Einfluss auf die GPx-Aktivität. Um die Möglichkeit einer Einbettung von SeN in das Selenoproteom zu untersuchen, wurde SelenoP im Kulturmedium gemessen. Obwohl Caco-2-Zellen SeN effektiv in viel höherenMengen als Selenit oder Selenomethionin aufnehmen, wurde nach der SeN-Inkubation keine Sekretion von SelenoP beobachtet. Zusammenfassend können wir schlussfolgern, dass SeN kaum als Se-Quelle für die Selenoproteinsynthese dienen kann. SeN weist jedoch starke antioxidative Eigenschaften auf, die auftreten, wenn Schwefel in ET durch Se ausgetauscht wird. Daher ist SeN von besonderem Interesse für die Forschung, nicht als Teil des Se-Stoffwechsels, sondern als wichtiges endemisches diätetisches Antioxidans. KW - selenium KW - selenoneine KW - HepG2 KW - Caco-2 KW - PBCEC KW - Caco-2 KW - HepG2 KW - PBCEC KW - Selen KW - Selenonein Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573794 ER - TY - THES A1 - Seleem, Omar T1 - Towards urban pluvial flood mapping using data-driven models T1 - Kartierung städtischer Überschwemmungen mit datengesteuerten Modellen N2 - Casualties and damages from urban pluvial flooding are increasing. Triggered by short, localized, and intensive rainfall events, urban pluvial floods can occur anywhere, even in areas without a history of flooding. Urban pluvial floods have relatively small temporal and spatial scales. Although cumulative losses from urban pluvial floods are comparable, most flood risk management and mitigation strategies focus on fluvial and coastal flooding. Numerical-physical-hydrodynamic models are considered the best tool to represent the complex nature of urban pluvial floods; however, they are computationally expensive and time-consuming. These sophisticated models make large-scale analysis and operational forecasting prohibitive. Therefore, it is crucial to evaluate and benchmark the performance of other alternative methods. The findings of this cumulative thesis are represented in three research articles. The first study evaluates two topographic-based methods to map urban pluvial flooding, fill–spill–merge (FSM) and topographic wetness index (TWI), by comparing them against a sophisticated hydrodynamic model. The FSM method identifies flood-prone areas within topographic depressions while the TWI method employs maximum likelihood estimation to calibrate a TWI threshold (τ) based on inundation maps from the 2D hydrodynamic model. The results point out that the FSM method outperforms the TWI method. The study highlights then the advantage and limitations of both methods. Data-driven models provide a promising alternative to computationally expensive hydrodynamic models. However, the literature lacks benchmarking studies to evaluate the different models' performance, advantages and limitations. Model transferability in space is a crucial problem. Most studies focus on river flooding, likely due to the relative availability of flow and rain gauge records for training and validation. Furthermore, they consider these models as black boxes. The second study uses a flood inventory for the city of Berlin and 11 predictive features which potentially indicate an increased pluvial flooding hazard to map urban pluvial flood susceptibility using a convolutional neural network (CNN), an artificial neural network (ANN) and the benchmarking machine learning models random forest (RF) and support vector machine (SVM). I investigate the influence of spatial resolution on the implemented models, the models' transferability in space and the importance of the predictive features. The results show that all models perform well and the RF models are superior to the other models within and outside the training domain. The models developed using fine spatial resolution (2 and 5 m) could better identify flood-prone areas. Finally, the results point out that aspect is the most important predictive feature for the CNN models, and altitude is for the other models. While flood susceptibility maps identify flood-prone areas, they do not represent flood variables such as velocity and depth which are necessary for effective flood risk management. To address this, the third study investigates data-driven models' transferability to predict urban pluvial floodwater depth and the models' ability to enhance their predictions using transfer learning techniques. It compares the performance of RF (the best-performing model in the previous study) and CNN models using 12 predictive features and output from a hydrodynamic model. The findings in the third study suggest that while CNN models tend to generalise and smooth the target function on the training dataset, RF models suffer from overfitting. Hence, RF models are superior for predictions inside the training domains but fail outside them while CNN models could control the relative loss in performance outside the training domains. Finally, the CNN models benefit more from transfer learning techniques than RF models, boosting their performance outside training domains. In conclusion, this thesis has evaluated both topographic-based methods and data-driven models to map urban pluvial flooding. However, further studies are crucial to have methods that completely overcome the limitation of 2D hydrodynamic models. N2 - Die Zahl der Todesopfer und Schäden durch Überschwemmungen in Städten nimmt zu. Ausgelöst durch kurze, lokal begrenzte und intensive Niederschlagsereignisse können urbane pluviale Überschwemmungen überall auftreten - sogar in Gebieten, in denen es in der Vergangenheit keine Überschwemmungen gab. Urbane pluviale Überschwemmungen haben eine relativ geringe zeitliche und räumliche Ausdehnung. Obwohl die kumulativen Verluste durch urbane pluviale Überschwemmungen vergleichbar sind, konzentrieren sich die meisten Hochwasserrisikomanagement- und -minderungsstrategien auf Fluss- und Küstenüberschwemmungen. Numerisch-physikalisch-hydrodynamische Modelle gelten als das beste Instrument zur Darstellung der komplexen Natur städtischer pluvialer Überschwemmungen; sie sind jedoch rechenintensiv und zeitaufwändig. Diese anspruchsvollen Modelle machen groß angelegte Analysen und operationelle Vorhersagen unerschwinglich. Daher ist es von entscheidender Bedeutung, die Leistung anderer Methoden zu bewerten und zu vergleichen, die komplexe hydrodynamische Modelle ersetzen könnten. Die Ergebnisse dieser kumulativen Arbeit werden in drei Forschungsartikeln dargestellt. In der ersten Studie bewerte ich zwei topografiebasierte Methoden zur Kartierung von Überschwemmungen in Städten, die Fill-Spill-Merge-Methode (FSM) und den topografischen Nässeindex (TWI), indem ich sie mit einem hochentwickelten hydrodynamischen Modell vergleiche. Die FSM-Methode identifiziert überschwemmungsgefährdete Gebiete innerhalb topografischer Senken, während die TWI-Methode eine Maximum-Likelihood-Schätzung verwendet, um einen TWI-Schwellenwert (τ) auf der Grundlage von Überschwemmungskarten aus dem hydrodynamischen 2D-Modell zu kalibrieren. Die Ergebnisse zeigen, dass die FSM-Methode die TWI-Methode übertrifft. Anschließend werden die Vorteile und Grenzen beider Methoden aufgezeigt. Datengesteuerte Modelle stellen eine vielversprechende Alternative zu rechenintensiven hydrodynamischen Modellen dar. In der Literatur fehlt es jedoch an Benchmarking-Studien zur Bewertung der Leistung, Vorteile und Grenzen der verschiedenen Modelle. Die räumliche Übertragbarkeit von Modellen ist ein entscheidendes Problem. Die meisten Studien konzentrieren sich auf Flussüberschwemmungen, was wahrscheinlich auf die relative Verfügbarkeit von Abfluss- und Regenmesserdaten für Training und Validierung zurückzuführen ist. Außerdem betrachten sie diese Modelle als Black Boxes. In der zweiten Studie verwende ich ein Hochwasserinventar für die Stadt Berlin und 11 prädiktive Merkmale, die potenziell auf eine erhöhte pluviale Hochwassergefahr hinweisen, um die Anfälligkeit für pluviale Überschwemmungen in Städten zu kartieren. Dazu verwende ich ein Faltungsneuronales Netzwerk (CNN), ein Künstliches Neuronales Netzwerk (ANN) und die Benchmarking-Modelle Random Forest (RF) und Support Vector Machine (SVM). Ich untersuche den Einfluss der räumlichen Auflösung auf die implementierten Modelle, die Übertragbarkeit der Modelle im Raum und die Bedeutung der prädiktiven Merkmale. Die Ergebnisse zeigen, dass alle Modelle gut abschneiden und die RF-Modelle den anderen Modellen innerhalb und außerhalb des Trainingsbereichs überlegen sind. Die Modelle, die mit feiner räumlicher Auflösung (2 und 5 m) entwickelt wurden, konnten hochwassergefährdete Gebiete besser identifizieren. Schließlich zeigen die Ergebnisse, dass der Aspekt das wichtigste Vorhersagemerkmal für die CNN-Modelle ist, und die Höhe für die anderen Modelle. Während Hochwasseranfälligkeitskarten überschwemmungsgefährdete Gebiete identifizieren, stellen sie keine Hochwasservariablen wie Geschwindigkeit und Wassertiefe dar, die für ein effektives Hochwasserrisikomanagement notwendig sind. Um dieses Problem anzugehen, untersuche ich in der dritten Studie die Übertragbarkeit datengesteuerter Modelle auf die Vorhersage der Überschwemmungstiefe in städtischen Gebieten und die Fähigkeit der Modelle, ihre Vorhersagen durch Transfer-Learning-Techniken zu verbessern. Ich vergleiche die Leistung von RF- (das beste Modell in der vorherigen Studie) und CNN-Modellen anhand von 12 Vorhersagemerkmalen und den Ergebnissen eines hydrodynamischen Modells. Die Ergebnisse der dritten Studie deuten darauf hin, dass CNN-Modelle dazu neigen, die Zielfunktion auf dem Trainingsdatensatz zu verallgemeinern und zu glätten, während RF-Modelle unter Overfitting leiden. Daher sind RF-Modelle für Vorhersagen innerhalb der Trainingsbereiche überlegen, versagen aber außerhalb davon, während CNN-Modelle den relativen Leistungsverlust außerhalb der Trainingsdomänen kontrollieren können. Schließlich profitieren die CNN-Modelle mehr von Transfer-Learning-Techniken als RF-Modelle, was ihre Leistung außerhalb der Trainingsbereiche erhöht. Zusammenfassend lässt sich sagen, dass in dieser Arbeit sowohl topografiebasierte Methoden als auch datengesteuerte Modelle zur Kartierung von Überschwemmungen in Städten bewertet wurden. Weitere Studien sind jedoch von entscheidender Bedeutung, um Methoden zu entwickeln, die die Beschränkungen von 2D-hydrodynamischen Modellen vollständig überwinden. KW - urban pluvial flood KW - machine learning KW - deep learning KW - topography KW - tiefes Lernen KW - maschinelles Lernen KW - Topographie KW - städtische Überschwemmungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-598137 ER - TY - THES A1 - Gómez Zapata, Juan Camilo T1 - Towards unifying approaches in exposure modelling for scenario-based multi-hazard risk assessments N2 - This cumulative thesis presents a stepwise investigation of the exposure modelling process for risk assessment due to natural hazards while highlighting its, to date, not much-discussed importance and associated uncertainties. Although “exposure” refers to a very broad concept of everything (and everyone) that is susceptible to damage, in this thesis it is narrowed down to the modelling of large-area residential building stocks. Classical building exposure models for risk applications have been constructed fully relying on unverified expert elicitation over data sources (e.g., outdated census datasets), and hence have been implicitly assumed to be static in time and in space. Moreover, their spatial representation has also typically been simplified by geographically aggregating the inferred composition onto coarse administrative units whose boundaries do not always capture the spatial variability of the hazard intensities required for accurate risk assessments. These two shortcomings and the related epistemic uncertainties embedded within exposure models are tackled in the first three chapters of the thesis. The exposure composition of large-area residential building stocks is studied on the scope of scenario-based earthquake loss models. Then, the proposal of optimal spatial aggregation areas of exposure models for various hazard-related vulnerabilities is presented, focusing on ground-shaking and tsunami risks. Subsequently, once the experience is gained in the study of the composition and spatial aggregation of exposure for various hazards, this thesis moves towards a multi-hazard context while addressing cumulative damage and losses due to consecutive hazard scenarios. This is achieved by proposing a novel method to account for the pre-existing damage descriptions on building portfolios as a key input to account for scenario-based multi-risk assessment. Finally, this thesis shows how the integration of the aforementioned elements can be used in risk communication practices. This is done through a modular architecture based on the exploration of quantitative risk scenarios that are contrasted with social risk perceptions of the directly exposed communities to natural hazards. In Chapter 1, a Bayesian approach is proposed to update the prior assumptions on such composition (i.e., proportions per building typology). This is achieved by integrating high-quality real observations and then capturing the intrinsic probabilistic nature of the exposure model. Such observations are accounted as real evidence from both: field inspections (Chapter 2) and freely available data sources to update existing (but outdated) exposure models (Chapter 3). In these two chapters, earthquake scenarios with parametrised ground motion fields were transversally used to investigate the role of such epistemic uncertainties related to the exposure composition through sensitivity analyses. Parametrised scenarios of seismic ground shaking were the hazard input utilised to study the physical vulnerability of building portfolios. The second issue that was investigated, which refers to the spatial aggregation of building exposure models, was investigated within two decoupled vulnerability contexts: due to seismic ground shaking through the integration of remote sensing techniques (Chapter 3); and within a multi-hazard context by integrating the occurrence of associated tsunamis (Chapter 4). Therein, a careful selection of the spatial aggregation entities while pursuing computational efficiency and accuracy in the risk estimates due to such independent hazard scenarios (i.e., earthquake and tsunami) are discussed. Therefore, in this thesis, the physical vulnerability of large-area building portfolios due to tsunamis is considered through two main frames: considering and disregarding the interaction at the vulnerability level, through consecutive and decoupled hazard scenarios respectively, which were then contrasted. Contrary to Chapter 4, where no cumulative damages are addressed, in Chapter 5, data and approaches, which were already generated in former sections, are integrated with a novel modular method to ultimately study the likely interactions at the vulnerability level on building portfolios. This is tested by evaluating cumulative damages and losses after earthquakes with increasing magnitude followed by their respective tsunamis. Such a novel method is grounded on the possibility of re-using existing fragility models within a probabilistic framework. The same approach is followed in Chapter 6 to forecast the likely cumulative damages to be experienced by a building stock located in a volcanic multi-hazard setting (ash-fall and lahars). In that section, special focus was made on the manner the forecasted loss metrics are communicated to locally exposed communities. Co-existing quantitative scientific approaches (i.e., comprehensive exposure models; explorative risk scenarios involving single and multiple hazards) and semi-qualitative social risk perception (i.e., level of understanding that the exposed communities have about their own risk) were jointly considered. Such an integration ultimately allowed this thesis to also contribute to enhancing preparedness, science divulgation at the local level as well as technology transfer initiatives. Finally, a synthesis of this thesis along with some perspectives for improvement and future work are presented. N2 - Diese kumulative Diplomarbeit stellt eine schrittweise Untersuchung des Expositionsmodellierungsprozesses für die Risikobewertung durch Naturgefahren dar und weist auf seine bisher wenig diskutierte Bedeutung und die damit verbundenen Unsicherheiten hin. Obwohl sich „Exposition“ auf einen sehr weiten Begriff von allem (und jedem) bezieht, der für Schäden anfällig ist, wird er in dieser Arbeit auf die Modellierung von großräumigen Wohngebäudebeständen eingeengt. Klassische Gebäudeexpositionsmodelle für Risikoanwendungen wurden vollständig auf der Grundlage unbestätigter Expertenerhebungen über Datenquellen (z. B. veraltete Volkszählungsdatensätze) erstellt und wurden daher implizit als zeitlich und räumlich statisch angenommen. Darüber hinaus wurde ihre räumliche Darstellung typischerweise auch vereinfacht, indem die abgeleitete Zusammensetzung geografisch auf grobe Verwaltungseinheiten aggregiert wurde, deren Grenzen nicht immer die räumliche Variabilität der Gefahrenintensitäten erfassen, die für genaue Risikobewertungen erforderlich sind. Diese beiden Mängel und die damit verbundenen epistemischen Unsicherheiten, die in Expositionsmodellen eingebettet sind, werden in den ersten drei Kapiteln der Dissertation verfolgt. Die Exposure-Zusammensetzung von großflächigen Wohngebäudebeständen wird im Rahmen szenariobasierter Erdbebenschadenmodelle untersucht. Anschließend wird der Vorschlag optimaler räumlicher Aggregationsbereiche von Expositionsmodellen für verschiedene gefahrenbezogene Anfälligkeiten präsentiert, wobei der Schwerpunkt auf Bodenerschütterungs- und Tsunami-Risiken liegt. Anschließend, sobald die Erfahrung in der Untersuchung der Zusammensetzung und räumlichen Aggregation der Exposition für verschiedene Gefahren gesammelt wurde, bewegt sich diese Arbeit in Richtung eines Kontextes mit mehreren Gefahren, während sie sich mit kumulativen Schäden und Verlusten aufgrund aufeinanderfolgender Gefahrenszenarien befasst. Dies wird erreicht, indem eine neuartige Methode vorgeschlagen wird, um die bereits bestehenden Schadensbeschreibungen an Gebäudeportfolios als Schlüsseleingabe für die Berücksichtigung einer szenariobasierten Multi-Risiko-Bewertung zu berücksichtigen. Abschließend zeigt diese Arbeit, wie die Integration der oben genannten Elemente in der Risikokommunikation genutzt werden kann. Dies erfolgt durch eine modulare Architektur, die auf der Untersuchung quantitativer Risikoszenarien basiert, die mit der sozialen Risikowahrnehmung der direkt von Naturgefahren betroffenen Gemeinschaften kontrastiert werden. In Kapitel 1 wird ein bayesianischer Ansatz vorgeschlagen, um die früheren Annahmen zu einer solchen Zusammensetzung (d. h. Anteile pro Gebäudetypologie) zu aktualisieren. Dies wird erreicht, indem hochwertige reale Beobachtungen integriert und dann die intrinsische Wahrscheinlichkeitsnatur des Expositionsmodells erfasst wird. Solche Beobachtungen werden sowohl aus Feldbegehungen (Kapitel 2) als auch aus frei verfügbaren Datenquellen zur Aktualisierung bestehender (aber veralteter) Expositionsmodelle (Kapitel 3) als echte Beweise gewertet. In diesen beiden Kapiteln wurden Erdbebenszenarien mit parametrisierten Bodenbewegungsfeldern transversal verwendet, um die Rolle solcher epistemischen Unsicherheiten in Bezug auf die Expositionszusammensetzung durch Sensitivitätsanalysen zu untersuchen. Parametrisierte Szenarien seismischer Bodenerschütterungen waren der Gefahreneingang, der verwendet wurde, um die physische Anfälligkeit von Gebäudeportfolios zu untersuchen. Das zweite untersuchte Problem, das sich auf die räumliche Aggregation von Gebäudeexpositionsmodellen bezieht, wurde in zwei entkoppelten Vulnerabilitätskontexten untersucht: durch seismische Bodenerschütterungen durch die Integration von Fernerkundungstechniken (Kapitel 3); und innerhalb eines Multi-Hazard-Kontextes durch Einbeziehung des Auftretens assoziierter Tsunamis (Kapitel 4). Darin wird eine sorgfältige Auswahl der räumlichen Aggregationseinheiten bei gleichzeitigem Streben nach Recheneffizienz und Genauigkeit bei den Risikoschätzungen aufgrund solcher unabhängiger Gefahrenszenarien (d. h. Erdbeben und Tsunami) diskutiert. Daher wird in dieser Arbeit die physische Vulnerabilität von großen Gebäudeportfolios durch Tsunamis durch zwei Hauptrahmen betrachtet: Berücksichtigung und Nichtberücksichtigung der Wechselwirkung auf der Vulnerabilitätsebene, durch aufeinanderfolgende bzw. entkoppelte Gefahrenszenarien, die dann gegenübergestellt wurden. Im Gegensatz zu Kapitel 4, wo keine kumulativen Schäden angesprochen werden, werden in Kapitel 5 Daten und Ansätze, die bereits in früheren Abschnitten generiert wurden, mit einer neuartigen modularen Methode integriert, um letztendlich die wahrscheinlichen Wechselwirkungen auf der Schwachstellenebene beim Aufbau von Portfolios zu untersuchen. Dies wird getestet, indem kumulative Schäden und Verluste nach Erdbeben mit zunehmender Magnitude gefolgt von den jeweiligen Tsunamis bewertet werden. Eine solche neuartige Methode basiert auf der Möglichkeit, bestehende Fragilitätsmodelle innerhalb eines probabilistischen Rahmens wiederzuverwenden. Derselbe Ansatz wird in Kapitel 6 verfolgt, um die wahrscheinlichen kumulativen Schäden zu prognostizieren, denen ein Gebäudebestand ausgesetzt sein wird, der sich in einer vulkanischen Umgebung mit mehreren Gefahren (Aschefall und Lahare) befindet. In diesem Abschnitt wurde besonderes Augenmerk auf die Art und Weise gelegt, wie die prognostizierten Verlustmetriken an lokal exponierte Gemeinden kommuniziert werden. Koexistierende quantitative wissenschaftliche Ansätze (d. h. umfassende Expositionsmodelle; explorative Risikoszenarien mit Einzel- und Mehrfachgefahren) und semiqualitative soziale Risikowahrnehmung (d. h. Grad des Verständnisses, das die exponierten Gemeinschaften über ihr eigenes Risiko haben) wurden gemeinsam berücksichtigt. Eine solche Integration ermöglichte es dieser Arbeit schließlich auch, zur Verbesserung der Bereitschaft, der wissenschaftlichen Verbreitung auf lokaler Ebene sowie zu Technologietransferinitiativen beizutragen. Abschließend wird eine Zusammenfassung dieser These zusammen mit einigen Perspektiven für Verbesserungen und zukünftige Arbeiten präsentiert. KW - exposure KW - multi-hazard KW - risk analysis KW - risk communication KW - uncertainty analysis KW - tsunami risk KW - spatial aggregation KW - seismic risk KW - Expositionsmodellen KW - Multi-Hazard KW - Risikoanalyse KW - Risikokommunikation KW - seismisches Risiko KW - räumliche Aggregation KW - Tsunami-Risiko KW - Unsicherheitsanalyse Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586140 ER - TY - THES A1 - Illien, Luc T1 - Time-dependent properties of the shallow subsurface BT - groundwater and earthquake damage dynamics from seismic interferometry N2 - The shallow Earth’s layers are at the interplay of many physical processes: some being driven by atmospheric forcing (precipitation, temperature...) whereas others take their origins at depth, for instance ground shaking due to seismic activity. These forcings cause the subsurface to continuously change its mechanical properties, therefore modulating the strength of the surface geomaterials and hydrological fluxes. Because our societies settle and rely on the layers hosting these time-dependent properties, constraining the hydro-mechanical dynamics of the shallow subsurface is crucial for our future geographical development. One way to investigate the ever-changing physical changes occurring under our feet is through the inference of seismic velocity changes from ambient noise, a technique called seismic interferometry. In this dissertation, I use this method to monitor the evolution of groundwater storage and damage induced by earthquakes. Two research lines are investigated that comprise the key controls of groundwater recharge in steep landscapes and the predictability and duration of the transient physical properties due to earthquake ground shaking. These two types of dynamics modulate each other and influence the velocity changes in ways that are challenging to disentangle. A part of my doctoral research also addresses this interaction. Seismic data from a range of field settings spanning several climatic conditions (wet to arid climate) in various seismic-prone areas are considered. I constrain the obtained seismic velocity time-series using simple physical models, independent dataset, geophysical tools and nonlinear analysis. Additionally, a methodological development is proposed to improve the time-resolution of passive seismic monitoring. N2 - Die oberflächennahen Erdschichten sind ein Zusammenspiel vieler physikalischer Prozesse: Einige werden durch atmosphärische Einflüsse (Niederschlag, Temperatur...) angetrieben, während andere ihren Ursprung im Untergrund haben, beispielsweise Bodenerschütterungen aufgrund seismischer Aktivität. Diese Kräfte führen zu sich ständig ändernden mechanische Eigenschaften des Untergrunds, und damit auch Änderungen der Festigkeit der Geomaterialien der Oberfläche, sowie der Wasserflüsse. Als Gesellschaft leben wir auf der Erdoberfläche, und sind auf diese zeitabhängigen Eigenschaften angewiesen. Für unsere zukünftige, geographische Entwicklung ist es daher essentiell, die hydromechanischen Dynamiken des flachen Untergrunds zu verstehen. Eine Möglichkeit, die sich stetig ändernden physikalischen Eigenschaften unter unseren Füßen zu untersuchen, ist die Ableitung seismischer Geschwindigkeitsänderungen aus dem Umgebungslärm, mit Hilfe einer Technik namens seismische Interferometrie. In dieser Dissertation verwende ich diese Methode, um die Entwicklung der Grundwasserspeicherung, sowie durch Erdbeben verursachte Schäden zu untersuchen. Es werden zwei Forschungslinien untersucht, diese umfassen die Hauptkontrollen der Grundwasserneubildung in steilen Landschaften und die Vorhersagbarkeit und Dauer der transienten physikalischen Eigenschaften aufgrund von Erdbebenerschütterungen. Beide Dynamiken beeinflussen sich gegenseitig, sowie die Geschwindigkeitsänderungen im Untergrund in einer Weise, die schwer zu entschlüsseln ist. Ein Teil dieser Doktorarbeit behandelt daher auch diese Wechselwirkung. Wir verwenden seismische Daten, die unter verschiedenen klimatischen Bedingungen (feuchtes bis trockenes Klima) in mehreren, seismisch gefährdeten Gebieten erhoben wurden. Die gewonnenen seismischen Geschwindigkeitszeitreihen werden mit Hilfe einfacher, physikalischer Modelle, unabhängiger Datensätze, geophysikalischer Instrumente und nichtlinearer Analysen untersucht. Darüber hinaus wird eine methodische Entwicklung vorgeschlagen, um die zeitliche Auflösung des passiven, seismischen Monitorings zu verbessern. KW - seismology KW - seismic noise KW - mountain hydrology KW - earthquake damage KW - geomechanics KW - geophysics KW - Erdbebenschäden KW - Geomechanik KW - Geophysik KW - Gebirgshydrologie KW - seismisches Rauschen KW - Seismologie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-599367 ER - TY - THES A1 - Hasl, Andrea T1 - Time matters: Adopting a lifespan developmental perspective on individual differences in skills, cumulative advantages, and the role of dynamic modeling approaches T1 - Die Relevanz von Zeit: Eine Lebensspannenperspektive auf individuelle Unterschiede in Fähigkeiten, kumulative Vorteile, und die Rolle dynamischer Modellierungsansätze N2 - The impact of individual differences in cognitive skills and socioeconomic background on key educational, occupational, and health outcomes, as well as the mechanisms underlying inequalities in these outcomes across the lifespan, are two central questions in lifespan psychology. The contextual embeddedness of such questions in ontogenetic (i.e., individual, age-related) and historical time is a key element of lifespan psychological theoretical frameworks such as the HIstorical changes in DEvelopmental COntexts (HIDECO) framework (Drewelies et al., 2019). Because the dimension of time is also a crucial part of empirical research designs examining developmental change, a third central question in research on lifespan development is how the timing and spacing of observations in longitudinal studies might affect parameter estimates of substantive phenomena. To address these questions in the present doctoral thesis, I applied innovative state-of-the-art methodology including static and dynamic longitudinal modeling approaches, used data from multiple international panel studies, and systematically simulated data based on empirical panel characteristics, in three empirical studies. The first study of this dissertation, Study I, examined the importance of adolescent intelligence (IQ), grade point average (GPA), and parental socioeconomic status (pSES) for adult educational, occupational, and health outcomes over ontogenetic and historical time. To examine the possible impact of historical changes in the 20th century on the relationships between adolescent characteristics and key adult life outcomes, the study capitalized on data from two representative US cohort studies, the National Longitudinal Surveys of Youth 1979 and 1997, whose participants were born in the late 1960s and 1980s, respectively. Adolescent IQ, GPA, and pSES were positively associated with adult educational attainment, wage levels, and mental and physical health. Across historical time, the influence of IQ and pSES for educational, occupational, and health outcomes remained approximately the same, whereas GPA gained in importance over time for individuals born in the 1980s. The second study of this dissertation, Study II, aimed to examine strict cumulative advantage (CA) processes as possible mechanisms underlying individual differences and inequality in wage development across the lifespan. It proposed dynamic structural equation models (DSEM) as a versatile statistical framework for operationalizing and empirically testing strict CA processes in research on wages and wage dynamics (i.e., wage levels and growth rates). Drawing on longitudinal representative data from the US National Longitudinal Survey of Youth 1979, the study modeled wage levels and growth rates across 38 years. Only 0.5 % of the sample revealed strict CA processes and explosive wage growth (autoregressive coefficients AR > 1), with the majority of individuals following logarithmic wage trajectories across the lifespan. Adolescent intelligence (IQ) and adult highest educational level explained substantial heterogeneity in initial wage levels and long-term wage growth rates over time. The third study of this dissertation, Study III, investigated the role of observation timing variability in the estimation of non-experimental intervention effects in panel data. Although longitudinal studies often aim at equally spaced intervals between their measurement occasions, this goal is hardly ever met. Drawing on continuous time dynamic structural equation models, the study examines the –seemingly counterintuitive – potential benefits of measurement intervals that vary both within and between participants (often called individually varying time intervals, IVTs) in a panel study. It illustrates the method by modeling the effect of the transition from primary to secondary school on students’ academic motivation using empirical data from the German National Educational Panel Study (NEPS). Results of a simulation study based on this real-life example reveal that individual variation in time intervals can indeed benefit the estimation precision and recovery of the true intervention effect parameters. N2 - Die Auswirkung individueller Unterschiede in kognitiven Fähigkeiten und sozioökonomischem Hintergrund für Bildung, Beschäftigung, und Gesundheit im Erwachsenenalter, sowie die Mechanismen, die Ungleichheiten in diesen Lebensbereichen zugrunde liegen, sind zwei zentrale Fragen der Lebensspannenpsychologie. Die kontextuelle Einbettung solcher Fragen in ontogenetische (d.h. individuelle, altersbezogene) und historische Zeit ist ein Schlüsselelement lebensspannenpsychologischer Modelle wie dem HIstorical changes in DEvelopmental Contexts (HIDECO) Framework (Drewelies et al., 2019). Die Zeitdimension ist zudem entscheidend für die Gestaltung empirischer Forschungsdesigns, um Veränderung und Entwicklung über die Lebensspanne hinweg zu untersuchen. Eine dritte zentrale Frage ist daher, welchen Einfluss die Auswahl von Messzeitpunkten und vor allem die Auswahl der Abstände zwischen solchen Messzeitpunkten in längsschnittlichen Studien bei der Erforschung interessierender Merkmale haben. Um diese Fragen in der vorliegenden Doktorarbeit zu beantworten, werden im Rahmen von drei wissenschaftlichen Studien innovative statistische Methoden wie statische und dynamische longitudinale Modellierungsansätze angewendet, Daten aus mehreren internationalen Panelstudien herangezogen, sowie Daten simuliert. Die erste Studie, Studie I, untersuchte die Bedeutung jugendlicher Intelligenz (IQ), Noten (GPA) und des sozioökonomischen Status der Eltern (pSES) für Bildung, Beschäftigung und Gesundheit im Erwachsenenalter über ontogenetische und historische Zeit hinweg. Um mögliche Auswirkungen historischer Veränderungen im 20. Jahrhundert auf diese Beziehungen zu untersuchen, zog die Studie Daten aus zwei repräsentativen amerikanischen Kohortenstudien, den National Longitudinal Surveys of Youth 1979 und 1997, deren Teilnehmer in den späten 1960er bzw. 1980er Jahren geboren wurden, heran. Höhere Intelligenz, bessere Noten und ein höherer sozioökonomischer Status hatten einen positiven Einfluss auf den Bildungsstand, Einkommen sowie psychische und physische Gesundheit im Erwachsenenalter. Im Laufe der historischen Zeit blieb der Einfluss von IQ und pSES für die verschiedenen Lebensbereiche im Erwachsenenalter relativ gleich, während Schulnoten für die jüngere Kohorte an Bedeutung gewannen. Die zweite Studie, Studie II, hatte zum Ziel, die Akkumulation früher Vorteile als Mechanismus für die Entwicklung individueller Unterschiede und Ungleichheiten über die Lebensspanne hinweg zu untersuchen. Dynamische Strukturgleichungsmodelle (DSEM) werden als vielseitiges und flexibles statistisches Rahmenmodell vorgeschlagen, um Akkumulationsprozesse in Bezug auf Gehaltsniveaus und Gehaltswachstum zu operationalisieren und sie damit empirisch testbar zu machen. Gestützt auf repräsentative Längsschnittdaten der US National Longitudinal Survey of Youth 1979 modellierte die Studie Gehälter und deren Wachstumsraten über 38 Jahre hinweg. Nur 0,5 % der Stichprobe zeigten explosives Wachstum (autoregressive Koeffizienten AR > 1), die Mehrheit der Personen wies logarithmische Gehaltsverläufe über die Lebensspanne hinweg auf. Jugendliche Intelligenz und das höchste Bildungsniveau im Erwachsenenalter erklärten erhebliche Heterogenität im Einstiegsgehalt und langfristigem Gehaltswachstum. Die dritte Studie, Studie III, untersuchte die Rolle von variierenden Zeitintervallen zwischen Messzeitpunkten für die Schätzung nicht-experimenteller Interventionseffekte in Paneldaten. Obwohl Längsschnittstudien oft gleichmäßig verteilte Intervalle zwischen ihren Messzeitpunkten anstreben, wird dieses Ziel kaum erreicht. Basierend auf zeitkontinuierlichen, dynamischen Strukturgleichungsmodellen untersuchte die Studie daher den potenziellen Nutzen von Messintervallen, die sowohl innerhalb als auch zwischen Teilnehmenden einer Studie variieren. Die Methode wurde anhand empirischer Daten des deutschen Nationalen Bildungspanels (NEPS) und der Modellierung des Effekts des Übergangs von der Grundschule in die Sekundarstufe (als nicht-experimentelle Intervention) auf die akademische Motivation der Schülerinnen und Schüler veranschaulicht. Die Ergebnisse einer Simulationsstudie, die auf diesem realen Beispiel basiert, zeigen, dass individuelle Variation in Zeitintervallen einen positiven Einfluss auf die Schätzgenauigkeit der wahren Interventionseffektparameter haben kann. KW - individual differences KW - cognitive skills KW - socioeconomic background KW - lifespan psychology KW - longitudinal studies KW - dynamic modeling KW - individuelle Unterschiede KW - kognitive Fähigkeiten KW - sozioökonomischer Hintergrund KW - Lebensspannenpsychologie KW - längschnittliche Studien KW - dynamische Modellierung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-595112 ER - TY - THES A1 - López Gambino, Maria Soledad T1 - Time Buying in Task-Oriented Spoken Dialogue Systems N2 - This dissertation focuses on the handling of time in dialogue. Specifically, it investigates how humans bridge time, or “buy time”, when they are expected to convey information that is not yet available to them (e.g. a travel agent searching for a flight in a long list while the customer is on the line, waiting). It also explores the feasibility of modeling such time-bridging behavior in spoken dialogue systems, and it examines how endowing such systems with more human-like time-bridging capabilities may affect humans’ perception of them. The relevance of time-bridging in human-human dialogue seems to stem largely from a need to avoid lengthy pauses, as these may cause both confusion and discomfort among the participants of a conversation (Levinson, 1983; Lundholm Fors, 2015). However, this avoidance of prolonged silence is at odds with the incremental nature of speech production in dialogue (Schlangen and Skantze, 2011): Speakers often start to verbalize their contribution before it is fully formulated, and sometimes even before they possess the information they need to provide, which may result in them running out of content mid-turn. In this work, we elicit conversational data from humans, to learn how they avoid being silent while they search for information to convey to their interlocutor. We identify commonalities in the types of resources employed by different speakers, and we propose a classification scheme. We explore ways of modeling human time-buying behavior computationally, and we evaluate the effect on human listeners of embedding this behavior in a spoken dialogue system. Our results suggest that a system using conversational speech to bridge time while searching for information to convey (as humans do) can provide a better experience in several respects than one which remains silent for a long period of time. However, not all speech serves this purpose equally: Our experiments also show that a system whose time-buying behavior is more varied (i.e. which exploits several categories from the classification scheme we developed and samples them based on information from human data) can prevent overestimation of waiting time when compared, for example, with a system that repeatedly asks the interlocutor to wait (even if these requests for waiting are phrased differently each time). Finally, this research shows that it is possible to model human time-buying behavior on a relatively small corpus, and that a system using such a model can be preferred by participants over one employing a simpler strategy, such as randomly choosing utterances to produce during the wait —even when the utterances used by both strategies are the same. N2 - Die zentralen Themen dieser Arbeit sind Zeit und Dialog. Insbesondere wird untersucht, wie Menschen Zeit gewinnen oder „Zeit kaufen“, wenn sie Informationen übermitteln müssen, die ihnen noch nicht zur Verfügung stehen (z. B. ein Reisebüroangestellter, der in einer langen Liste nach einem Flug sucht, während der Kunde am Telefon wartet). Außerdem wird untersucht, ob die Modellierung eines solchen Zeitüberbrückungsverhaltens in gesprochenen Dialogsystemen möglich ist und wie solche Fähigkeiten die Benutzererfahrung beeinflussen. Wir erheben Gesprächsdaten und ermitteln, wie die Sprecher den Dialog am Laufen halten, während sie nach Informationen für ihre(n) Gesprächspartner(in) suchen. Wir identifizieren Gemeinsamkeiten in den Ressourcen, die von verschiedenen Sprechern verwendet werden und schlagen ein Klassifizierungsschema vor. Wir erforschen Strategien, menschliches „Zeitüberbrückung“ zu modellieren, und wir bewerten die Auswirkungen dieses Verhaltens in ein gesprochenes Dialogsystem auf menschliche Zuhörer. T2 - Zeitgewinn in aufgabenorientierten Sprachdialogsystemen KW - dialogue system KW - Dialogsystem KW - linguistics KW - Linguistik KW - speech KW - Sprache KW - dialogue KW - Dialog KW - time-buying KW - Zeitgewinn Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-592806 ER - TY - THES A1 - Henschel, Cristiane T1 - Thermoresponsive polymers with co-nonsolvency behavior T1 - Thermoresponsive Polymere mit "Co-Nonsolvency" Verhalten N2 - Despite the popularity of thermoresponsive polymers, much is still unknown about their behavior, how it is triggered, and what factors influence it, hindering the full exploitation of their potential. One particularly puzzling phenomenon is called co-nonsolvency, in which a polymer is soluble in two individual solvents, but counter-intuitively becomes insoluble in mixtures of both. Despite the innumerous potential applications of such systems, including actuators, viscosity regulators and as carrier structures, this field has not yet been extensively studied apart from the classical example of poly(N isopropyl acrylamide) (PNIPAM) in mixtures of water and methanol. Therefore, this thesis focuses on evaluating how changes in the chemical structure of the polymers impact the thermoresponsive, aggregation and co-nonsolvency behaviors of both homopolymers and amphiphilic block copolymers. Within this scope, both the synthesis of the polymers and their characterization in solution is investigated. Homopolymers were synthesized by conventional free radical polymerization, whereas block copolymers were synthesized by consecutive reversible addition fragmentation chain transfer (RAFT) polymerizations. The synthesis of the monomers N isopropyl methacrylamide (NIPMAM) and N vinyl isobutyramide (NVIBAM), as well as a few chain transfer agents is also covered. Through turbidimetry measurements, the thermoresponsive and co-nonsolvency behavior of PNIPMAM and PNVIBAM homopolymers is then compared to the well-known PNIPAM, in aqueous solutions with 9 different organic co-solvents. Additionally, the effects of end-groups, molar mass, and concentration are investigated. Despite the similarity of their chemical structures, the 3 homopolymers show significant differences in transition temperatures and some divergences in their co-nonsolvency behavior. More complex systems are also evaluated, namely amphiphilic di- and triblock copolymers of PNIPAM and PNIPMAM with polystyrene and poly(methyl methacrylate) hydrophobic blocks. Dynamic light scattering is used to evaluate their aggregation behavior in aqueous and mixed aqueous solutions, and how it is affected by the chemical structure of the blocks, the chain architecture, presence of cosolvents and polymer concentration. The results obtained shed light into the thermoresponsive, co-nonsolvency and aggregation behavior of these polymers in solution, providing valuable information for the design of systems with a desired aggregation behavior, and that generate targeted responses to temperature and solvent mixture changes. N2 - Trotz der Popularität thermoresponsiver Polymere ist noch vieles über ihr Verhalten, sowie dessen Auslöser und Einflüsse darauf unbekannt, was die volle Nutzung ihres Potenzials behindert. Ein besonders ungewöhnliches Phänomen ist die so genannte Co-Nonsolvency, bei der ein Polymer in zwei reinen Lösungsmitteln löslich ist, aber in Mischungen aus beiden unlöslich wird. Trotz der zahlreichen potenziellen Anwendungen solcher Systeme, wie z.B. Aktuatoren, Viskositätsregulatoren und als Transportmedien, ist dieses Feld, abgesehen vom klassischen Beispiel von Poly(N isopropylacrylamid) (PNIPAM) in Mischungen aus Wasser und Methanol, bisher nicht umfassend untersucht worden. Diese Arbeit untersucht daher, welche Auswirkungen die chemische Struktur der Polymere auf das thermoresponsive, Aggregations- und Co-Nonsolvency Verhalten sowohl von Homopolymeren als auch von amphiphilen Blockcopolymeren hat. Dazu wurden sowohl die Synthese der Polymere als auch deren Verhalten in Lösung untersucht. Die Homopolymere wurden durch konventionelle radikalische Polymerisation hergestellt, wogegen die Blockcopolymere durch konsekutive Reversible Addition Fragmentation Chain Transfer Polymerisationen (RAFT) synthetisiert wurden. Die Synthese der Monomere N-Isopropylmethacrylamid (NIPMAM) und N Vinylisobutyramid (NVIBAM) sowie einiger Kettenüberträger wird ebenfalls beschrieben. Mittels Trübungs-Messungen wird das thermoresponsive und Co-Nonsolvency Verhalten von PNIPMAM- und PNVIBAM-Homopolymeren mit dem bekannten PNIPAM in wässrigen Lösungen mit 9 verschiedenen organischen Co-Lösungsmitteln verglichen. Außerdem werden die Auswirkungen der Endgruppen, der Molmasse und der Konzentration der Polymere diskutiert. Trotz der Ähnlichkeit ihrer chemischen Strukturen zeigen die drei Homopolymere signifikante Unterschiede bei den Übergangstemperaturen und einige Divergenzen in ihrem Co-Nonsolvency Verhalten. Es wurden auch komplexere Systeme untersucht, nämlich amphiphile Di- und Triblock-Copolymere von PNIPAM und PNIPMAM mit hydrophoben Blöcken aus Polystyrol und Polymethylmethacrylat. Mittels dynamischer Lichtstreuung wird ihr Aggregationsverhalten in wässrigen und gemischten wässrigen Lösungen bewertet und untersucht, wie es von der chemischen Struktur der Blöcke, der Kettenarchitektur, den Co-Lösungsmitteln und der Polymerkonzentration beeinflusst wird. Die Ergebnisse dokumentieren das thermoresponsive, Co-Nonsolvency und Aggregationsverhalten dieser Polymere in Lösung und liefern wertvolle Informationen für die Entwicklung von Systemen mit einem gewünschten Aggregationsverhalten, die gezielt auf Temperatur- und Lösungsmittelgemischänderungen reagieren. KW - thermoresponsive polymer KW - co-nonsolvency KW - amphiphilic block copolymer KW - poly(N-isopropyl acrylamide) KW - poly(N-isopropyl methacrylamide) KW - poly(N-vinyl isobutyramide) KW - lower critical solution temperature KW - phase transition KW - amphiphile Blockcopolymere KW - Co-Nonsolvency KW - untere kritische Lösungstemperatur KW - Phasenübergang KW - Poly(N-Isopropylacrylamid) KW - Poly(N-Isopropylmethacrylamid) KW - Poly(N-Vinylisobutyramid) KW - thermoresponsive Polymere Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577161 ER - TY - THES A1 - Ewert, Christina T1 - The role of self-compassion in effective stress processing T1 - Die Rolle von Selbstmitgefühl bei einer effektiven Stressverarbeitung BT - a multimethod approach BT - eine multimethodische Analyse N2 - Background: The concept self-compassion (SC), a special way of being compassionate with oneself while dealing with stressful life circumstances, has attracted increasing attention in research over the past two decades. Research has already shown that SC has beneficial effects on affective well-being and other mental health outcomes. However, little is known in which ways SC might facilitate our affective well-being in stressful situations. Hence, a central concern of this dissertation was to focus on the question which underlying processes might influence the link between SC and affective well-being. Two established components in stress processing, which might also play an important role in this context, could be the amount of experienced stress and the way of coping with a stressor. Thus, using a multi-method approach, this dissertation aimed at finding to which extent SC might help to alleviate the experienced stress and promotes the use of more salutary coping, while dealing with stressful circumstances. These processes might ultimately help improve one’s affective well-being. Derived from that, it was hypothesized that more SC is linked to less perceived stress and intensified use of salutary coping responses. Additionally, it was suggested that perceived stress and coping mediate the relation between SC and affective well-being. Method: The research questions were targeted in three single studies and one meta-study. To test my assumptions about the relations of SC and coping in particular, a systematic literature search was conducted resulting in k = 136 samples with an overall sample size of N = 38,913. To integrate the z-transformed Pearson correlation coefficients, random-effects models were calculated. All hypotheses were tested with a three-wave cross-lagged design in two short-term longitudinal online studies assessing SC, perceived stress and coping responses in all waves. The first study explored the assumptions in a student sample (N = 684) with a mean age of 27.91 years over a six-week period, whereas the measurements were implemented in the GESIS Panel (N = 2934) with a mean age of 52.76 years analyzing the hypotheses in a populationbased sample across eight weeks. Finally, an ambulatory assessment study was designed to expand the findings of the longitudinal studies to the intraindividual level. Thus, a sample of 213 participants completed questionnaires of momentary SC, perceived stress, engagement and disengagement coping, and affective well-being on their smartphones three times per day over seven consecutive days. The data was processed using 1-1-1 multilevel mediation analyses. Results: Results of the meta-analysis indicated that higher SC is significantly associated with more use of engagement coping and less use of disengagement coping. Considering the relations between SC and stress processing variables in all three single studies, cross-lagged paths from the longitudinal data, as well as multilevel modeling paths from the ambulatory assessment data indicated a notable relation between all relevant stress variables. As expected, results showed a significant negative relation between SC and perceived stress and disengagement coping, as well as a positive connection with engagement coping responses at the dispositional and intra-individual level. However, considering the mediational hypothesis, the most promising pathway in the link between SC and affective well-being turned out to be perceived stress in all three studies, while effects of the mediational pathways through coping responses were less robust. Conclusion: Thus, a more self-compassionate attitude and higher momentary SC, when needed in specific situations, can help to engage in effective stress processing. Considering the underlying mechanisms in the link between SC and affective well-being, stress perception in particular seemed to be the most promising candidate for enhancing affective well-being at the dispositional and at the intraindividual level. Future research should explore the pathways between SC and affective well-being in specific contexts and samples, and also take into account additional influential factors. N2 - Hintergrund: In den letzten zwei Jahrzehnten erregte das Konzept Selbstmitgefühl (SMG), eine besondere Art des Mitgefühls um sich im Umgang mit stressigen Lebensumständen zurechtzufinden, zunehmend Aufmerksamkeit in der Forschung. Zahlreiche Untersuchungen haben bereits gezeigt, dass SMG positive Auswirkungen auf das affektive Wohlbefinden sowie auf die psychische Gesundheit im Allgemeinen hat. Allerdings ist wenig darüber bekannt wie SMG unser affektives Wohlbefinden in Stresssituationen verbessern kann. Daher war es ein zentrales Anliegen dieser Dissertation, die Frage zu beantworten, welche zugrundeliegenden Prozesse den Zusammenhang zwischen SMG und affektivem Wohlbefinden beeinflussen können. Zwei etablierte Komponenten im Stressverarbeitungsprozess, die in diesem Zusammenhang ebenfalls eine wichtige Rolle spielen könnten, sind die Menge an erlebtem Stress sowie die Art und Weise, wie mit einem Stressor umgegangen wird (Coping). Unter Verwendung eines Multimethodenansatzes, war es demnach Ziel dieser Dissertation herauszufinden, inwieweit SMG dazu beitragen kann, den erlebten Stress abzumildern und eine heilsamere Bewältigung im Umgang mit stressigen Situationen zu fördern. Diese Prozesse könnten letztendlich dazu beitragen, das affektive Wohlbefinden zu verbessern. Daraus abgeleitet, wurde die Hypothese aufgestellt, dass mehr SMG mit weniger wahrgenommenem Stress und einem intensiveren Gebrauch von protektiven Bewältigungsreaktionen verbunden ist. Darüber hinaus wurde vermutet, dass wahrgenommener Stress und Coping den Zusammenhang zwischen SMG und affektivem Wohlbefinden vermitteln. Methode: Zur Beantwortung der Forschungsfragen wurden drei Einzelstudien und eine Metastudie konzipiert. Um die Annahmen über die Zusammenhänge von SMG und Bewältigungsstrategien zu überprüfen, wurde eine systematische Literaturrecherche durchgeführt. Die durchgeführte Suche ergab k = 136 Stichproben mit einer Gesamtstichprobengröße von N = 38.913. Zur Integration der z-transformierten Pearson-Korrelationskoeffizienten wurden Random-Effects-Modelle berechnet. In zwei Längsschnittstudien wurden alle Hypothesen mit einem Drei-Wellen-Cross-Lagged-Design überprüft, um die Zusammenhänge von SMG, wahrgenommenem Stress und Bewältigungsreaktionen zu bewerten. Die erste Studie untersuchte über einen Zeitraum von 12 Wochen die Annahmen anhand einer Stichprobe von Studenten (N = 684) mit einem Durchschnittsalter von 27,91 Jahren. Die zweite Studie fand im Rahmen einer bevölkerungsbasierten Paneluntersuchung (GESIS) in einem Zeitraum von 4 Monaten statt. An der Befragung nahmen N = 2934 mit einem Durchschnittsalter von 52,76 Jahren teil. Abschließend wurde eine Ambulante Assessmentstudie konzipiert, mit Hilfe dieser sollten die Hypothesen auf der intraindividuellen Ebene überprüft werden. 213 TeilnehmerInnen füllten Fragebögen zu momentanem SC, wahrgenommenem Stress, verwendeten Copingstrategien und affektivem Wohlbefinden dreimal täglich auf ihren Smartphones an sieben aufeinanderfolgenden Tagen aus. Die Daten wurden mithilfe von 1-1-1-Multilevel-Mediationsanalysen analysiert. Ergebnisse: Die Ergebnisse der Metaanalyse zeigten, dass eine Ausprägung in SMG signifikant mit mehr Einsatz von Annäherungscoping und weniger Einsatz von Vermeidungscoping verbunden ist. Sowohl die cross-lagged Pfade der Längstschnittstudien als auch die Pfade der Mehrebenenanalysen des Ambulanten Assessments zeigten erwartete Zusammenhänge zwischen SMG und allen relevanten Stressvariablen. Wie erwartet, zeigte sich ein signifikant negativer Zusammenhang zwischen SMG und wahrgenommenem Stress sowie Vermeidungscoping sowohl auf dispositioneller als auch intraindividueller Ebene. Des Weiteren wurde ein positiver Zusammenhang mit Annäherungscoping auf beiden Ebenen gefunden. Die Mediationshypothese konnte nur teilweise bestätigt werden. So erwies sich der Mediator wahrgenommener Stress als konsistent im Zusammenhang zwischen SMG und affektivem Wohlbefinden in allen drei Studien, während die Mediationspfade für Coping weniger robust waren. Fazit: Eine selbstmitfühlendere Haltung sowie höheres momentanes SMG kann in bestimmten Situationen dabei helfen, Stress effektiver zu bewältigen. Insbesondere weniger Stresswahrnehmung scheint ein vielversprechender Kandidat in der Vermittlung des Zusammenhangs zwischen SMG und affektivem Wohlbefinden auf dispositionell und auf intraindividueller Ebene zu sein. Personen mit mehr SMG erleben in anspruchsvollen Situationen weniger Stress, was schon von Beginn des stressigen Erlebnisses für das AWB förderlich sein kann, ohne dass weitere Bewältigungsreaktionen erforderlich werden. Zukünftige Forschung sollte zugrundeliegende Mechanismen zwischen SMG und affektivem Wohlbefinden in spezifischen Kontexten und Stichproben untersuchen, und auch weitere Einflussfaktoren berücksichtigen. KW - self-compassion KW - Selbstmitgefühl KW - stress processing KW - Stressverarbeitung KW - coping KW - Coping KW - well-being KW - Wohlbefinden Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607486 ER - TY - THES A1 - Pons, Michaël T1 - The Nature of the tectonic shortening in Central Andes T1 - Die Beschaffenheit der tektonischen Verkürzung in den Zentralanden N2 - The Andean Cordillera is a mountain range located at the western South American margin and is part of the Eastern- Circum-Pacific orogenic Belt. The ~7000 km long mountain range is one of the longest on Earth and hosts the second largest orogenic plateau in the world, the Altiplano-Puna plateau. The Andes are known as a non-collisional subduction-type orogen which developed as a result of the interaction between the subducted oceanic Nazca plate and the South American continental plate. The different Andean segments exhibit along-strike variations of morphotectonic provinces characterized by different elevations, volcanic activity, deformation styles, crustal thickness, shortening magnitude and oceanic plate geometry. Most of the present-day elevation can be explained by crustal shortening in the last ~50 Ma, with the shortening magnitude decreasing from ~300 km in the central (15°S-30°S) segment to less than half that in the southern part (30°S-40°S). Several factors were proposed that might control the magnitude and acceleration of shortening of the Central Andes in the last 15 Ma. One important factor is likely the slab geometry. At 27-33°S, the slab dips horizontally at ~100 km depth due to the subduction of the buoyant Juan Fernandez Ridge, forming the Pampean flat-slab. This horizontal subduction is thought to influence the thermo-mechanical state of the Sierras Pampeanas foreland, for instance, by strengthening the lithosphere and promoting the thick-skinned propagation of deformation to the east, resulting in the uplift of the Sierras Pampeanas basement blocks. The flat-slab has migrated southwards from the Altiplano latitude at ~30 Ma to its present-day position and the processes and consequences associated to its passage on the contemporaneous acceleration of the shortening rate in Central Andes remain unclear. Although the passage of the flat-slab could offer an explanation to the acceleration of the shortening, the timing does not explain the two pulses of shortening at about 15 Ma and 4 Ma that are suggested from geological observations. I hypothesize that deformation in the Central Andes is controlled by a complex interaction between the subduction dynamics of the Nazca plate and the dynamic strengthening and weakening of the South American plate due to several upper plate processes. To test this hypothesis, a detailed investigation into the role of the flat-slab, the structural inheritance of the continental plate, and the subduction dynamics in the Andes is needed. Therefore, I have built two classes of numerical thermo-mechanical models: (i) The first class of models are a series of generic E-W-oriented high-resolution 2D subduction models thatinclude flat subduction in order to investigate the role of the subduction dynamics on the temporal variability of the shortening rate in the Central Andes at Altiplano latitudes (~21°S). The shortening rate from the models was then validated with the observed tectonic shortening rate in the Central Andes. (ii) The second class of models are a series of 3D data-driven models of the present-day Pampean flat-slab configuration and the Sierras Pampeanas (26-42°S). The models aim to investigate the relative contribution of the present-day flat subduction and inherited structures in the continental lithosphere on the strain localization. Both model classes were built using the advanced finite element geodynamic code ASPECT. The first main finding of this work is to suggest that the temporal variability of shortening in the Central Andes is primarily controlled by the subduction dynamics of the Nazca plate while it penetrates into the mantle transition zone. These dynamics depends on the westward velocity of the South American plate that provides the main crustal shortening force to the Andes and forces the trench to retreat. When the subducting plate reaches the lower mantle, it buckles on it-self until the forced trench retreat causes the slab to steepen in the upper mantle in contrast with the classical slab-anchoring model. The steepening of the slab hinders the trench causing it to resist the advancing South American plate, resulting in the pulsatile shortening. This buckling and steepening subduction regime could have been initiated because of the overall decrease in the westwards velocity of the South American plate. In addition, the passage of the flat-slab is required to promote the shortening of the continental plate because flat subduction scrapes the mantle lithosphere, thus weakening the continental plate. This process contributes to the efficient shortening when the trench is hindered, followed by mantle lithosphere delamination at ~20 Ma. Finally, the underthrusting of the Brazilian cratonic shield beneath the orogen occurs at ~11 Ma due to the mechanical weakening of the thick sediments covered the shield margin, and due to the decreasing resistance of the weakened lithosphere of the orogen. The second main finding of this work is to suggest that the cold flat-slab strengthens the overriding continental lithosphere and prevents strain localization. Therefore, the deformation is transmitted to the eastern front of the flat-slab segment by the shear stress operating at the subduction interface, thus the flat-slab acts like an indenter that “bulldozes” the mantle-keel of the continental lithosphere. The offset in the propagation of deformation to the east between the flat and steeper slab segments in the south causes the formation of a transpressive dextral shear zone. Here, inherited faults of past tectonic events are reactivated and further localize the deformation in an en-echelon strike-slip shear zone, through a mechanism that I refer to as “flat-slab conveyor”. Specifically, the shallowing of the flat-slab causes the lateral deformation, which explains the timing of multiple geological events preceding the arrival of the flat-slab at 33°S. These include the onset of the compression and of the transition between thin to thick-skinned deformation styles resulting from the crustal contraction of the crust in the Sierras Pampeanas some 10 and 6 Myr before the Juan Fernandez Ridge collision at that latitude, respectively. N2 - Die Andenkordillere ist ein Gebirgszug am westlichen Rand Südamerikas und Teil des östlichen zirkumpazifischen Gebirgsgürtels. Der ~7000 km lange Gebirgszug ist einer der längsten der Erde und beherbergt mit dem Altiplano-Puna-Plateau das zweitgrößte orogenetische Plateau der Welt. Die Anden sind als nicht-kollisionsbedingtes Subduktionsgebirge bekannt, das durch die Wechselwirkung zwischen der subduzierten ozeanischen Nazca-Platte und der südamerikanischen Kontinentalplatte entstanden ist. Entlang des Höhenzugs der Anden lassen sich Segmente unterschiedlicher morphotektonischer Provinzen ausmachen, die durch Variationen in topographischer Höhe, vulkanischer Aktivität, Deformationsform, Krustendicke, Krustenverkürzung und ozeanischer Plattengeometrie gekennzeichnet sind. Der größte Teil der heutigen Hebung lässt sich durch die Krustenverkürzung der letzten 50 Mio. Jahre erklären, wobei das Ausmaß der Verkürzung von ca. 300 km im zentralen Segment (15°S-30°S) auf weniger als die Hälfte im südlichen Teil (30°S-40°S) abnimmt. Es wurden mehrere Faktoren vorgeschlagen, die das Ausmaß und die Beschleunigung der Verkürzung der zentralen Anden in den letzten 15 Mio. Jahren beeinflusst haben könnten. Ein wichtiger Faktor ist wahrscheinlich die Plattengeometrie. Durch die Subduktion des Juan-Fernandez-Rückens und dessen hohe Auftriebskraft fällt die Platte bei 27-33°S in ~100 km Tiefe horizontal ein und bildet den pampeanischen flat-slab. Es wird angenommen, dass die horizontale Subduktion den thermomechanischen Zustand des Sierras-Pampeanas-Vorlandes beeinflusst, indem sie beispielsweise die Lithosphäre stärkt und die dickschalige Verlagerung der Deformation nach Osten sowie die Hebung der kristallinen Basis der Sierras-Pampeanas fördert. Vor etwa 30 Mio. Jahren verschob sich der flat-slab von der geographischen Breite des Altiplano zu seiner heutigen Position nach Süden. Die mit der Positionsverlagerung verbundenen Prozesse und Folgen für die gleichzeitige Beschleunigung der Verkürzungsraten in den zentralen Anden sind noch immer unklar. Obwohl die Passage des flat-slab eine Erklärung für dafür sein könnte, erklärt ihr Zeitpunkt nicht die beiden aus der Geologie abgeleiteten Verkürzungsimpulse vor etwa 15 und 4 Mio. Jahren. Ich stelle die Hypothese auf, dass die Deformation in den zentralen Anden durch eine komplexe Wechselwirkung zwischen der Subduktionsdynamik der Nazca-Platte und der dynamischen Materialschwächung der südamerikanischen Platte aufgrund einer Reihe von Prozessen in der oberen Platte gesteuert wird. Um diese Hypothese zu prüfen, ist eine detaillierte Untersuchung der Rolle des flat-slab, sowie der strukturellen Vererbung der Kontinentalplatte und der Subduktionsdynamik in den Anden erforderlich. Daher habe ich zwei Klassen von numerischen thermomechanischen Modellen erstellt: (i) Die erste Klasse von Modellen umfasst eine Reihe von generischen E-W-orientierten 2D-Subduktionsmodellen mit hoher Auflösung. Diese beinhalten subhorizontalen Subduktion um die Rolle der Subduktionsdynamik auf die zeitliche Variabilität der Verkürzungsrate in den zentralen Anden auf dem Altiplano (~21°S) zu untersuchen. Die modellierte Verkürzungsrate wurde mit der beobachteten tektonischen Verkürzungsrate in den zentralen Anden validiert. (ii) Die zweite Klasse von Modellen besteht aus einer Reihe von datengesteuerten 3D-Modellen der heutigen pampeanischen flat-slab-Konfiguration und der Sierras Pampeanas (26-42°S). Diese Modelle zielen darauf ab, den relativen Beitrag der heutigen subhorizontalen Subduktion und der ererbten Strukturen in der kontinentalen Lithosphäre zur Dehnungslokalisierung zu untersuchen. Beide Modellklassen wurden mit Hilfe des fortschrittlichen geodynamischen Finite-Elemente-Codes ASPECT erstellt. Das erste Hauptergebnis dieser Arbeit ist die Vermutung, dass zeitliche Änderungen der Verkürzung in den Zentralanden in erster Linie durch die Subduktionsdynamik der Nazca-Platte gesteuert werden, während diese in die Mantelübergangszone eindringt. Die Dynamik hängt von der westwärts gerichteten Geschwindigkeit der südamerikanischen Platte ab, die die Hauptantriebskraft für die Krustenverkürzung in den Anden darstellt und den Subduktionsgraben zum Zurückziehen zwingt. Wenn die subduzierende Platte den unteren Erdmantel erreicht, wölbt sie sich auf, bis der erzwungene Rückzug des Grabens dazu führt, dass auch die Platte im oberen Erdmantel steiler wird. Die aufgesteilte Platte behindert wiederum den Graben, der sich der vorrückenden südamerikanischen Platte widersetzt, was eine pulsierende Verkürzung zur Folge hat. Dieses Subduktionsregime, bestehend aus Aufwölbung und Aufsteilung, könnte durch die allgemeine westwärts gerichtete Geschwindigkeitsabnahme der südamerikanischen Platte ausgelöst worden sein. Der Durchgang des flat-slab ist zudem eine notwendige Bedingung, um die Verkürzung der Kontinentalplatte voran zu treiben, da subhorizontale Subduktion Teile der Mantellithosphäre abträgt und so die Kontinentalplatte schwächt. Dieser Prozess trägt somit zur effizienten Verkürzung bei während der Graben behindert wird und ist gefolgt von der Ablösung der Mantellithosphäre vor etwa 20 Mio. Jahren. Das Subduzieren des brasilianischen kratonischen Schildes unter das Orogen erfolgte schließlich vor etwa 11 Mio. Jahren aufgrund der mechanischen Schwächung der dicken Sedimentschicht, die den Schildrand bedeckte, sowie wegen des abnehmenden Widerstands der geschwächten Gebirgslithosphäre. Das zweite Hauptergebnis dieser Arbeit ist die Vermutung, dass der kalte flat-slab die darüber liegende kontinentale Lithosphäre stärkt und damit verhindert, dass sich Verformungen lokalisieren können. Daher wird die Deformation durch die an der Subduktionsfläche wirkende Scherspannung auf die östliche Front des flat-slab-Segments übertragen. Der flat-slab wirkt wie ein Eindringling, der die unter mantle-keel bekannte Anhäufung von abgelöstem Mantelmaterial beiseite schiebt. Der Versatz in der ostwärts gerichteten Deformationsausbreitung der flachen und der steileren Plattensegmenten im Süden führt zur Bildung einer transpressiven dextralen Scherungszone. Hier werden ererbte Verwerfungen vergangener tektonischer Ereignisse reaktiviert und helfen bei der Lokalisierung neuer Deformation in einer en-echelon-artigen Scherungszone. Dies geschieht durch einen Mechanismus, den ich als "flat-slab-Conveyor" bezeichne. Das laterale Zusammenschieben wird besonders durch das Flacherwerden des flat-slab beeinflusst, welches den Zeitpunkt mehrerer geologischer Ereignisse erklärt, die der Ankunft des flat-slab bei 33°S vorangehen. Dazu gehören der Beginn der Kompression und der Übergang von dünn- zu dickschaliger Deformation, die sich aus der Krustenkontraktion in den Sierras Pampeanas etwa 10 bzw. 6 Mio. Jahre vor der Kollision mit dem Juan-Fernandez-Rücken auf diesem Breitengrad ergaben. KW - Andes KW - Orogen KW - tectonics KW - Subduction KW - Deformation KW - Shortening KW - Flat subduction KW - Geodynamics KW - Altiplano KW - Puna KW - Sierras Pampeanas KW - Foreland KW - Altiplano KW - Anden KW - Deformation KW - Flache Subduktion KW - Vorland KW - Geodynamik KW - Orogen KW - Puna KW - Verkürzung KW - Sierras Pampeanas KW - Subduktion KW - Tektonik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-600892 ER - TY - THES A1 - Lopez Valencia, Diego Andres T1 - The Milnor-Moore and Poincaré-Birkhoff-Witt theorems in the locality set up and the polar structure of Shintani zeta functions T1 - Die Milnor-Moore und Poincaré-Birkhoff-Witt Theoreme in der Lokalität und die polare Struktur der Shintani-Zeta-Abbildungen N2 - This thesis bridges two areas of mathematics, algebra on the one hand with the Milnor-Moore theorem (also called Cartier-Quillen-Milnor-Moore theorem) as well as the Poincaré-Birkhoff-Witt theorem, and analysis on the other hand with Shintani zeta functions which generalise multiple zeta functions. The first part is devoted to an algebraic formulation of the locality principle in physics and generalisations of classification theorems such as Milnor-Moore and Poincaré-Birkhoff-Witt theorems to the locality framework. The locality principle roughly says that events that take place far apart in spacetime do not infuence each other. The algebraic formulation of this principle discussed here is useful when analysing singularities which arise from events located far apart in space, in order to renormalise them while keeping a memory of the fact that they do not influence each other. We start by endowing a vector space with a symmetric relation, named the locality relation, which keeps track of elements that are "locally independent". The pair of a vector space together with such relation is called a pre-locality vector space. This concept is extended to tensor products allowing only tensors made of locally independent elements. We extend this concept to the locality tensor algebra, and locality symmetric algebra of a pre-locality vector space and prove the universal properties of each of such structures. We also introduce the pre-locality Lie algebras, together with their associated locality universal enveloping algebras and prove their universal property. We later upgrade all such structures and results from the pre-locality to the locality context, requiring the locality relation to be compatible with the linear structure of the vector space. This allows us to define locality coalgebras, locality bialgebras, and locality Hopf algebras. Finally, all the previous results are used to prove the locality version of the Milnor-Moore and the Poincaré-Birkhoff-Witt theorems. It is worth noticing that the proofs presented, not only generalise the results in the usual (non-locality) setup, but also often use less tools than their counterparts in their non-locality counterparts. The second part is devoted to study the polar structure of the Shintani zeta functions. Such functions, which generalise the Riemman zeta function, multiple zeta functions, Mordell-Tornheim zeta functions, among others, are parametrised by matrices with real non-negative arguments. It is known that Shintani zeta functions extend to meromorphic functions with poles on afine hyperplanes. We refine this result in showing that the poles lie on hyperplanes parallel to the facets of certain convex polyhedra associated to the defining matrix for the Shintani zeta function. Explicitly, the latter are the Newton polytopes of the polynomials induced by the columns of the underlying matrix. We then prove that the coeficients of the equation which describes the hyperplanes in the canonical basis are either zero or one, similar to the poles arising when renormalising generic Feynman amplitudes. For that purpose, we introduce an algorithm to distribute weight over a graph such that the weight at each vertex satisfies a given lower bound. N2 - Diese Arbeit schlägt eine Brücke zwischen zwei Bereichen der Mathematik, einerseits der Algebra mit dem Milnor-Moore-Theorem (auch Cartier-Quillen-Milnor-Moore-Theorem genannt) sowie dem Poincaré-Birkhoff-Witt-Theorem und andererseits der Analysis mit den Shintani-Zetafunktionen, die eine Verallgemeinerung der Mehrfach-Zetafunktionen darstellen. Der erste Teil ist einer algebraischen Formulierung des Lokalitätsprinzips in der Physik und Verallgemeinerungen von Klassifikationstheoremen wie dem Milnor-Moore- und dem Poincaré-Birkhoff-Witt-Theorem auf den Lokalitätsrahmen gewidmet. Das Lokalitätsprinzip besagt grob, dass Ereignisse, die in der Raumzeit weit voneinander entfernt stattfinden, sich nicht gegenseitig beeinflussen. Die hier erörterte algebraische Formulierung dieses Prinzips ist nützlich bei der Analyse von Singularitäten, die aus weit voneinander entfernten Ereignissen im Raum entstehen, um sie zu renormalisieren und dabei die Tatsache im Gedächtnis zu behalten, dass sie sich nicht gegenseitig beeinflussen. Wir beginnen damit, dass wir einen Vektorraum mit einer symmetrischen Relation, der so genannten Lokalitätsrelation, ausstatten, die die "lokal unabhängigen" Elemente festhält. Das Paar aus einem Vektorraum und einer solchen Relation wird als Vorlokalitäts-Vektorraum bezeichnet. Dieses Konzept wird auf Tensorprodukte erweitert, die nur Tensoren aus lokal unabhängigen Elementen zulassen. Wir erweitern dieses Konzept auf die Lokalitäts-Tensor-Algebra und die symmetrische Lokalitäts-Algebra eines Vorlokalitäts-Vektorraums und beweisen die universellen Eigenschaften jeder dieser Strukturen. Wir führen auch die Vorlokalitäts-Lie-Algebren zusammen mit den zugehörigen universellen Hüllalgebren der Lokalität ein und beweisen ihre universelle Eigenschaft. Später übertragen wir alle diese Strukturen und Ergebnisse aus dem Kontext der Vorlokalität in den Kontext der Lokalität, wobei die Lokalitätsbeziehung mit der linearen Struktur des Vektorraums kompatibel sein muss. Auf diese Weise können wir Lokalitäts-Kohlengebren, Lokalitäts-Bialgebren und Lokalitäts-Hopf-Algebren definieren. Schließlich werden alle vorherigen Ergebnisse verwendet, um die Lokalitätsversionen des Milnor-Moore- und des Poincaré-Birkhoff-Witt-Theorems zu beweisen. Es ist erwähnenswert, dass die vorgestellten Beweise nicht nur die Ergebnisse im üblichen (Nichtlokalitäts-) Aufbau verallgemeinern, sondern auch oft weniger Hilfsmittel verwenden als ihre Gegenstücke in ihren Nichtlokalitäts-Gegenstücken. Der zweite Teil ist der Untersuchung der polaren Struktur der Shintani-Zeta-Funktionen gewidmet. Diese Funktionen, die u.a. die Riemman-Zetafunktion, die multiplen Zetafunktionen und die Mordell-Tornheim-Zetafunktionen verallgemeinern, werden durch Matrizen mit reellen, nicht-negativen Argumenten parametrisiert. Es ist bekannt, dass Shintani-Zetafunktionen sich zu meromorphen Funktionen mit Polen auf affinen Hyperebenen erweitern. Wir verfeinern dieses Ergebnis, indem wir zeigen, dass die Pole auf Hyperebenen liegen, die parallel zu den Facetten bestimmter konvexer Polyeder verlaufen, die mit der Definitionsmatrix für die Shintani-Zeta-Funktion assoziiert sind. Letztere sind explizit die Newton-Polytope der Polynome, die durch die Spalten der zugrunde liegenden Matrix induziert werden. Wir beweisen dann, dass die Koeffizienten der Gleichung, die die Hyperebenen in der kanonischen Basis beschreibt, entweder Null oder Eins sind, ähnlich wie die Pole, die bei der Renormierung generischer Feynman-Amplituden entstehen. Zu diesem Zweck führen wir einen Algorithmus ein, um die Gewichte über einen Graphen so zu verteilen, dass das Gewicht an jedem Knoten eine gegebene untere Schranke erfüllt. KW - locality principle KW - multizeta functions KW - meromorphic continuation KW - Milnor Moore theorem KW - Poincaré Birkhoff Witt theorem KW - Newton polytopes KW - Satz von Milnor Moore KW - Newton Polytope KW - Satz von Poincaré Birkhoff Witt KW - Lokalitätsprinzip KW - meromorphe Fortsetzung KW - Multizeta-Abbildungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-594213 ER - TY - THES A1 - De Andrade Queiroz, Anna Barbara T1 - The Milky Way disks, bulge, and bar sub-populations T1 - Die Scheiben, der Bulge und der Balken der Milchstraße Subpopulationen BT - a chemo-dynamical view of our Galaxy in the APOGEE + Gaia era BT - ein chemodynamischer Blick auf unsere Galaxie in der APOGEE + Gaia Ära N2 - In recent decades, astronomy has seen a boom in large-scale stellar surveys of the Galaxy. The detailed information obtained about millions of individual stars in the Milky Way is bringing us a step closer to answering one of the most outstanding questions in astrophysics: how do galaxies form and evolve? The Milky Way is the only galaxy where we can dissect many stars into their high-dimensional chemical composition and complete phase space, which analogously as fossil records can unveil the past history of the genesis of the Galaxy. The processes that lead to large structure formation, such as the Milky Way, are critical for constraining cosmological models; we call this line of study Galactic archaeology or near-field cosmology. At the core of this work, we present a collection of efforts to chemically and dynamically characterise the disks and bulge of our Galaxy. The results we present in this thesis have only been possible thanks to the advent of the Gaia astrometric satellite, which has revolutionised the field of Galactic archaeology by precisely measuring the positions, parallax distances and motions of more than a billion stars. Another, though not less important, breakthrough is the APOGEE survey, which has observed spectra in the near-infrared peering into the dusty regions of the Galaxy, allowing us to determine detailed chemical abundance patterns in hundreds of thousands of stars. To accurately depict the Milky Way structure, we use and develop the Bayesian isochrone fitting tool/code called StarHorse; this software can predict stellar distances, extinctions and ages by combining astrometry, photometry and spectroscopy based on stellar evolutionary models. The StarHorse code is pivotal to calculating distances where Gaia parallaxes alone cannot allow accurate estimates. We show that by combining Gaia, APOGEE, photometric surveys and using StarHorse, we can produce a chemical cartography of the Milky way disks from their outermost to innermost parts. Such a map is unprecedented in the inner Galaxy. It reveals a continuity of the bimodal chemical pattern previously detected in the solar neighbourhood, indicating two populations with distinct formation histories. Furthermore, the data reveals a chemical gradient within the thin disk where the content of 𝛼-process elements and metals is higher towards the centre. Focusing on a sample in the inner MW we confirm the extension of the chemical duality to the innermost regions of the Galaxy. We find stars with bar shape orbits to show both high- and low-𝛼 abundances, suggesting the bar formed by secular evolution trapping stars that already existed. By analysing the chemical orbital space of the inner Galactic regions, we disentangle the multiple populations that inhabit this complex region. We reveal the presence of the thin disk, thick disk, bar, and a counter-rotating population, which resembles the outcome of a perturbed proto-Galactic disk. Our study also finds that the inner Galaxy holds a high quantity of super metal-rich stars up to three times solar suggesting it is a possible repository of old super-metal-rich stars found in the solar neighbourhood. We also enter into the complicated task of deriving individual stellar ages. With StarHorse, we calculate the ages of main-sequence turn-off and sub-giant stars for several public spectroscopic surveys. We validate our results by investigating linear relations between chemical abundances and time since the 𝛼 and neutron capture elements are sensitive to age as a reflection of the different enrichment timescales of these elements. For further study of the disks in the solar neighbourhood, we use an unsupervised machine learning algorithm to delineate a multidimensional separation of chrono-chemical stellar groups revealing the chemical thick disk, the thin disk, and young 𝛼-rich stars. The thick disk is shown to have a small age dispersion indicating its fast formation contrary to the thin disk that spans a wide range of ages. With groundbreaking data, this thesis encloses a detailed chemo-dynamical view of the disk and bulge of our Galaxy. Our findings on the Milky Way can be linked to the evolution of high redshift disk galaxies, helping to solve the conundrum of galaxy formation. N2 - In den letzten Jahrzehnten hat die Astronomie mit großen galaktischen Durchmusterungen einen Boom erlebt. Die dadurch gewonnenen detaillierten Informationen über Millionen von Einzelsternen in der Milchstraße bringen uns der Beantwortung einer der wichtigsten Fragen der Astrophysik einen Schritt näher: Wie entstehen und entwickeln sich Galaxien? Die Milchstraße ist die einzige Galaxie, in der wir viele Sterne in ihre hochdimensionale chemische Zusammensetzung und ihren vollständigen Phasenraum zerlegen können, was analog zu fossilen Aufzeichnungen die Entstehungsgeschichte der Galaxie enthüllen kann. Für kosmologische Modelle ist es von entscheidender Bedeutung, die Prozesse zu verstehen, die zur Bildung großer Strukturen wie der Milchstraße führen; wir nennen diese Studienrichtung Galaktische Archäologie oder Nahfeldkosmologie. Im Mittelpunkt dieser Arbeit stehen die Bemühungen, die Scheiben und den Bulge unserer Galaxie chemisch und dynamisch zu charakterisieren. Die Ergebnisse, die wir in dieser Arbeit vorstellen, waren nur dank des starts des astrometrischen Satelliten Gaia möglich, der das Gebiet der galaktischen Archäologie durch die präzise Messung der Positionen, Parallaxenwinkel und Eigenbewegungen von mehr als einer Milliarde Sterne revolutioniert hat. Ein weiterer, aber nicht minder wichtiger Durchbruch ist die APOGEE-Durchmusterung, die Spektren im nahen Infrarot beobachtet hat, was es uns erlaubt, durch die staubigen Regionen der Milchstraße hindurchzublicken und die chemischen Fingerabdrücke von Hunderttausenden von Sternen zu bestimmen. Um die Struktur der Milchstraße genau darzustellen, verwenden und entwickeln wir das Isochrone-fitting-Tool StarHorse; diese Software kann Sternentfernungen, Aussterbezeiten und Alter vorhersagen, indem sie Astrometrie, Photometrie und Spektroskopie auf der Grundlage von Modellen der Sternentwicklung kombiniert. Der Code StarHorse ist von zentraler Bedeutung für die Berechnung von Entfernungen, bei denen Gaia -Parallaxen allein keine Bestimmung ermöglichen. Wir zeigen, dass wir durch die Kombination von Gaia, APOGEE und StarHorse eine chemische Kartographie der Milchstraßenscheiben von ihrem äußersten bis zum innersten Teil erstellen können. Eine solche Karte ist in der inneren Galaxis beispiellos und zeigt ein bimodales chemisches Muster, das auf zwei Populationen mit unterschiedlichen Entstehungsgeschichten hinweist. Darüber hinaus bestätigen die Daten einen chemischen Gradienten innerhalb der dünnen Scheibe, bei dem der Gehalt an Elementen und Metallen aus 𝛼-Prozessen zum Zentrum hin zunimmt ist. Eine Überdichte in der Anzahl der Sterne bestätigt zudem die Signatur eines Balkens in der inneren Galaxie. Modelle der Galaxienentstehung sagen gewöhnlich deren Beginn im galaktischen Zentrum voraus. Wir konzentrieren uns auf eine Stichprobe in der inneren Galaxie und erwarten, dass wir primordiale stellare Populationen finden. Wir bestätigen die chemische Bimodalität der inneren Galaxie und dass der galaktische Balken sowohl aus Sternen mit hohem als auch mit niedrigem 𝛼 besteht, was darauf hindeutet, dass sich der Balken durch säkulare Evolution gebildet hat, bei der bereits existierende Sterne eingefangen wurden. Durch die Analyse des chemischen Orbitalraums der inneren galaktischen Regionen können wir die verschiedenen Populationen, die diese komplexe Region bewohnen, unterscheiden. Wir zeigen das Vorhandensein einer dünnen Scheibe, einer dicken Scheibe, eines Balkens und einer gegenläufig rotierenden Population, die dem Ergebnis einer gestörten proto-galaktischen Scheibe ähnelt. Unsere Studie zeigt auch, dass die innere Galaxie eine große Menge an supermetallreichen Sternen enthält, die bis zum Dreifachen der solaren Metallizität reichen. Möglicherweise handelt es sich bei der Gruppe alter supermetallreicher Sterne, die in der Sonnenumgebung gefunden wurden um Kandidaten für Migranten aus den innersten Regionen. Wir befassen uns auch mit der komplizierten Aufgabe der Bestimmung individueller Sternalter. Mit StarHorse berechnen wir das Alter von Hauptreihenabzweig- und Unterriesensternen für mehrere öffentliche spektroskopische Durchmusterungen. Wir validieren unsere Ergebnisse, indem wir lineare Abhängigkeiten zwischen den chemischen Häufigkeiten und der Zeit untersuchen, da die 𝛼- und Neutroneneinfang-Elemente empfindlich auf das Alter reagieren, was auf die unterschiedlichen Zeitskalen der Anreicherung dieser Elemente zurückzuführen ist. Zur weiteren Untersuchung der Scheiben in der Sonnenumgebung verwenden wir einen nicht überwachten Algorithmus für maschinelles Lernen, um eine mehrdimensionale Trennung der chrono-chemischen Sterngruppen vorzunehmen. Dies macht die chemisch dicke Scheibe, die dünne Scheibe und junge 𝛼 Sterne erkennbar. Es zeigt sich, dass die dicke Scheibe eine geringe Altersstreuung aufweist, was auf ihre schnelle Entstehung hindeutet, während die dünne Scheibe eine große Altersspanne abdeckt. Mit bahnbrechenden Daten liefert diese Arbeit ein detailliertes chemodynamisches Bild der Scheibe und des Bulge der Galaxis. Unsere Erkenntnisse über die Milchstraße können mit der Entwicklung von Scheibengalaxien mit hoher Rotverschiebung in Verbindung gebracht werden und so zur Lösung des Rätsels der Galaxienbildung beitragen. KW - stars: distances KW - fundamental parameters KW - statistics KW - galaxy: general KW - disc KW - bulge KW - stellar content KW - Bulge KW - Scheibe KW - fundamentale Parameter KW - Galaxie: allgemein KW - Sterne: Entfernungen KW - Statistik KW - stellarer Inhalt Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590615 ER - TY - THES A1 - Kim, Jiyong T1 - Synthesis of InP quantum dots and their applications N2 - Technologically important, environmentally friendly InP quantum dots (QDs) typically used as green and red emitters in display devices can achieve exceptional photoluminescence quantum yields (PL QYs) of near-unity (95-100%) when the-state-of-the-art core/shell heterostructure of the ZnSe inner/ZnS outer shell is elaborately applied. Nevertheless, it has only led to a few industrial applications as QD liquid crystal display (QD–LCD) which is applied to blue backlight units, even though QDs has a lot of possibilities that able to realize industrially feasible applications, such as QD light-emitting diodes (QD‒LEDs) and luminescence solar concentrator (LSC), due to their functionalizable characteristics. Before introducing the main research, the theoretical basis and fundamentals of QDs are described in detail on the basis of the quantum mechanics and experimental synthetic results, where a concept of QD and colloidal QD, a type-I core/shell structure, a transition metal doped semiconductor QDs, the surface chemistry of QD, and their applications (LSC, QD‒LEDs, and EHD jet printing) are sequentially elucidated for better understanding. This doctoral thesis mainly focused on the connectivity between QD materials and QD devices, based on the synthesis of InP QDs that are composed of inorganic core (core/shell heterostructure) and organic shell (surface ligands on the QD surface). In particular, as for the former one (core/shell heterostructure), the ZnCuInS mid-shell as an intermediate layer is newly introduced between a Cu-doped InP core and a ZnS shell for LSC devices. As for the latter one (surface ligands), the ligand effect by 1-octanethiol and chloride ion are investigated for the device stability in QD‒LEDs and the printability of electro-hydrodynamic (EHD) jet printing system, in which this research explores the behavior of surface ligands, based on proton transfer mechanism on the QD surface. Chapter 3 demonstrates the synthesis of strain-engineered highly emissive Cu:InP/Zn–Cu–In–S (ZCIS)/ZnS core/shell/shell heterostructure QDs via a one-pot approach. When this unconventional combination of a ZCIS/ZnS double shelling scheme is introduced to a series of Cu:InP cores with different sizes, the resulting Cu:InP/ZCIS/ZnS QDs with a tunable near-IR PL range of 694–850 nm yield the highest-ever PL QYs of 71.5–82.4%. These outcomes strongly point to the efficacy of the ZCIS interlayer, which makes the core/shell interfacial strain effectively alleviated, toward high emissivity. The presence of such an intermediate ZCIS layer is further examined by comparative size, structural, and compositional analyses. The end of this chapter briefly introduces the research related to the LSC devices, fabricated from Cu:InP/ZCIS/ZnS QDs, currently in progress. Chapter 4 mainly deals with ligand effect in 1-octanethiol passivation of InP/ZnSe/ZnS QDs in terms of incomplete surface passivation during synthesis. This chapter demonstrates the lack of anionic carboxylate ligands on the surface of InP/ZnSe/ZnS quantum dots (QDs), where zinc carboxylate ligands can be converted to carboxylic acid or carboxylate ligands via proton transfer by 1-octanethiol. The as-synthesized QDs initially have an under-coordinated vacancy surface, which is passivated by solvent ligands such as ethanol and acetone. Upon exposure of 1-octanethiol to the QD surface, 1-octanthiol effectively induces the surface binding of anionic carboxylate ligands (derived from zinc carboxylate ligands) by proton transfer, which consequently exchanges ethanol and acetone ligands that bound on the incomplete QD surface. The systematic chemical analyses, such as thermogravimetric analysis‒mass spectrometry and proton nuclear magnetic resonance spectroscopy, directly show the interplay of surface ligands, and it associates with QD light-emitting diodes (QD‒LEDs). Chapter 5 shows the relation between material stability of QDs and device stability of QD‒LEDs through the investigation of surface chemistry and shell thickness. In typical III–V colloidal InP quantum dots (QDs), an inorganic ZnS outermost shell is used to provide stability when overcoated onto the InP core. However, this work presents a faster photo-degradation of InP/ZnSe/ZnS QDs with a thicker ZnS shell than that with a thin ZnS shell when 1-octanethiol was applied as a sulfur source to form ZnS outmost shell. Herein, 1-octanethiol induces the form of weakly-bound carboxylate ligand via proton transfer on the QD surface, resulting in a faster degradation at UV light even though a thicker ZnS shell was formed onto InP/ZnSe QDs. Detailed insight into surface chemistry was obtained from proton nuclear magnetic resonance spectroscopy and thermogravimetric analysis–mass spectrometry. However, the lifetimes of the electroluminescence devices fabricated from InP/ZnSe/ZnS QDs with a thick or a thin ZnS shell show surprisingly the opposite result to the material stability of QDs, where the QD light-emitting diodes (QD‒LEDs) with a thick ZnS shelled QDs maintained its luminance more stable than that with a thin ZnS shelled QDs. This study elucidates the degradation mechanism of the QDs and the QD light-emitting diodes based on the results and discuss why the material stability of QDs is different from the lifetime of QD‒LEDs. Chapter 6 suggests a method how to improve a printability of EHD jet printing when QD materials are applied to QD ink formulation, where this work introduces the application of GaP mid-shelled InP QDs as a role of surface charge in EHD jet printing technique. In general, GaP intermediate shell has been introduced in III–V colloidal InP quantum dots (QDs) to enhance their thermal stability and quantum efficiency in the case of type-I core/shell/shell heterostructure InP/GaP/ZnSeS QDs. Herein, these highly luminescent InP/GaP/ZnSeS QDs were synthesized and applied to EHD jet printing, by which this study demonstrates that unreacted Ga and Cl ions on the QD surface induce the operating voltage of cone jet and cone jet formation to be reduced and stabilized, respectively. This result indicates GaP intermediate shell not only improves PL QY and thermal stability of InP QDs but also adjusts the critical flow rate required for cone-jet formation. In other words, surface charges of quantum dots can have a significant role in forming cone apex in the EHD capillary nozzle. For an industrially convenient validation of surface charges on the QD surface, Zeta potential analyses of QD solutions as a simple method were performed, as well as inductively coupled plasma optical emission spectrometry (ICP-OES) for a composition of elements. Beyond the generation of highly emissive InP QDs with narrow FWHM, these studies talk about the connection between QD material and QD devices not only to make it a vital jumping-off point for industrially feasible applications but also to reveal from chemical and physical standpoints the origin that obstructs the improvement of device performance experimentally and theoretically. N2 - Umweltfreundliche InP Quantenpunkte (QDs) sind technologisch relevant und werden typischerweise als grüne und rote Emitter in Bildschirmen verwendet. Nach dem Stand der Technik kann eine sorgfältig hergestellte Kern-Schale-Heterostruktur (ZnSe innen/ZnS außen) zu außergewöhnlich hohen Photolumineszenz-Quantenausbeuten (PL-QYs) von nahezu Eins (95 - 100 %) führen. Dennoch gibt es bisher nur einige wenige industrielle Anwendungen wie QD-Flüssigkristall-Bildschirme (liquid crystal display, QD-LCD), in denen die Anregung durch eine blaue Hintergrundbeleuchtung realisiert wird. Dabei haben QDs aufgrund ihrer Modifizierbarkeit noch viele weitere industrielle Einsatzmöglichkeiten, beispielsweise QD basierte lichtemittierende Dioden (QD-LEDs) und lumineszierende Solarkollektoren (luminescence solar concentrator, LSC). Vor dem Hauptteil werden in den Kapiteln 1 und 2 die Grundlagen von QDs und die theoretischen Grundlagen basierend auf quantenmechanischer Beschreibung und experimentellen Ergebnissen eingeführt. Zum besseren Verständnis werden: das Konzept der QDs, kolloidale QDs, Kern-Schale-Strukturen vom Typ I, mit Übergangsmetallen dotierte Halbleiter-QDs, die Oberflächenchemie von QDs und ihre Anwendungen (LSC, QD-LEDs und electrohydrodynamic EHD-Jet-Printing), nacheinander eingeführt. Der Schwerpunkt dieser Doktorarbeit liegt hauptsächlich auf der Kombination von QD-Materialien und QD-Bauelementen, basierend auf der Synthese von InP QDs mit einem anorganischen Kern (Kern-Schale-Heterostruktur) und einer organischen Hülle (Oberflächenliganden auf der QD-Oberfläche). In die Kern-Schale-Heterostruktur wird eine ZnCuInS-Mittelschale als Zwischenschicht zwischen einem Cu-dotierten InP Kern und einer ZnS-Schale für LSC-Bauelemente neu eingeführt. Bei den Oberflächenliganden wird der Ligandeneffekt von 1-Oktanthiol und Chloridionen auf die Stabilität von QD-LEDs und die Druckbarkeit mit EHD-Jet-Printing hin untersucht. Dabei erhält der Protonentransfermechanismus auf der QD-Oberfläche ein besonderes Augenmerk. In Kapitel 3 wird die Eintopfsynthese von hocheffizient emittierenden QDs mit einer Cu:InP/Zn-Cu-In-S (ZCIS)/ZnS Kern/Schale/Schale-Heterostruktur beschrieben. Wenn diese neuartige Kombination einer ZCIS/ZnS-Doppelschalenstruktur mit eine Reihe von Cu:InP-Kerne mit unterschiedlichen Größen kombiniert wird, ergeben die daraus entstehenden Cu:InP/ZCIS/ZnS-QDs die bisher höchsten publizierten PL-QYs von 71,5 – 82,4 % im nahen IR-Bereich von 694 – 850 nm mit einstellbarer PL Wellenlänge. Diese Ergebnisse weisen auf die Wirksamkeit der ZCIS-Zwischenschicht hin, welche die Grenzflächenspannung zwischen Kern und Schale effektiv mildert und damit zu einem solch hohen Emissionsvermögen führt. Diese ZCIS-Zwischenschicht wird durch vergleichende Größen-, Struktur- und Zusammensetzungsanalysen weiter untersucht. Am Ende des Kapitels wird der aktuellen Stand der Forschung auf dem Gebiet der LSC-Bauelemente aus solchen Cu:InP/ZCIS/ZnS-QDs vorgestellt. Kapitel 4 befasst sich hauptsächlich mit dem Ligandeneffekt bei der Passivierung mit 1-Oktanthiol von InP/ZnSe/ZnS-QDs im Hinblick auf die unvollständige Oberflächenpassivierung während der Synthese. Es fehlen anionischen Carboxylat-Liganden auf der InP/ZnSe/ZnS-Oberfläche der QDs, an denen Zink Carboxylat Liganden durch Protonentransfer vom 1-Oktanthiol in Carbonsäure-Liganden umgewandelt werden könnten. Die so synthetisierten QDs haben zunächst eine unterkoordinierte Oberfläche mit Leerstellen, die durch Lösungsmittel-Liganden wie Ethanol oder Aceton passiviert werden. Wenn 1-Octanthiol an die QD-Oberfläche bindet bewirkt der Protonentransfer die Bindung von Carboxylat-Liganden (aus Zink-Carboxylat) an die Oberfläche, wobei Ethanol- oder Aceton-Liganden ausgetauscht werden. Systematische Analysen wie Thermogravimetrie (thermogravimetric analysis TGA), Massenspektrometrie (MS) und Protonen-Kernmagnetresonanz (proton nuclear magnetic resonance 1H-NMR) zeigen direkt den Zusammenhang zwischen Oberflächenliganden und QD-LEDs. Kapitel 5 zeigt den Zusammenhang zwischen der Materialstabilität von QDs und der Bauteilstabilität von QD-LEDs durch Untersuchung der Oberflächenchemie und der Schalendicke. In typischen kolloidalen III-V-InP-QDs wird eine anorganische ZnS-Außenhülle auf den InP Kern aufgetragen, um Stabilität zu gewährleisten. In dieser Arbeit wird jedoch eine schnellere Photodegradation von InP/ZnSe/ZnS-QDs mit einer dickeren statt einer dünneren ZnS-Schale gezeigt, wenn 1-Oktanthiol als Schwefelquelle zur Bildung der äußersten ZnS-Schale verwendet wurde. 1-Oktanthiol induziert die Bildung eines schwach gebundenen Carboxylatliganden durch Protonentransfer auf der QD-Oberfläche, was zu einem schnelleren Abbau unter UV-Licht trotz dickerer ZnS-Schale führt. Detailliertere Einblicke in die Oberflächenchemie werden durch 1H-NMR, TGA und MS gewonnen. Überraschenderweise zeigen jedoch die Lebensdauern der aus InP/ZnSe/ZnS-QDs mit dicken oder dünnen ZnS-Hüllen hergestellten EL-Bauelemente eine gegenteilige Stabilität: Die QD-LEDs mit QDs mit dicker ZnS-Hülle haben eine längere Lebensdauer, als jene mit dünner ZnS-Hülle. Es wird der Degradationsmechanismus der QDs und der QD-Leuchtdioden anhand der Ergebnisse erläutert und der Effekt auf die unterschiedlichen Lebensdauern von Material und Bauteil diskutiert. In Kapitel 6 wird eine Methode vorgeschlagen, wie die Druckbarkeit von QD-Tintenformulierungen beim EHD-Jet-Druck über die QD-Materialien verbessert werden kann. Dazu werden InP-QDs mit GaP-Zwischenschalen erweitert, um die Oberflächenladung zu beeinflussen. Darüber hinaus verbessern GaP-Zwischenschalen in III-V kolloidalen InP-QDs deren thermische Stabilität und PL-QY im Falle von Typ-I-Kern/Schale/Schale-Heterostrukturen (InP/GaP/ZnSeS-QDs). Diese stark lumineszierenden InP/GaP/ZnSeS-QDs wurden synthetisiert und für den EHD-Jet-Druck verwendet. Nicht umgesetzte Ga und Cl-Ionen auf der QD-Oberfläche reduzieren die benötigte Betriebsspannung zur Ausbildung eines Taylor-Kegels und eines stabilen Tinten-Jets. Dieses Ergebnis deutet darauf hin, dass die Oberflächenladungen der Quantenpunkte eine wichtige Rolle bei der Ausbildung des Taylor-Kegels spielen. Mittels Zeta-Potenzial-Messung von QD-Tinten wurde eine industriell erprobte und einfache Methode zur Untersuchung der Oberflächenladungen verwendet. Darüber hinaus wurde optische Emissionsspektrometrie mit induktiv gekoppeltem Plasma (inductively coupled plasma-atomic emission spectroscopy ICP-OES) zur Bestimmung der Elementzusammensetzung durchgeführt. Diese Dissertation beschäftigt sich sowohl mit der Synthese von hocheffizienten InP QDs mit schmalbandiger Emission (full width at half maximum FWHM), als auch den Zusammenhängen zwischen QD-Material und QD-Bauelementen. Die Ergebnisse sind einerseits relevant für die breitere industrielle Anwendung dieser Materialien und andererseits für ein tieferes chemisch-physikalisches, theoretisches und experimentelles Verständnis der Prozesse, die zu langlebigen und stabilen Bauelementen führen. KW - colloidal quantum dot KW - Cu doped InP KW - surface chemistry KW - QD stability KW - QD device KW - kolloidaler Quantenpunkt KW - Cu-dotiertes InP KW - Oberflächenchemie KW - QD-Stabilität KW - QD-Gerät Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585351 ER - TY - THES A1 - Ihlenburg, Ramona T1 - Sulfobetainhydrogele mit biomedizinischem Anwendungspotential und deren Netzwerkcharakterisierung im Gleichgewichtsquellzustand N2 - In dieser Dissertation konnten erfolgreich mechanisch stabile Hydrogele über eine freie radikalische Polymerisation (FRP) in Wasser synthetisiert werden. Dabei diente vor allem das Sulfobetain SPE als Monomer. Dieses wurde mit dem über eine nukleophile Substitution erster bzw. zweiter Ordnung hergestellten Vernetzer TMBEMPA/Br umgesetzt. Die entstandenen Netzwerke wurden im Gleichgewichtsquellzustand im Wesentlichen mittels Niederfeld-Kernresonanzspektroskopie, Röntgenkleinwinkelstreuung (SAXS), Rasterelektronenmikroskopie mit Tieftemperaturtechnik (Kryo-REM), dynamisch-mechanische Analyse (DMA), Rheologie, thermogravimetrische Analyse (TGA) und dynamische Differenzkalorimetrie (DSC) analysiert. Das hierarchisch aufgebaute Netzwerk wurde anschließend für die matrixgesteuerten Mineralisation von Calciumphosphat und –carbonat genutzt. Über das alternierende Eintauchverfahren (engl. „alternate soaking method“) und der Variation von Mineralisationsparametern, wie pH-Wert, Konzentration c und Temperatur T konnten dann verschiedene Modifikationen des Calciumphosphats generiert werden. Das entstandene Hybridmaterial wurde qualitativ mittels Röntgenpulverdiffraktometrie (XRD), abgeschwächte Totalreflexion–fouriertransformierte Infrarot Spektroskopie (ATR-FTIR), Raman-Spektroskopie, Rasterelektronenmikroskopie (REM) mit energiedispersiver Röntgenspektroskopie (EDXS) und optischer Mikroskopie (OM) als auch quantitative mittels Gravimetrie und TGA analysiert. Für die potentielle Verwendung in der Medizintechnik, z.B. als Implantatmaterial, ist die grundlegende Einschätzung der Wechselwirkung zwischen Hydrogel bzw. Hybridmaterial und verschiedener Zelltypen unerlässlich. Dazu wurden verschiedene Zelltypen, wie Einzeller, Bakterien und adulte Stammzellen verwendet. Die Wechselwirkung mit Peptidsequenzen von Phagen komplettiert das biologische Unterkapitel. Hydrogele sind mannigfaltig einsetzbar. Diese Arbeit fasst daher weitere Projektperspektiven, auch außerhalb des biomedizinischem Anwendungsspektrums, auf. So konnten erste Ansätze zur serienmäßige bzw. maßgeschneiderte Produktion über das „Inkjet“ Verfahren erreicht werden. Um dies ermöglichen zu können wurden erfolgreich weitere Synthesestrategien, wie die Photopolymerisation und die redoxinitiierte Polymerisation, ausgenutzt. Auch die Eignung als Filtermaterial oder Superabsorber wurde analysiert. N2 - In this current thesis, mechanically stable hydrogels were successfully synthesized via free radical polymerization (FRP) in water. In particular, the sulfobetaine SPE served as a monomer. This was reacted with the crosslinker TMBEMPA/Br prepared via first- and second-order nucleophilic substitution, respectively. The resulting networks were analyzed in the equilibrium swelling state mainly by low-field nuclear magnetic resonance spectroscopy, small-angle X-ray scattering (SAXS), scanning electron microscopy with cryogenic technique (cryo-REM), dynamic mechanical analysis (DMA), rheology, thermogravimetric analysis (TGA), and differential scanning calorimetry (DSC). The hierarchical network was then used for matrix-controlled mineralization of calcium phosphate and carbonate. Using the alternate soaking method and varying mineralization parameters such as pH, concentration c and temperature T, different modifications of calcium phosphate could be generated. The resulting hybrid material was analyzed qualitatively by X-ray powder diffraction (XRD), attenuated total reflection Fourier transformed infrared spectroscopy (ATR-FTIR), Raman spectroscopy, scanning electron microscopy (SEM) with energy dispersive X-ray spectroscopy (EDXS) and optical microscopy (OM) as well as quantitatively by gravimetry and TGA. For the potential use in medical technology, e.g. as implant material, the basic assessment of the interaction between hydrogel or hybrid material and different cell types is essential. For this purpose, different cell types, such as amoeba, bacteria and adult stem cells, were used. The interaction with peptide sequences of phages completes the biological subchapter. Hydrogels can be used in many different ways. This thesis therefore includes further project perspectives, also outside the biomedical application spectrum. Thus, first approaches to serial or customized production via the "inkjet" process could be achieved. To make this possible, other synthesis strategies such as photopolymerization and redox-initiated polymerization were successfully exploited. The suitability as filter material or superabsorbent was also analyzed. KW - Hydrogel KW - Calciumphosphat KW - Mineralisation KW - hydrogel KW - calcium phosphate KW - mineralization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607093 ER - TY - THES A1 - Saatchi, Mersa T1 - Study on manufacturing of multifunctional bilayer systems N2 - Layered structures are ubiquitous in nature and industrial products, in which individual layers could have different mechanical/thermal properties and functions independently contributing to the performance of the whole layered structure for their relevant application. Tuning each layer affects the performance of the whole layered system. Pores are utilized in various disciplines, where low density, but large surfaces are demanded. Besides, open and interconnected pores would act as a transferring channel for guest chemical molecules. The shape of pores influences compression behavior of the material. Moreover, introducing pores decreases the density and subsequently the mechanical strength. To maintain defined mechanical strength under various stress, porous structure can be reinforced by adding reinforcement agent such as fiber, filler or layered structure to bear the mechanical stress on demanded application. In this context, this thesis aimed to generate new functions in bilayer systems by combining layers having different moduli and/or porosity, and to develop suitable processing techniques to access these structures. Manufacturing processes of layered structures employ often organic solvents mostly causing environmental pollution. In this regard, the studied bilayer structures here were manufactured by processes free of organic solvents. In this thesis, three bilayer systems were studied to answer the individual questions. First, while various methods of introducing pores in melt-phase are reported for one-layer constructs with simple geometry, can such methods be applied to a bilayer structure, giving two porous layers? This was addressed with Bilayer System 1. Two porous layers were obtained from melt-blending of two different polyurethanes (PU) and polyvinyl alcohol (PVA) in a co-continuous phase followed by sequential injection molding and leaching the PVA phase in deionized water. A porosity of 50 ± 5% with a high interconnectivity was obtained, in which the pore sizes in both layers ranged from 1 µm to 100 µm with an average of 22 µm in both layers. The obtained pores were tailored by applying an annealing treatment at relevant high temperatures of 110 °C and 130 °C, which allowed the porosity to be kept constant. The disadvantage of this system is that a maximum of 50% porosity could be reached and removal of leaching material in the weld line section of both layers is not guaranteed. Such a construct serves as a model for bilayer porous structure for determining structure-property relationships with respect to the pore size, porosity and mechanical properties of each layer. This fabrication method is also applicable to complex geometries by designing a relevant mold for injection molding. Secondly, utilizing scCO2 foaming process at elevated temperature and pressure is considered as a green manufacturing process. Employing this method as a post-treatment can alter the history orientation of polymer chains created by previous fabrication methods. Can a bilayer structure be fabricated by a combination of sequential injection molding and scCO2 foaming process, in which a porous layer is supported by a compact layer? Such a construct (Bilayer System 2) was generated by sequential injection molding of a PCL (Tm ≈ 58 °C) layer and a PLLA (Tg ≈ 58 °C) layer. Soaking this structure in the autoclave with scCO2 at T = 45 °C and P = 100 bar led to the selective foaming of PCL with a porosity of 80%, while the PLA layer was kept compact. The scCO2 autoclave led to the formation of a porous core and skin layer of the PCL, however, the degree of crystallinity of PLLA layer increased from 0 to 50% at the defined temperature and pressure. The microcellular structure of PCL as well as the degree of crystallinity of PLLA were controlled by increasing soaking time. Thirdly, wrinkles on surfaces in micro/nano scale alter the properties, which are surface-related. Wrinkles are formed on a surface of a bilayer structure having a compliant substrate and a stiff thin film. However, the reported wrinkles were not reversible. Moreover, dynamic wrinkles in nano and micro scale have numerous examples in nature such as gecko foot hair offering reversible adhesion and an ability of lotus leaves for self-cleaning altering hydrophobicity of the surface. It was envisioned to imitate this biomimetic function on the bilayer structure, where self-assembly on/off patterns would be realized on the surface of this construct. In summary, developing layered constructs having different properties/functions in the individual layer or exhibiting a new function as the consequence of layered structure can give novel insight for designing layered constructs in various disciplines such as packaging and transport industry, aerospace industry and health technology. N2 - Schichtstrukturen sind in der Natur und in Industrieprodukten allgegenwärtig, wobei die einzelnen Schichten unterschiedliche mechanische/thermische Eigenschaften und Funktionen haben können, die unabhängig voneinander zur Leistungsfähigkeit der gesamten Schichtstruktur für die jeweilige Anwendung beitragen. Die individuelle Abstimmung jeder einzelnen Schicht wirkt sich auf die Leistungsfähigkeit des gesamten Schichtsystems aus. Poren werden in verschiedenen Bereichen eingesetzt, in denen eine geringe Dichte, aber eine große Oberfläche erforderlich ist. Außerdem können offene und miteinander verbundene Poren als Übertragungskanal für chemische Gast-Moleküle dienen. Die Form der Poren beeinflusst das Kompressionsverhalten des Materials. In diesem Zusammenhang zielte diese Arbeit darauf ab, neue Funktionen in zweischichtigen Systemen durch die Kombination von Schichten mit unterschiedlichen Modulen und/oder Porosität zu erzeugen und geeignete Verarbeitungstechniken zu entwickeln, um diese Strukturen zu erreichen. Bei der Herstellung von Schichtstrukturen werden häufig organische Lösungsmittel verwendet, die meist eine Umweltbelastung darstellen. Daher wurden die hier untersuchten Doppelschichtstrukturen mit Verfahren hergestellt, die frei von organischen Lösungsmitteln sind. In dieser Arbeit wurden drei Doppelschichtsysteme untersucht, um die einzelnen Fragen zu beantworten. Erstens: Während verschiedene Methoden zur Einführung von Poren in der Schmelzphase für einschichtige Konstruktionen mit einfacher Geometrie bekannt sind, stellt sich die Frage, ob solche Methoden sich auf eine zweischichtige Struktur anwenden lassen und somit zwei unterschiedlich poröse Schichten ergibt? Dies wurde mit dem Zweischichtsystem 1 untersucht. Zwei poröse Schichten wurden durch das Mischen in der Schmelze von zwei verschiedenen Polyurethanen (PU) und Polyvinylalkohol (PVA) in einer co-kontinuierlichen Phase erhalten. Es folgte sequentielles Spritzgießen und das Entfernen der PVA-Phase durch „Leaching“ in entionisiertem Wasser. Es wurde eine Porosität von 50 ± 5 % mit einer hohen Interkonnektivität erzielt, wobei die Porengrößen in beiden Schichten zwischen 1 µm und 100 µm lagen, mit einem Durchschnittswert von 22 µm in beiden Schichten. Diese Herstellungsmethode ist auch auf komplexe Geometrien anwendbar, es muss lediglich eine entsprechende Form für das Spritzgießen entworfen werden. Zweitens: die Verwendung des scCO2-Schäumungsverfahrens bei erhöhter Temperatur und erhöhtem Druck wird als umweltfreundlicher Herstellungsprozess betrachtet. Durch den Einsatz dieser Methode als Nachbehandlung kann die Historie der Ausrichtung der Polymerketten, die durch frühere Herstellungsmethoden entstanden ist, verändert werden. Kann eine zweischichtige Struktur durch eine Kombination aus sequentiellem Spritzgießen und scCO2-Schäumverfahren hergestellt werden, bei der eine poröse Schicht von einer kompakten Schicht getragen wird? Ein solches Konstrukt (Bilayer System 2) wurde durch sequentielles Spritzgießen einer PCL-Schicht (Tm ≈ 58 °C) und einer PLLA-Schicht (Tg ≈ 58 °C) erzeugt. Das Einweichen dieser Struktur in scCO2 im Autoklaven bei T = 45 °C und P = 100 bar führte zum selektiven Aufschäumen von PCL mit einer Porosität von 80%, während die PLA-Schicht unverschäumt blieb. Die Behandlung im scCO2-Autoklav führte zur Bildung einer porösen Kern- und Hautschicht des PCL, während der Kristallinitätsgrad der PLLA-Schicht bei der definierten Temperatur und dem definierten Druck von 0 auf 50 % anstieg. Die mikrozelluläre Struktur von PCL sowie der Kristallinitätsgrad von PLLA wurden durch die Erhöhung der Einweichzeit gesteuert. Drittens verändern Falten auf Oberflächen im Mikro-/Nanomaßstab die Eigenschaften, die mit der Oberfläche zusammenhängen. Falten bilden sich auf der Oberfläche einer zweischichtigen Struktur mit einem nachgiebigen Substrat und einem steifen dünnen Film. Die Falten waren jedoch nicht reversibel. Darüber hinaus gibt es in der Natur zahlreiche Beispiele für dynamische Falten im Nano- und Mikromaßstab, wie z. B. Gecko-Fußhaare, die eine reversible Adhäsion ermöglichen, und die Fähigkeit von Lotusblättern, sich selbst zu reinigen, indem sie die Hydrophobizität der Oberfläche verändern. Diese biomimetische Funktion sollte auf der Doppelschichtstruktur nachgeahmt werden, wobei auf der Oberfläche dieses Konstrukts selbstorganisierende On/Off-Muster realisiert werden sollten. Zusammenfassend kann gesagt werden, dass die Entwicklung geschichteter Konstrukte mit unterschiedlichen Eigenschaften/Funktionen in den einzelnen Schichten oder mit einer neuen Funktion als Folge der geschichteten Struktur neue Erkenntnisse für den Entwurf geschichteter Konstrukte in verschiedenen Disziplinen wie der Verpackungs- und Transportindustrie, der Luft- und Raumfahrtindustrie und der Gesundheitstechnologie liefern kann. T2 - Studie zur Herstellung multifunktionaler Doppelschichtsysteme KW - bilayer system KW - biomaterials KW - wrinkles KW - polymer KW - injection molding KW - Doppelschichtstruktur KW - Biomaterialien KW - poröse Struktur KW - Falten KW - Spritzgießen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601968 ER - TY - THES A1 - Hildebrandt, Jana T1 - Studies on nanoplastics for the preparation of reference materials T1 - Untersuchungen an Nanoplastik für die Herstellung von Referenzmaterialien N2 - The present work focuses on the preparation and characterisation of various nanoplastic reference material candidates. Nanoplastics are plastic particles in a size range of 1 − 1000 nm. The term has emerged in recent years as a distinction from the larger microplastic (1 − 1000 μm). Since the properties of the two plastic particles differ significantly due to their size, it is important to have nanoplastic reference material. This was produced for the polymer types polypropylene (PP) and polyethylene (PE) as well as poly(lactic acid) (PLA). A top-down method was used to produce the nanoplastic for the polyolefins PP and PE (Section 3.1). The material was crushed in acetone using an Ultra-Turrax disperser and then transferred to water. This process produces reproducible results when repeated, making it suitable for the production of a reference material candidate. The resulting dispersions were investigated using dynamic and electrophoretic light scattering. The dispersion of PP particles gave a mean hydrodynamic diameter Dh = 180.5±5.8 nm with a PDI = 0.08±0.02 and a zeta potential ζ = −43.0 ± 2.0 mV. For the PE particles, a diameter Dh = 344.5 ± 34.6 nm, with a PDI = 0.39 ± 0.04 and a zeta potential of ζ = −40.0 ± 4.2 mV was measured. This means that both dispersions are nanoplastics, as the particles are < 1000 nm. Furthermore, the starting material of these polyolefin particles was mixed with a gold salt and thereby the nanoplastic production was repeated in order to obtain nanoplastic particles doped with gold, which should simplify the detection of the particles. In addition to the top-down approach, a bottom-up method was chosen for the PLA (Section 3.2). Here, the polymer was first dissolved in THF and stabilised with a surfactant. Then water was added and THF evaporated, leaving an aqueous PLA dispersion. This experiment was also investigated using dynamic light scattering and, when repeated, yielded reproducible results, i. e. an average hydrodynamic diameter of Dh = 89.2 ± 3.0 nm. Since the mass concentration of PLA in the dispersion is known due to the production method, a Python notebook was tested for these samples to calculate the number and mass concentration of nano(plastic) particles using the MALS results. Similar to the plastic produced in Section 3.1, gold was also incorporated into the particle, which was achieved by adding a dispersion of gold clusters with a diameter of D = 1.15 nm in an ionic liquid (IL) in the production process. Here, the preparation of the gold clusters in the ionic liquid 1-ethyl-3-methylimidazolium dicyanamide ([Emim][DCA]) represented the first use of an IL both as a reducing agent for gold and as a solvent for the gold clusters. Two volumes of gold cluster dispersion were added during the PLA particle synthesis. The addition of the gold clusters leads to much larger particles. The nanoPLA with 0.8% Au has a diameter of Dh = 198.0 ± 10.8 nm and the nanoPLA with 4.9% Au has a diameter of Dh = 259.1 ± 23.7 nm. First investigations by TEM imaging show that the nanoPLA particles form hollow spheres when gold clusters are added. However, the mechanism leading to these structures remains unclear. N2 - Die vorliegende Arbeit beschäftigt sich mit der Herstellung und Charakterisierung verschiedener Nanoplastikreferenzmaterialkandidaten. Um Nanoplastik handelt es sich bei Plastikpartikeln in einem Größenbereich von 1 − 1000 nm. Der Begriff hat sich in den letzten Jahren als Abgrenzung zu dem größeren Mikroplastik (1 − 1000 μm) herausgebildet. Da sich die Eigenschaften der beiden Plastikpartikel auf Grund ihrer Größe deutlich unterscheiden, ist es wichtig, Nanoplastikreferenzmaterial zur Verfügung zu stellen. Dieses wurde für die Polymertypen Polypropylen (PP) und Polyethylen (PE) sowie Polymilchsäure (PLA) hergestellt. Dabei wurde für die Polyolefine PP und PE eine top-down Methode für die Herstellung des Nanoplastiks angewandt (Abschnitt 3.1). Dazu wurde das Material mithilfe eines Ultra-Turrax Dispergiergeräts in Aceton zerkleinert und danach in Wasser überführt. Dieser Prozess führt bei Wiederholung zu ähnlichen Ergebnissen, was ihn passend für die Herstellung eines Referenzmaterialkandidaten macht. Die entstandenen Dispersionen wurden mit der dynamischen und elektrophoretischen Lichtstreuung untersucht. Die Dispersion von PP-Partikeln ergab einen mittleren hydrodynamischen Durchmesser Dh = 180.5 ± 5.8 nm mit einem PDI = 0.08 ± 0.02 und einem Zetapotential ζ = −43.0 ± 2.0 mV. Bei den PE-Partikeln wurde ein Durchmesser Dh = 344.5 ± 34.6 nm, mit einem PDI = 0.39 ± 0.04 und einem Zetapotential von ζ = −40.0 ± 4.2 mV gemessen. Damit handelt es sich bei beiden Dispersionen um Nanoplastik, da die Partikel < 1000 nm sind. Des Weiteren wurde das Ausgangsmaterial dieser Polyolefinpartikel mit einem Goldsalz versetzt und damit die Nanoplastikherstellung wiederholt, um mit Gold dotierte Nanoplastikpartikel zu erhalten, die die Detektion der Partikel vereinfachen sollen. Neben dem Top-down Ansatz wurde für das PLA eine Bottom-up Methode gewählt (Abschnitt 3.2). Hierbei wurde das Polymer in THF zunächst gelöst und mit einem Tensid stabilisiert. Dann wurde Wasser hinzugegeben und das THF verdampft, sodass eine wässrige PLADispersion übrig blieb. Auch dieses Experiment wurde mithilfe der dynamischen Lichtstreuung untersucht und führte bei Wiederholung zu reproduzierbaren Ergebnissen von einem mittleren hydrodynamischen Durchmesser von Dh = 89.2 ± 3.0 nm. Da durch die Herstellungsweise die Massenkonzentration von PLA in der Dispersion bekannt ist, wurde für diese Proben ein Python Notebook getestet, das die Zahlen- und Massenkonzentration von Nano(plastik)partikeln mithilfe der MALS-Ergebnisse errechnen soll. Ähnlich wie für das in Abschnitt 3.1 hergestellte Plastik wurde auch hier Gold in den Partikel eingearbeitet, was durch die Zugabe einer Dispersion von Goldclustern mit einem Durchmesser von D = 1.15 nm in einer ionischen Flüssigkeit (IL) im Herstellungsprozess gelang. Dabei stellte die Herstellung der Goldcluster in der ionischen Flüssigkeit 1-Ethyl-3-methylimidazolium-dicyanamid ([Emim][DCA]) die erstmalige Verwendung einer IL sowohl als Reduktionsmittel für Gold als auch als Lösungsmittel für die Goldcluster dar. Während der Synthese der PLA-Partikel wurden zwei unterschiedliche Volumina der Goldcluster-Dispersion hinzugefügt. Die Zugabe von Goldclustern führt zu wesentlich größeren Partikeln. Das nanoPLA mit 0.8% Au hat einen Durchmesser von Dh = 198.0 ± 10.8 nm und das nanoPLA mit 4.9% Au hat einen Durchmesser von Dh = 259.1 ± 23.7 nm. Dabei zeigen erste Untersuchungen mittels TEM-Bildgebung, dass die nanoPLA-Partikel Hohlkugeln bilden, wenn Goldcluster hinzugefügt werden. Jedoch ist der Mechanismus, der zu diesen Strukturen führt, noch unklar. KW - nanoplastic KW - Nanoplastik KW - Rerenzmaterial KW - reference material KW - polyolefin KW - Polyolefin KW - Polymilchsäure KW - Poly(lactic acid) Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617102 ER - TY - THES A1 - Kooten, Willemijn Sarah Maria Theresia van T1 - Structural inheritance of the Salta Rift basin and its control on exhumation patterns of the Eastern Cordillera between 23 and 24°S T1 - Strukturelle Vererbung des Salta Riftbeckens und deren Einfluss auf die Heraushebungsmuster der Östlichen Kordillere zwischen 23 und 24°S N2 - The deformation style of mountain belts is greatly influenced by the upper plate architecture created during preceding deformation phases. The Mesozoic Salta Rift extensional phase has created a dominant structural and lithological framework that controls Cenozoic deformation and exhumation patterns in the Central Andes. Studying the nature of these pre-existing anisotropies is a key to understanding the spatiotemporal distribution of exhumation and its controlling factors. The Eastern Cordillera in particular, has a structural grain that is in part controlled by Salta Rift structures and their orientation relative to Andean shortening. As a result, there are areas in which Andean deformation prevails and areas where the influence of the Salta Rift is the main control on deformation patterns. Between 23 and 24°S, lithological and structural heterogeneities imposed by the Lomas de Olmedo sub-basin (Salta Rift basin) affect the development of the Eastern Cordillera fold-and-thrust belt. The inverted northern margin of the sub-basin now forms the southern boundary of the intermontane Cianzo basin. The former western margin of the sub-basin is located at the confluence of the Subandean Zone, the Santa Barbara System and the Eastern Cordillera. Here, the Salta Rift basin architecture is responsible for the distribution of these morphotectonic provinces. In this study we use a multi-method approach consisting of low-temperature (U-Th-Sm)/He and apatite fission track thermochronology, detrital geochronology, structural and sedimentological analyses to investigate the Mesozoic structural inheritance of the Lomas de Olmedo sub-basin and Cenozoic exhumation patterns. Characterization of the extension-related Tacurú Group as an intermediate succession between Paleozoic basement and the syn-rift infill of the Lomas de Olmedo sub-basin reveals a Jurassic maximum depositional age. Zircon (U-Th-Sm)/He cooling ages record a pre-Cretaceous onset of exhumation for the rift shoulders in the northern part of the sub-basin, whereas the western shoulder shows a more recent onset (140–115 Ma). Variations in the sedimentary thickness of syn- and post-rift strata document the evolution of accommodation space in the sub-basin. While the thickness of syn-rift strata increases rapidly toward the northern basin margin, the post-rift strata thickness decreases toward the margin and forms a condensed section on the rift shoulder. Inversion of Salta Rift structures commenced between the late Oligocene and Miocene (24–15 Ma) in the ranges surrounding the Cianzo basin. The eastern and western limbs of the Cianzo syncline, located in the hanging wall of the basin-bounding Hornocal fault, show diachronous exhumation. At the same time, western fault blocks of Tilcara Range, south of the Cianzo basin, began exhuming in the late Oligocene to early Miocene (26–16 Ma). Eastward propagation to the frontal thrust and to the Paleozoic strata east of the Tilcara Range occurred in the middle Miocene (22–10 Ma) and the late Miocene–early Pliocene (10–4 Ma), respectively. N2 - Der Deformationsstil von Gebirgsgürteln wird stark von der Architektur der oberen Platte beeinflusst, die während vorheriger Verformungsphasen entstanden ist. Die mesozoische Salta Rift Extensionsphase hat einen strukturellen und lithologischen Rahmen geschaffen, der die känozoischen Heraushebungsmuster in den Zentralanden kontrolliert. Die Charakterisierung dieser Anisotropien ist daher entscheidend, um die räumlich-zeitliche Verteilung der Heraushebung und ihrer kontrollierenden Faktoren zu verstehen. Insbesondere die Östliche Kordillere weist einen strukturellen Rahmen auf, der teilweise von Salta Rift-Strukturen und ihrer Orientierung in Bezug auf die Verkürzung im Zuge der Gebirgsbildung der Anden kontrolliert wird. Dadurch wurden Gebiete geschaffen, in denen die jüngere Anden-Deformation überwiegt, und Gebiete, in denen der Einfluss des Salta Rifts die Deformationsmuster prägt. Zwischen 23 und 24°S beeinflussen lithologische und strukturelle Heterogenitäten des Lomas de Olmedo Beckens (Teil des Salta Rift Beckens) die Entwicklung des Faltengürtels der Östlichen Kordillere. Der invertierte nördliche Rand des Beckens bildet dabei die südliche Grenze des Cianzo Beckens, welches während der andinen Orogenese angelegt wurde. Der ehemalige westliche Rand des Lomas de Olmedo Beckens befindet sich am Übergang der Subandinen Zone, des Santa Barbara Systems und der Östlichen Kordillere. Hier ist die Architektur des Salta Rift-Beckens für die räumliche Verteilung dieser morphotektonischen Provinzen verantwortlich. In dieser Studie verwenden wir einen multi-methodischen Ansatz, bestehend aus Niedertemperatur (U-Th-Sm)/He und Apatit Spaltspur Thermochronologie, detritische Geochronologie sowie strukturelle und sedimentologische Analyse, um das mesozoische strukturelle Erbe des Lomas de Olmedo Beckens und die känozoischen Heraushebungsmuster zu untersuchen. Die mit Extension verbundene Tacurú-Gruppe bildet eine Einheit, die dem paläozoischen Grundgebirge und der syn-rift Auffüllung des Lomas de Olmedo Beckens zwischengeschaltet ist. Sie hat ein Jurassisches maximales Ablagerungsalter. Zirkon (U-Th-Sm)/He Abkühlungsalter zeigen einen präkretazischen Beginn der Heraushebung für die Riftschulter im nördlichen Teil des Beckens, während die westliche Schulter einen jüngeren Beginn aufweist (140–115 Ma). Variationen in der stratigraphischen Mächtigkeit von Syn- und Postrift-Gesteinen dokumentieren die Entwicklung des Akommodationsraums. Während die Mächtigkeit der Synrift-Gesteine zum nördlichen Beckenrand hin zunimmt, schwindet die Mächtigkeit der Postrift-Gesteine in Richtung des Beckenrandes und bildet dort eine kondensierte Abfolge. Die Inversion der Salta Rift Strukturen begann im Cianzo Becken zwischen dem späten Oligozän und Miozän (24–15 Ma) mit einer diachronen Heraushebung des östlichen und westlichen Schenkels der Cianzo Synklinale, welche sich im Hangenden der Hornocal Störung befindet. Gleichzeitig begann im Tilcara Gebirge, südlich des Cianzo Beckens, im späten Oligozän bis frühen Miozän (26–16 Ma) die Heraushebung westlicher Störungsblöcke. Die ostwärtige Ausbreitung zur frontalen Überschiebung erfolgte im mittleren Miozän (22–10 Ma) und zum San Lucas Block im späten Miozän bis frühen Pliozän (10–4 Ma). KW - Argentina KW - Argentinien KW - thermochronology KW - Thermochronologie KW - exhumation KW - structural inheritance KW - thermal modeling KW - Eastern Cordillera KW - östliche Kordillere KW - Modellierung KW - Salta Rift KW - Salta Rift Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617983 ER - TY - THES A1 - Molitor, Louise T1 - Strategic Residential Segregation N2 - Residential segregation is a widespread phenomenon that can be observed in almost every major city. In these urban areas, residents with different ethnical or socioeconomic backgrounds tend to form homogeneous clusters. In Schelling’s classical segregation model two types of agents are placed on a grid. An agent is content with its location if the fraction of its neighbors, which have the same type as the agent, is at least 𝜏, for some 0 < 𝜏 ≤ 1. Discontent agents simply swap their location with a randomly chosen other discontent agent or jump to a random empty location. The model gives a coherent explanation of how clusters can form even if all agents are tolerant, i.e., if they agree to live in mixed neighborhoods. For segregation to occur, all it needs is a slight bias towards agents preferring similar neighbors. Although the model is well studied, previous research focused on a random process point of view. However, it is more realistic to assume instead that the agents strategically choose where to live. We close this gap by introducing and analyzing game-theoretic models of Schelling segregation, where rational agents strategically choose their locations. As the first step, we introduce and analyze a generalized game-theoretic model that allows more than two agent types and more general underlying graphs modeling the residential area. We introduce different versions of Swap and Jump Schelling Games. Swap Schelling Games assume that every vertex of the underlying graph serving as a residential area is occupied by an agent and pairs of discontent agents can swap their locations, i.e., their occupied vertices, to increase their utility. In contrast, for the Jump Schelling Game, we assume that there exist empty vertices in the graph and agents can jump to these vacant vertices if this increases their utility. We show that the number of agent types as well as the structure of underlying graph heavily influence the dynamic properties and the tractability of finding an optimal strategy profile. As a second step, we significantly deepen these investigations for the swap version with 𝜏 = 1 by studying the influence of the underlying topology modeling the residential area on the existence of equilibria, the Price of Anarchy, and the dynamic properties. Moreover, we restrict the movement of agents locally. As a main takeaway, we find that both aspects influence the existence and the quality of stable states. Furthermore, also for the swap model, we follow sociological surveys and study, asking the same core game-theoretic questions, non-monotone singlepeaked utility functions instead of monotone ones, i.e., utility functions that are not monotone in the fraction of same-type neighbors. Our results clearly show that moving from monotone to non-monotone utilities yields novel structural properties and different results in terms of existence and quality of stable states. In the last part, we introduce an agent-based saturated open-city variant, the Flip Schelling Process, in which agents, based on the predominant type in their neighborhood, decide whether to change their types. We provide a general framework for analyzing the influence of the underlying topology on residential segregation and investigate the probability that an edge is monochrome, i.e., that both incident vertices have the same type, on random geometric and Erdős–Rényi graphs. For random geometric graphs, we prove the existence of a constant c > 0 such that the expected fraction of monochrome edges after the Flip Schelling Process is at least 1/2 + c. For Erdős–Rényi graphs, we show the expected fraction of monochrome edges after the Flip Schelling Process is at most 1/2 + o(1). N2 - Die Segregation von Wohngebieten ist ein weit verbreitetes Phänomen, das in fast jeder größeren Stadt zu beobachten ist. In diesen städtischen Gebieten neigen Bewohner mit unterschiedlichem ethnischen oder sozioökonomischen Hintergrund dazu, homogene Nachbarschaften zu bilden. In Schellings klassischem Segregationsmodell werden zwei Arten von Agenten auf einem Gitter platziert. Ein Agent ist mit seinem Standort zufrieden, wenn der Anteil seiner Nachbarn, die denselben Typ wie er haben, mindestens 𝜏 beträgt, für 0 < 𝜏 ≤ 1. Unzufriedene Agenten tauschen einfach ihren Standort mit einem zufällig ausgewählten anderen unzufriedenen Agenten oder springen auf einen zufälligen leeren Platz. Das Modell liefert eine kohärente Erklärung dafür, wie sich Cluster bilden können, selbst wenn alle Agenten tolerant sind, d.h. wenn sie damit einverstanden sind, in gemischten Nachbarschaften zu leben. Damit es zu Segregation kommt, genügt eine leichte Tendenz, dass die Agenten ähnliche Nachbarn bevorzugen. Obwohl das Modell gut untersucht ist, lag der Schwerpunkt der bisherigen Forschung eher auf dem Zufallsprozess. Es ist jedoch realistischer, davon auszugehen, dass Agenten strategisch ihren Wohnort aussuchen. Wir schließen diese Lücke, indem wir spieltheoretische Modelle der Schelling-Segregation einführen und analysieren, in welchen rationale Akteure ihre Standorte strategisch wählen. In einem ersten Schritt führen wir ein verallgemeinertes spieltheoretisches Modell ein, das mehr als zwei Agententypen und allgemeinere zugrundeliegende Graphen zur Modellierung des Wohngebiets zulässt und analysieren es. Zu diesem Zweck untersuchen wir verschiedene Versionen von Tausch- und Sprung-Schelling-Spielen. Bei den Tausch-Schelling-Spielen gehen wir davon aus, dass jeder Knoten des zugrunde liegenden Graphen, der als Wohngebiet dient, von einem Agenten besetzt ist und dass Paare von unzufriedenen Agenten ihre Standorte, d.h. ihre besetzten Knoten, tauschen können, um ihren Nutzen zu erhöhen. Im Gegensatz dazu gehen wir beim Sprung-Schelling-Spiel davon aus, dass es leere Knoten im Graphen gibt und die Agenten zu diesen unbesetzten Knoten springen können, wenn dies ihren Nutzen erhöht. Wir zeigen, dass die Anzahl der Agententypen sowie die zugrundeliegende Struktur des Graphen, die dynamischen Eigenschaften und die Komplexität der Berechenbarkeit eines optimalen Strategieprofils stark beeinflussen. In einem zweiten Schritt vertiefen wir diese Untersuchungen für die Tauschvariante mit 𝜏 = 1 erheblich, indem wir den Einfluss der zugrunde liegenden Topologie, die dasWohngebiet modelliert, auf die Existenz von Gleichgewichten, den Preis der Anarchie und die dynamischen Eigenschaften hin untersuchen. Darüber hinaus schränken wir die Bewegung der Agenten lokal ein. Die wichtigste Erkenntnis ist, dass beide Aspekte die Existenz als auch die Qualität stabiler Zustände beeinflussen. Desweiteren folgen wir, auch für das Tauschmodell, soziologischen Untersuchungen und untersuchen für dieselben zentralen spieltheoretischen Fragen nicht-monotone einspitzige Nutzenfunktionen anstelle von monotonen, d.h. Nutzenfunktionen, die nicht monoton bezüglich des Anteils der gleichartigen Nachbarn sind. Unsere Ergebnisse zeigen deutlich, dass der Übergang von monotonen zu nicht-monotonen Nutzenfunktionen zu neuen strukturellen Eigenschaften und anderen Ergebnissen in Bezug auf die Existenz und Qualität stabiler Zustände führt. Im letzten Teil führen wir eine agentenbasierte gesättigte Offene-Stadt-Variante ein, den Flip-Schelling-Prozess, bei dem Agenten auf der Grundlage des vorherrschenden Typs in ihrer Nachbarschaft entscheiden, ob sie ihren Typ wechseln. Wir stellen einen allgemeinen Rahmen für die Analyse des Einflusses der zugrundeliegenden Topologie auf dieWohnsegregation zur Verfügung und untersuchen die Wahrscheinlichkeit, dass eine Kante einfarbig auf zufälligen geometrischen und Erdős–Rényi-Graphen ist, d.h. dass beide inzidenten Knoten denselben Typ haben. Für zufällige geometrische Graphen beweisen wir die Existenz einer Konstante c > 0, so dass der erwartete Anteil einfarbiger Kanten nach dem Flip-Schelling-Prozess mindestens 1/2 + c beträgt. Für Erdős–Rényi-Graphen zeigen wir, dass der erwartete Anteil einfarbiger Kanten nach dem Flip-Schelling-Prozess höchstens 1/2 + o(1) ist. T2 - Strategische Wohnsegregation KW - Schelling Segregation KW - Algorithmic Game Theory KW - Schelling Process KW - Price of Anarchy KW - Game Dynamics KW - Algorithmische Spieltheorie KW - Spieldynamiken KW - Preis der Anarchie KW - Schelling Prozess KW - Schelling Segregation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601359 ER - TY - THES A1 - Hantschmann, Markus T1 - Stimulated resonant inelastic X-ray scattering in transition metal systems T1 - Resonante Inelastische Röntgenstreuung in Übergangsmetall-Komplexen N2 - With the implementation of intense, short pulsed light sources throughout the last years, the powerful technique of resonant inelastic X-ray scattering (RIXS) became feasible for a wide range of experiments within femtosecond dynamics in correlated materials and molecules. In this thesis I investigate the potential to bring RIXS into the fluence regime of nonlinear X-ray-matter interactions, especially focusing on the impact of stimulated scattering on RIXS in transition metal systems in a transmission spectroscopy geometry around transition metal L-edges. After presenting the RIXS toolbox and the capabilities of free electron laser light sources for ultrafast intense X-ray experiments, the thesis explores an experiment designed to understand the impact of stimulated scattering on diffraction and direct beam transmission spectroscopy on a CoPd multilayer system. The experiments require short X-ray pulses that can only be generated at free electron lasers (FEL). Here the pulses are not only short, but also very intense, which opens the door to nonlinear X-ray-matter interactions. In the second part of this thesis, we investigate observations in the nonlinear interaction regime, look at potential difficulties for classic spectroscopy and investigate possibilities to enhance the RIXS through stimulated scattering. Here, a study on stimulated RIXS is presented, where we investigate the light field intensity dependent CoPd demagnetization in transmission as well as scattering geometry. Thereby we show the first direct observation of stimulated RIXS as well as light field induced nonlinear effects, namely the breakdown of scattering intensity and the increase in sample transmittance. The topic is of ongoing interest and will just increase in relevance as more free electron lasers are planned and the number of experiments at such light sources will continue to increase in the near future. Finally we present a discussion on the accessibility of small DOS shifts in the absorption-band of transition metal complexes through stimulated resonant X-ray scattering. As these shifts occur for example in surface states this finding could expand the experimental selectivity of NEXAFS and RIXS to the detectability of surface states. We show how stimulation can indeed enhance the visibility of DOS shifts through the detection of stimulated spectral shifts and enhancements in this theoretical study. We also forecast the observation of stimulated enhancements in resonant excitation experiments at FEL sources in systems with a high density of states just below the Fermi edge and in systems with an occupied to unoccupied DOS ratio in the valence band above 1. N2 - In dieser Arbeit wird die Weiterentwicklung der Technik ’Resonante Inelastische Röntgenstreuung’ (RIXS) thematisiert. Vor allem wird das Thema der nichtlinearen Röntgen-Materie-Wechselwirkung an Freien Elektronenlasern wird ausführlich diskutiert. Mit der Etablierung von intensiven kurzpulsigen Röntgenquellen auf Basis von freien Elektronenlasern, ist die Möglichkeit entstanden, zeitaufgelöste Experimente im Femtosekundenbereich mit Röntgenstrahlung durchzuführen. Die dort erzeugten Pulse sind so intensiv und kurz, dass neue Effekte, die analogien in der nichtlinearen Optik haben, auftreten können. Diese neu auftretenden Effekte sind für die Röntgengemeinschaft vollkommen neu und müssen verstanden werden um freie Elektronenlaser sinnvoll auf größerer Skala, sinnvoll nutzen zu können. Außerdem könnten diese Effekte auch ganz neue experimentelle Möglichkeiten eröffnen. Deswegen beschäftigt sich diese Arbeit vor allem mit der potentiellen Möglichkeit, die RIXS Technik im nicht-linearen Licht-Materie Wechselwirkungsbereich zu bringen, die geänderten Interaktionen zu verstehen und vielleicht sogar nutzbar zu machen. Zu Beginn werden die Möglichkeiten der RIXS Technik vorgestellt. Im Anschluss wird ein von uns in Kollaboration mit dem SLAC entwickeltes und durchgeführtes Experiment vorgestellt, welches unter anderem die erste direkte Beobachtung von stimulierter resonanter inelastischer Röntgenbeugung an dünnen CoPd Multischichtsystemen ermöglicht hat. Außerdem sind intensitätsabhängige Veränderungen der Licht-Materie Wechselwirkung beobachtet worden. Speziell konnten wir einen klaren Zusammenhang zwischen dem Zusammenbruch von Streuintensität (entspricht etwa der Intensit¨ at, die nicht in direkter Strahlrichtung abgestrahlt wird) und der Vergrößerung der Transmittivität (Intensität, die in Strahlrichtung durch die Probe propagiert) feststellen. Dies konnte mit der Verschiebung von Auger und Streueffekten zu stimulierten Effekten verknüpft werden. Um das Experiment besser zu verstehen wurde ein Ratengleichungsmodell entwickelt, das intensitätsabhängige Wirkungsquerschnitte inkludiert und damit intensitätsabhängige Puls-induzierte Effekte abschätzen kann. Es konnte gezeigt werden wie die Intensitätsabhängikeit von Puls-Induzierter Transparenz, Puls-induziertem zusammenbruch der Röntgenstreuung, und die Verstärkung von Teilen des Pulses mit stimulierten Emissionen verknüpft sind. Außerdem konnten einige Aspekte identifiziert werden, die dabei helfen können um neue Experimente zu designen, die in der Lage wären durch das Ausnutzen von stimulierter Emission und damit verbundenen Spektralen verschiebungen zusätzliche Informationen aus den zu untersuchenden Systemen zu gewinnen, wie zum Beispiel über die elektronische Zustandsdichte in einer Oberflächen- oder Interface-Schicht. KW - RIXS KW - free electron laser KW - transition metal systems KW - rate equation KW - RIXS KW - resonante inelastische Röntgenstreuung KW - Freie Elektronen Laser KW - Übergangsmetall - Komplexe Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-584761 ER - TY - THES A1 - Ilić Petković, Nikoleta T1 - Stars under influence: evidence of tidal interactions between stars and substellar companions T1 - Sterne unter Einfluss: Beweise für Gezeitenwechselwirkungen zwischen Sternen und substellaren Begleitern N2 - Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit? Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age. In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star. N2 - Gezeitenwechselwirkungen treten zwischen gravitativ gebundenen astrophysikalischen Körpern auf. Wenn ihr räumlicher Abstand hinreichend gering ist, können die Körper gegenseitig Gezeiten hervorrufen, die eine Drehimpulsübertragung bewirken und den Entwicklungsweg der Körper verändern, den sie als Einzelobjekte einschlagen würden. Die Gezeitenprozesse sind in den Planet-Mond-Systemen des Sonnensystems und in engen Doppelsternsystemen gut bekannt. Wie verhalten sich jedoch Sterne, die von einem substellaren Begleiter (z. B. einem Planeten oder einem Braunen Zwerg) auf einer engen Bahn umkreist werden? In der Regel wandert ein substellarer Begleiter innerhalb des Korotationsradius eines Sterns in Richtung des Sterns, da er an Bahndrehimpuls verliert. Auf der anderen Seite gewinnt der Stern an Drehimpuls, was seine Rotationsrate erhöhen kann. Dieser Effekt dürfte umso ausgeprägter sein, je massereicher der substellare Begleiter ist. Da die Rotationsrate des Sterns und das Niveau der magnetischen Aktivität gekoppelt sind, sollte der Stern unter dem Gezeiteneinfluss des ihn umkreisenden substellaren Begleiters magnetisch aktiver erscheinen. Die Schwierigkeit beim Nachweis, dass ein Stern aufgrund von Gezeitenwechselwirkungen eine höhere magnetische Aktivität aufweist, liegt jedoch darin, dass (I) substellare Begleiter um aktive Sterne leichter aufzuspüren sind, wenn sie massereicher sind, wodurch eine Tendenz zu massereichen Begleitern um aktive Sterne entsteht und der Effekt der Gezeitenwechselwirkung nachgeahmt wird, und dass (II) das Alter eines Hauptreihensterns nicht leicht bestimmt werden kann, so dass die Möglichkeit besteht, dass ein Stern aufgrund seines jungen Alters aktiver ist. In unserer Arbeit überwinden wir diese Hindernisse, indem wir weiträumige Doppelsternsysteme verwenden, in denen ein Stern einen substellaren Begleiter beherbergt und in denen der andere Stern den Referenzwert für die magnetische Aktivität des Wirtssterns liefert im Fall das Gezeitenwechselwirkungen keinen Einfluss auf ihn haben, wobei wir davon ausgehen, dass die Sterne sich gemeinsam entwickelt haben. Erstens stellen wir fest, dass extrasolare Planeten die Röntgenleuchtkraft des Wirtssterns merklich erhöhen können und dass der Effekt ausgeprägter ist, wenn der Exoplanet mindestens eine jupiterähnliche Masse hat und sich nahe am Stern befindet. Darüber hinaus stellen wir fest, dass ein Brauner Zwerg erwartungsgemäß einen noch stärkeren Einfluss hat und dass der Unterschied im Röntgenflächenfluss zwischen dem Wirtsstern und dem weiträumigen stellaren Begleiter ein signifikanter Ausreißer im Vergleich zu einer großen Stichprobe ähnlicher weiträumiger Doppelsternsysteme ohne bekannte substellare Begleiter ist. Dieses Ergebnis beweist, dass weiträumige Doppelsternsysteme mit substellaren Begleitern ein gutes Werkzeug sein können, um den Gezeiteneffekt auf Wirtssterne aufzudecken, und zeigt auch, dass die typischen stellaren Altersindikatoren wie Aktivität oder Rotation für diese Sterne nicht verwendet werden können. Mit dem Wissen, dass der Aktivitätsunterschied ein guter Indikator für den Gezeiteneinfluss des substellaren Begleiters ist, entwickeln wir schließlich eine analytische Methode zur Berechnung des modifizierten Gezeitenqualitätsfaktors Q' für einzelne Wirtssterne, der die Effizienz der Gezeitendissipation in der konvektiven Hülle eines gegebenen Hauptreihensterns definiert. KW - stellar evolution KW - tidal interactions KW - star-planet systems KW - star-brown dwarf systems KW - Stern-Brauner Zwerg Systeme KW - Stern-Planet Systeme KW - Sternentwicklung KW - Gezeitenwechselwirkungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615972 ER - TY - THES A1 - Libon, Lélia T1 - Stability of magnesite in the Earth lower mantle: insight from high-pressure and high-temperature experiments N2 - Carbonates carried in subducting slabs may play a major role in sourcing and storing carbon in the deep Earth’s interior. Current estimates indicate that between 40 to 66 million tons of carbon per year enter subduction zones, but it is uncertain how much of it reaches the lower mantle. It appears that most of this carbon might be extracted from subducting slabs at the mantle wedge and only a limited amount continues deeper and eventually reaches the deep mantle. However, estimations on deeply subducted carbon broadly range from 0.0001 to 52 million tons of carbon per year. This disparity is primarily due to the limited understanding of the survival of carbonate minerals during their transport to deep mantle conditions. Indeed, carbon has very low solubility in mantle silicates, therefore it is expected to be stored primarily in accessory phases such as carbonates. Among those carbonates, magnesite (MgCO3), as a single phase, is the most stable under all mantle conditions. However, experimental investigation on the stability of magnesite in contact with SiO2 at lower mantle conditions suggests that magnesite is stable only along a cold subducted slab geotherm. Furthermore, our understanding of magnesite’s stability when interacting with more complex mantle silicate phases remains incomplete. In the first part of this dissertation, laser-heated diamond anvil cells and multi-anvil apparatus experiments were performed to investigate the stability of magnesite in contact with iron-bearing mantle silicates. Sub-solidus reactions, melting, decarbonation and diamond formation were examined from shallow to mid-lower mantle conditions (25 to 68 GPa; 1300 to 2000 K). Multi-anvil experiments at 25 GPa show the formation of carbonate-rich melt, bridgmanite, and stishovite with melting occurring at a temperature corresponding to all geotherms except the coldest one. In situ X-ray diffraction, in laser-heating diamond anvil cells experiments, shows crystallization of bridgmanite and stishovite but no melt phase was detected in situ at high temperatures. To detect decarbonation phases such as diamond, Raman spectroscopy was used. Crystallization of diamonds is observed as a sub-solidus process even at temperatures relevant and lower than the coldest slab geotherm (1350 K at 33 GPa). Data obtained from this work suggest that magnesite is unstable in contact with the surrounding peridotite mantle in the upper-most lower mantle. The presence of magnesite instead induces melting under oxidized conditions and/or foster diamond formation under more reduced conditions, at depths ∼700 km. Consequently, carbonates will be removed from the carbonate-rich slabs at shallow lower mantle conditions, where subducted slabs can stagnate. Therefore, the transport of carbonate to deeper depths will be restricted, supporting the presence of a barrier for carbon subduction at the top of the lower mantle. Moreover, the reduction of magnesite, forming diamonds provides additional evidence that super-deep diamond crystallization is related to the reduction of carbonates or carbonated-rich melt. The second part of this dissertation presents the development of a portable laser-heating system optimized for X-ray emission spectroscopy (XES) or nuclear inelastic scattering (NIS) spectroscopy with signal collection at near 90◦. The laser-heated diamond anvil cell is the only static pressure device that can replicate the pressure and temperatures of the Earth’s lower mantle and core. The high temperatures are reached by using high-powered lasers focused on the sample contained between the diamond anvils. Moreover, diamonds’ transparency to X-rays enables in situ X-ray spectroscopy measurements that can probe the sample under high-temperature and high-pressure conditions. Therefore, the development of portable laser-heating systems has linked high-pressure and temperature research with high-resolution X-ray spectroscopy techniques to synchrotron beamlines that do not have a dedicated, permanent, laser-heating system. A general description of the system is provided, as well as details on the use of a parabolic mirror as a reflective imaging objective for on-axis laser heating and radiospectrometric temperature measurements with zero attenuation of incoming X-rays. The parabolic mirror improves the accuracy of temperature measurements free from chromatic aberrations in a wide spectral range and its perforation permits in situ X-rays measurement at synchrotron facilities. The parabolic mirror is a well-suited alternative to refractive objectives in laser heating systems, which will facilitate future applications in the use of CO2 lasers. N2 - Karbonate, die von subduzierenden Platten mitgeführt werden, könnten eine wichtige Rolle bei der Transport und Speicherung von Kohlenstoff im tiefen Erdinneren spielen. Aktuellen Schätzungen zufolge gelangen pro Jahr zwischen 40 und 66 Millionen Tonnen Kohlenstoff über Subduktionszonen ins Erdinnere, aber es ist unbekannt, wie viel davon den unteren Erdmantel erreicht. Es gibt Hinweise darauf, dass der größte Teil dieses Kohlenstoffs aus den subduzierenden Platten am Mantelkeil extrahiert wird und nur eine begrenzte Menge den tiefen Erdmantel erreicht. Die Schätzungen über tief subduzierten Kohlenstoff reichen von 0,0001 bis 52 Millionen Tonnen Kohlenstoff pro Jahr. Diese Diskrepanz ist in erster Linie auf das begrenzte Wissen über die Stabilität von Karbonatmineralen während ihres Transports in den tiefen Erdmantel zurückzuführen. In der Tat hat Kohlenstoff eine sehr geringe Löslichkeit in Mantelsilikaten, daher wird erwartet, dass er hauptsächlich in akzessorischen Phasen wie Karbonaten gespeichert wird. Unter diesen Karbonaten nur Magnesit (MgCO3) ist unter allen Mantelbedingungen stabil. Experimentelle Untersuchungen über die Stabilität von Magnesit im Kontakt mit SiO2 bei niedrigeren Mantelbedingungen legen jedoch nahe, dass Magnesit nur entlang einer kalten subduzierten Plattengeotherme stabil ist. Im ersten Teil dieser Dissertation wurden Hochdruck- und Hochtemperaturexperimente unter Verwendung der laserbeheizten Diamantstempelzellen und Vielstempel-Pressen durchgeführt, um die Stabilität von Magnesit im Kontakt mit eisenhaltigen Mantelsilikaten bei Bedingungen im unteren Mantel zu untersuchen. Die aus dieser Arbeit gewonnenen Daten legen nahe, dass Magnesit im Kontakt mit dem umgebenden Peridotitmantel im oberen Teil des unteren Mantel instabil ist. Das Vorhandensein von Magnesit induziert stattdessen das Schmelzen unter oxidierten Bedingungen und/oder fördert die Bildung von Diamanten unter reduzierten Bedingungen in einer Tiefe von ~700 km. Infolgedessen werden die Karbonate aus den Platten entfernt und nicht in größere Tiefen transportiert, was für das Vorhandensein einer Barriere für die Kohlenstoffsubduktion an der Spitze des unteren Mantels spricht. Darüber hinaus liefert die Reduktion von Magnesit, aus der Diamanten entstehen, einen zusätzlichen Beweis dafür, dass die Kristallisation von Diamanten in großer Tiefe mit der Reduktion von Karbonaten oder karbonatreicher Schmelze zusammenhängt. Im zweiten Teil dieser Dissertation wird die Entwicklung eines portabel Laserheizsystems vorgestellt, das für die Röntgenemissionsspektroskopie (XES) und die Spektroskopie mit nuklearer inelastischer Streuung (NIS) optimiert ist. Das Signal kann hierbei aus einer Diamantstempelzellein einem Winkel von nahezu 90◦ gesammelt werden. Die laserbeheizte Diamantstempelzelle ist das einzige statische Druckgerät, das den Druck und die Temperaturen des unteren Erdmantels und des Erdkerns erzeugenkann. Die hohen Temperaturen werden durch den Einsatz von Hochleistungslasern erreicht, die auf die Probe gerichtet sind, welche sich zwischen den Diamantstempeln befindet. Darüber hinaus ermöglicht die Transparenz von Diamanten im Wellenlängenbereich von Röntgenstrahlung in-situ röntgenspektroskopische Messungen, mit denen die Probe unter Hochtemperatur- und Hochdruckbedingungen untersucht werden kann. Um hierbei ausreichende Intensitäten im ausgehenden Signal zu erreichen, wurde das portabel Laserheizsystem für den Einsatz an Synchrotronanlagen konzipiert, die über keine eigenen Laserheizanlagen für Diamantstempelzellen verfügen. Beschrieben wird der allgemeine Aufbau des Systems. Außerdem werden Einzelheiten der Verwendung eines Parabolspiegels als reflektivem abbildenden Objektivs für die Laserheizung dargelegt. Der Parabolspiegel ist eine gut geeignete Alternative zu refraktiven Objektiven in Laserheizsystemen und wird künftige Anwendungen beim Einsatz von CO2-Lasern erleichtern. KW - deep carbon KW - magnesite KW - laser heating KW - diamond anvil cells KW - lower mantle KW - carbonate stability KW - Karbonat-Stabilität KW - tiefer Kohlenstoff KW - Diamantstempelzellen KW - Laserheizsystem KW - unterer Mantel KW - Magnesit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604616 ER - TY - THES A1 - Pan, Xuefeng T1 - Soft-template directed functional composite nanomaterials N2 - Soft-template strategy enables the fabrication of composite nanomaterials with desired functionalities and structures. In this thesis, soft templates, including poly(ionic liquid) nanovesicles (PIL NVs), self-assembled polystyrene-b-poly(2-vinylpyridine) (PS-b-P2VP) particles, and glycopeptide (GP) biomolecules have been applied for the synthesis of versatile composite particles of PILs/Cu, molybdenum disulfide/carbon (MoS2/C), and GP-carbon nanotubes-metal (GP-CNTs-metal) composites, respectively. Subsequently, their possible applications as efficient catalysts in two representative reactions, i.e. CO2 electroreduction (CO2ER) and reduction of 4-nitrophenol (4-NP), have been studied, respectively. In the first work, PIL NVs with a tunable particle size of 50 to 120 nm and a shell thickness of 15 to 60 nm have been prepared via one-step free radical polymerization. By increasing monomer concentration for polymerization, their nanoscopic morphology can evolve from hollow NVs to dense spheres, and finally to directional worms, in which a multi-lamellar packing of PIL chains occurred in all samples. The obtained PIL NVs with varied shell thickness have been in situ functionalized with ultra-small Cu nanoparticles (Cu NPs, 1-3 nm) and subsequently employed as the electrocatalysts for CO2ER. The hollow PILs/Cu composite catalysts exhibit a 2.5-fold enhancement in selectivity towards C1 products compared to the pristine Cu NPs. This enhancement is primarily attributed to the strong electronic interactions between the Cu NPs and the surface functionalities of PIL NVs. This study casts new aspects on using nanostructured PILs as novel electrocatalyst supports in efficient CO2 conversion. In the second work, a novel approach towards fast degradation of 4-NP has been developed using porous MoS2/C particles as catalysts, which integrate the intrinsically catalytic property of MoS2 with its photothermal conversion capability. Various MoS2/C composite particles have been prepared using assembled PS-b-P2VP block copolymer particles as sacrificed soft templates. Intriguingly, the MoS2/C particles exhibit tailored morphologies including pomegranate-like, hollow, and open porous structures. Subsequently, the photothermal conversion performance of these featured particles has been compared under near infrared (NIR) light irradiation. When employing the open porous MoS2/C particles as the catalyst for the reduction of 4-NP, the reaction rate constant has increased by 1.5-fold under light illumination. This catalytic enhancement mainly results from the open porous architecture and photothermal conversion performance of the MoS2 particles. This proposed strategy offers new opportunities for efficient photothermal-assisted catalysis. In the third work, a facile and green approach towards the fabrication of GP-CNTs-metal composites has been proposed, which utilizes a versatile GP biomolecule both as a stabilizer for CNTs in water and as a reducing agent for noble metal ions. The abundant hydrogen bonds in GP molecules bestow the formed GP-CNTs with excellent plasticity, enabling the availability of polymorphic CNTs species ranging from dispersion to viscous paste, gel, and even dough by increasing their concentration. The GP molecules can reduce metal precursors at room temperature without additional reducing agents, enabling the in situ immobilization of metal NPs (e.g. Au, Ag, and Pd) on the CNTs surface. The combination of excellent catalytic property of Pd NPs with photothermal conversion capability of CNTs makes the GP-CNTs-Pd composite a promising catalyst for the efficient degradation of 4-NP. The obtained composite displays a 1.6-fold increase in conversion under NIR light illumination in the reduction of 4-NP, mainly owing to the strong light-to-heat conversion effect of CNTs. Overall, the proposed method opens a new avenue for the synthesis of CNTs composite as a sustainable and versatile catalyst platform. The results presented in the current thesis demonstrate the significance of using soft templates for the synthesis of versatile composites with tailored nanostructure and functionalities. The investigation of these composite nanomaterials in the catalytic reactions reveals their potential in the development of desired catalysts for emerging catalytic processes, e.g. photothermal-assisted catalysis and electrocatalysis. N2 - Die Weiche-Vorlagen-Strategie ermöglicht die Herstellung von zusammengesetzten Nanomaterialien mit gewünschten Funktionalitäten und Strukturen. In dieser Arbeit wurden weiche Vorlagen, darunter Poly(ionische Flüssigkeit) -Nanovesikeln (PIL-NVs), selbstorganisierte Polystyrol-b-Poly(2-Vinylpyridin)-Partikeln (PS-b-P2VP) und Glykopeptid (GP)-Biomoleküle verwendet, um vielseitige Kompositen aus PILs/Cu, Molybdändisulfid/Kohlenstoff (MoS2/C) bzw. GP-Kohlenstoffnanoröhren -Metall (GP- CNTs- Metall) zu synthetisieren. Anschließend wurden ihre möglichen Anwendungen als effiziente Katalysatoren in zwei repräsentativen Reaktionen, d. h. CO2-Elektroreduktion (CO2ER) und Reduktion von 4-Nitrophenol (4-NP), untersucht. Im ersten Abschnitt wurden PIL-NVs mit einer einstellbaren Partikelgröße von 50 bis 120 nm und einer Schalendicke von 15 bis 60 nm durch einstufige radikalische Polymerisation hergestellt. Durch Erhöhung der Monomerkonzentration für die Polymerisation kann sich ihre nanoskopische Morphologie von hohlen NVs zu dichten Kugeln und schließlich zu gerichteten Schnecken entwickeln, wobei in allen Proben eine multilamellare Packung von PIL-Ketten auftritt. Die erhaltenen PIL-NVs mit unterschiedlicher Schalendicke wurden durch ultrakleinen Cu-Nanopartikeln (Cu-NPs, 1-3 nm) funktionalisiert und anschließend als Elektrokatalysatoren für CO 2ER eingesetzt. Die PILs/Cu-Komposit-Elektrokatalysatoren zeigen eine 2,5-fache Steigerung der Selektivität gegenüber C 1-Produkten im Vergleich zu den unbehandelten Cu-NPs. Diese Verbesserung wird in erster Linie auf die starken elektronischen Wechselwirkungen zwischen den Cu-NPs und den Oberflächenfunktionalitäten der PIL -NVs zurückgeführt. Diese Studie wirft neue Aspekte auf die Verwendung nanostrukturierter PILs als neuartige Elektrokatalysatorträger für eine effiziente CO2-Umwandlung. Im zweiten Abschnitt wurde ein neuartiger Ansatz für den schnellen Abbau von 4 -NP entwickelt, bei dem poröse MoS 2/C-Partikeln als Katalysatoren verwendet werden, die die intrinsische katalytische Eigenschaft von MoS2 mit seiner photothermischen Umwandlungsfähigkeit verbinden. Verschiedene MoS2/C-Verbundpartikeln wurden unter Verwendung von zusammengesetzten PS-b-P2VP Blockcopolymerpartikeln als geopferte weiche Vorlagen hergestellt. Erstaunlicherweise weisen die MoS2/C-Partikeln maßgeschneiderte Morphologien auf, darunter eine granatapfe lartige, hohle und offenporige Struktur. Anschließend wurde die photothermische Umwandlungsleistung dieser Partikeln unter Bestrahlung von Nahinfrarotlicht (NIR) verglichen. Bei der Verwendung der offenporigen MoS2-Teilchen als Katalysator für die Reduktion von 4 -NP hat sich die Reaktionsgeschwindigkeitskonstante unter Lichtbeleuchtung um das 1,5-fache erhöht. Diese katalytische Verbesserung ist hauptsächlich auf die offenporige Architektur und die photothermische Umwandlungsleistung der MoS2-Partikeln zurückzuführen. Diese vorgeschlagene Strategie bietet neue Möglichkeiten für eine effiziente photothermisch unterstützte Katalyse. Im dritten Abschnitt wird ein einfacher und umweltfreundlicher Ansatz für die Herstellung von GP-CNTs-Metall-Verbundwerkstoffen vorgeschlagen, bei dem ein vielseitiges GP- Biomolekül sowohl als Stabilisator für CNTs in Wasser auch als Reduktionsmittel für Edelmetallionen eingesetzt wird. Die zahlreichen Wasserstoffbrüc kenbindungen in den GP- Moleküle verleihen den gebildeten GP-CNTs eine ausgezeichnete Plastizität, die es ermöglicht, polymorphe CNT - Spezies zu erhalten, die von einer Dispersion über eine visko se Paste und ein Gel bis hin zu einem Teig reichen, wenn man ihre Konzentration erhöht. Die GP -Moleküle können Metallvorläufer bei Raumtemperatur ohne zusätzliche Reduktionsmittel reduzieren und ermöglichen so die In -situ- Immobilisierung von Metall-NPs (z. B. Au, Ag und Pd) auf der Oberfläche der CNTs. Die Kombination der hervorragenden katalytischen Eigenschaften von Pd-NPs mit der photothermischen Umwandlungsfähigkeit von CNTs macht den GP -CNTs-Pd- Verbundstoff zu einem vielversprechenden Katalysator für d en effizienten Abbau von 4- NP. Das erhaltene Komposit zeigt eine 1,6-fache Steigerung der Umwandlung unter NIR- Licht- Beleuchtung, wenn es als Katalysator bei der Reduktion von 4-NP verwendet wird, was hauptsächlich auf den starken Licht -Wärme -Umwandlungseffekt der CNTs zurückzuführen ist. Insgesamt eröffnet die vorgeschlagene Methode einen neuen Weg für die Synthese von CNT-Verbundwerkstoffen als nachhaltige und vielseitige Katalysatorplattform. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, wie wichtig die Verwendung weicher Templates für die Synthese vielseitiger Verbundwerkstoffe mit maßgeschneiderter Nanostruktur und Funktionalitäten ist. Die Untersuchung dieser Komposit -Nanomaterialien in katalytischen Reaktionen zeigt ihr Potenzial für die Entwicklung gewünschter Katalysatoren für neue katalytische Prozesse, z. B. für die Elektrokatalyse und die photothermisch unterstützte Katalyse. KW - nanocomposite KW - soft template KW - block copolymer KW - poly(ionic liquid) KW - glycopeptide KW - catalyst KW - Nanokomposit KW - weiche Vorlage KW - Blockcopolymer KW - Poly(ionische Flüssigkeit) KW - Glykopeptid KW - Katalysator Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-612709 ER - TY - THES A1 - Ehlert, Kristian T1 - Simulations of active galactic nuclei feedback with cosmic rays and magnetic fields N2 - The central gas in half of all galaxy clusters shows short cooling times. Assuming unimpeded cooling, this should lead to high star formation and mass cooling rates, which are not observed. Instead, it is believed that condensing gas is accreted by the central black hole that powers an active galactic nuclei jet, which heats the cluster. The detailed heating mechanism remains uncertain. A promising mechanism invokes cosmic ray protons that scatter on self-generated magnetic fluctuations, i.e. Alfvén waves. Continuous damping of Alfvén waves provides heat to the intracluster medium. Previous work has found steady state solutions for a large sample of clusters where cooling is balanced by Alfvénic wave heating. To verify modeling assumptions, we set out to study cosmic ray injection in three-dimensional magnetohydrodynamical simulations of jet feedback in an idealized cluster with the moving-mesh code arepo. We analyze the interaction of jet-inflated bubbles with the turbulent magnetized intracluster medium. Furthermore, jet dynamics and heating are closely linked to the largely unconstrained jet composition. Interactions of electrons with photons of the cosmic microwave background result in observational signatures that depend on the bubble content. Those recent observations provided evidence for underdense bubbles with a relativistic filling while adopting simplifying modeling assumptions for the bubbles. By reproducing the observations with our simulations, we confirm the validity of their modeling assumptions and as such, confirm the important finding of low-(momentum) density jets. In addition, the velocity and magnetic field structure of the intracluster medium have profound consequences for bubble evolution and heating processes. As velocity and magnetic fields are physically coupled, we demonstrate that numerical simulations can help link and thereby constrain their respective observables. Finally, we implement the currently preferred accretion model, cold accretion, into the moving-mesh code arepo and study feedback by light jets in a radiatively cooling magnetized cluster. While self-regulation is attained independently of accretion model, jet density and feedback efficiencies, we find that in order to reproduce observed cold gas morphology light jets are preferred. N2 - Das zentrale Gas in der Hälfte aller Galaxienhaufen weist kurze Kühlzeiten auf. Dies sollte zu hohen Sternentstehungs- und Massenkühlungsraten führen. Bei ungehinderter Kühlung würden jedoch viel mehr Sterne entstehen als beobachtet. Stattdessen wird vermutet, dass das kondensierende Gas durch das zentrale Schwarze Loch akkretiert wird, das einen aktiven Galaxienkerne antreibt, der den Haufen heizt. Der genaue Heizmechanismus ist noch unklar. Ein vielversprechender Mechanismus geht von Protonen der kosmischen Strahlung aus, die an selbst erzeugten magnetischen Fluktuationen, d.h. Alfvénwellen, streuen. Die kontinuierliche Dämpfung der Alfvénwellen heizt das Gas. Für eine große Anzahl von Galaxienhaufen wurden stationäre Lösungen gefunden, bei denen Kühlen durch Alfvénwellenheizen ausgeglichen wird. Um die Modellierungsannahmen zu überprüfen, untersuchen wir die CR-Injektion in magnetohydrodynamischen 3D-Simulationen von Jets in einem idealisierten Cluster mit dem Code arepo. Wir simulieren die Entstehung und Entwicklung von Gasblasen durch energetische Ausflüsse in einer turbulenten, magnetische Atmosphäre. Darüberhinaus ist die Dynamik des Jets und das Heizen eng verknüpft mit der soweit unklaren Zusammensetzung des Jets. DieWechselwirkung von Elektronen mit dem kosmischen Mikrowellenhintergrund führt zu beobachtbaren Signaturen, die vom Inhalt der Blasen abhängen. Diese jüngsten Beobachtungen lieferten Beweise für unterdichte Blasen mit einer relativistischen Füllung, wobei vereinfachende Modellannahmen für die Blasen angenommen wurden. Indem wir die Beobachtungen mit unseren Simulationen reproduzieren, bestätigen wir die Gültigkeit ihrer Modellannahmen und damit die wichtige Erkenntnis, dass Jets eine niedrige (Impuls-)Dichte haben. Außerdem haben die Geschwindigkeits- und Magnetfeldstruktur der Haufenatmosphäre tiefgreifende Auswirkungen auf die Blasenentwicklung und Heizprozesse. Da Geschwindigkeits- und Magnetfelder physikalisch gekoppelt sind, zeigen wir, dass numerische Simulationen dazu beitragen können, die jeweiligen Beobachtungsdaten in direkte Verbindung zu setzen, um sie dadurch besser abschätzen zu können. Schließlich implementieren wir das derzeit bevorzugte Akkretionsmodell, cold accretion, in arepo und untersuchen die Rückkopplung durch leichte Jets in einem explizit kühlenden magnetisierten Haufen. Während die Selbstregulierung unabhängig vom Akkretionsmodell, der Jetdichte und der Jeteffizienz erreicht wird, ist die Morphologie des kalten Gases bei Simulationen mit leichten Jets Beobachtungen am ähnlichsten. T2 - Simulationen vom Heizen von Galaxienhaufen durch aktive Galaxienkerne mit kosmischer Strahlung und Magnetfeldern KW - galaxy clusters KW - intracluster medium KW - active galactic nuclei KW - magnetohydrodynamics KW - cosmic rays KW - Galaxienhaufen KW - aktive Galaxienkerne KW - Magnetohydrodynamik KW - kosmische Strahlung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-578168 ER - TY - THES A1 - Werhahn, Maria T1 - Simulating galaxy evolution with cosmic rays: the multi-frequency view T1 - Galaxienentwicklung in Simulationen mit komischer Strahlung und deren Strahlungsprozessen N2 - Cosmic rays (CRs) constitute an important component of the interstellar medium (ISM) of galaxies and are thought to play an essential role in governing their evolution. In particular, they are able to impact the dynamics of a galaxy by driving galactic outflows or heating the ISM and thereby affecting the efficiency of star-formation. Hence, in order to understand galaxy formation and evolution, we need to accurately model this non-thermal constituent of the ISM. But except in our local environment within the Milky Way, we do not have the ability to measure CRs directly in other galaxies. However, there are many ways to indirectly observe CRs via the radiation they emit due to their interaction with magnetic and interstellar radiation fields as well as with the ISM. In this work, I develop a numerical framework to calculate the spectral distribution of CRs in simulations of isolated galaxies where a steady-state between injection and cooling is assumed. Furthermore, I calculate the non-thermal emission processes arising from the modelled CR proton and electron spectra ranging from radio wavelengths up to the very high-energy gamma-ray regime. I apply this code to a number of high-resolution magneto-hydrodynamical (MHD) simulations of isolated galaxies, where CRs are included. This allows me to study their CR spectra and compare them to observations of the CR proton and electron spectra by the Voyager-1 satellite and the AMS-02 instrument in order to reveal the origin of the measured spectral features. Furthermore, I provide detailed emission maps, luminosities and spectra of the non-thermal emission from our simulated galaxies that range from dwarfs to Milk-Way analogues to starburst galaxies at different evolutionary stages. I successfully reproduce the observed relations between the radio and gamma-ray luminosities with the far-infrared (FIR) emission of star-forming (SF) galaxies, respectively, where the latter is a good tracer of the star-formation rate. I find that highly SF galaxies are close to the limit where their CR population would lose all of their energy due to the emission of radiation, whereas CRs tend to escape low SF galaxies more quickly. On top of that, I investigate the properties of CR transport that are needed in order to match the observed gamma-ray spectra. Furthermore, I uncover the underlying processes that enable the FIR-radio correlation (FRC) to be maintained even in starburst galaxies and find that thermal free-free-emission naturally explains the observed radio spectra in SF galaxies like M82 and NGC 253 thus solving the riddle of flat radio spectra that have been proposed to contradict the observed tight FRC. Lastly, I scrutinise the steady-state modelling of the CR proton component by investigating for the first time the influence of spectrally resolved CR transport in MHD simulations on the hadronic gamma-ray emission of SF galaxies revealing new insights into the observational signatures of CR transport both spectrally and spatially. N2 - Kosmische Strahlung (CR) ist ein essentieller Bestandteil des interstellaren Mediums (ISM) von Galaxien und spielt eine wichtige Rolle in deren Entwicklung. Insbesondere ist sie in der Lage, die Dynamik einer Galaxie zu beeinflussen, indem sie galaktische Ausflüsse treibt oder das ISM aufheizt und sich dadurch auf die Effizienz der Sternentstehung auswirkt. Um Galaxienentstehung zu verstehen ist es daher notwendig, diesen nicht-thermischen Bestandteil des ISM genau zu modellieren. Aber außerhalb unserer lokalen Umgebung innerhalb der Milchstraße haben wir keine Möglichkeit, um CRs in anderen Galaxien direkt zu messen. Allerdings gibt es viele Möglichkeiten, CRs indirekt über die Strahlung zu beobachten, die sie auf Grund ihrer Interaktion mit Magnetfeldern und interstellarer Strahlung sowie mit dem ISM emittieren. In dieser Arbeit habe ich einen numerischen Code entwickelt, der die spektrale Verteilung der CRs in Simulationen von isolierten Galaxien berechnet, wobei ein stationäres Verhältnis zwischen Injektion und Kühlen angenommen wird. Des Weiteren berechnet er die nicht-thermischen Strahlungsprozesse, die aus den modellierten CR Protonen- und Elektronenspektren hervorgehen. Diese reichen von Radiowellenlängen bis hin zu hochenergetischer Gammastrahlung. Ich wende diesen Code auf eine Vielzahl von hoch aufgelösten, magneto-hydrodynamischen Simulationen von isolierten Galaxien an, die CRs beinhalten. Das ermöglicht es mir, ihre CR Spektren zu untersuchen und mit Beobachtungen des Voyager-1 Satelliten sowie des AMS-02 Instruments von CR Protonen- und Elektronenspektren zu vergleichen, um dem Ursprung von den gemessenen spektralen Besonderheiten nachzugehen. Außerdem lege ich detaillierte Emissionskarten, Leuchtkräfte und Spektren der nicht-thermischen Strahlung unserer simulierten Galaxien vor, die von Zwerggalaxien über Milchstraßen-ähnliche Galaxien bis hin zu Starburst-Galaxien bei verschiedensten Entwicklungsstadien reichen. Damit kann ich erfolgreich die beobachteten Zusammenhänge zwischen jeweils der Radio- und Gammastrahlungsleuchtkraft mit der Ferninfrarot (FIR) Strahlung der sternbildenden Galaxien reproduzieren, wobei die FIR Strahlung ein guter Indikator für die Rate der Sternentstehung ist. Dabei finde ich heraus, dass Galaxien mit einer hohen Rate an Sternentstehung sehr nah an dem Limit sind, in dem ihre CR Population all ihre Energie an die Produktion von Strahlung verlieren würde, während CRs dazu tendieren, Galaxien mit einer niedrigen Sternentstehungsrate schneller zu verlassen. Zusätzlich untersuche ich die Eigenschaften des Transports von CRs, die benötigt werden, um die beobachteten Spektren der Gammastrahlung zu reproduzieren. Außerdem decke ich die zugrundeliegenden physikalischen Prozesse auf, durch die die Korrelation zwischen der FIR- und Radioleuchtkraft auch in Starburst-Galaxien aufrecht erhalten werden kann und finde heraus, dass die thermische Emission natürlicherweise die beobachteten Radiospektren in Galaxien wie M82 und NGC 253 erklärt, wodurch sich das Rätsel der flachen Radiospektren löst, die scheinbar im Widerspruch zum beobachteten engen Zusammenhang zwischen der FIR- und Radioleuchtkraft standen. Zuletzt hinterfrage ich die Annahme eines stationären Zustandes bei der Modellierung der CR Protonenspektren, indem ich zum ersten Mal den Einfluss von spektral aufgelöstem Transport von CR Protonen in magneto-hydrodynamischen Simulationen auf die hadronische Gammastrahlung von sternbildenden Galaxien untersuche, was neue Einblicke in beobachtbare Signaturen, sowohl spektral als auch räumlich, von CR-Transport ermöglicht. KW - galaxies KW - cosmic rays KW - numerical astrophysics KW - kosmische Strahlung KW - Galaxien KW - numerische Astrophysik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572851 ER - TY - THES A1 - Fühner, Thea Heidi T1 - Secular trends, age, sex, and timing of school enrollment effects on physical fitness in children and adolescents T1 - Effekte von säkularen Trends, Alter, Geschlecht und Zeitpunkt der Einschulung auf die körperliche Fitness von Kindern und Jugendlichen N2 - The relevance of physical fitness for children’s and adolescents’ health is indisputable and it is crucial to regularly assess and evaluate children’s and adolescents’ individual physical fitness development to detect potential negative health consequences in time. Physical fitness tests are easy-to-administer, reliable, and valid which is why they should be widely used to provide information on performance development and health status of children and adolescents. When talking about development of physical fitness, two perspectives can be distinguished. One perspective is how the physical fitness status of children and adolescents changed / developed over the past decades (i.e., secular trends). The other perspective covers the analyses how physical fitness develops with increasing age due to growth and maturation processes. Although, the development of children’s and adolescents’ physical fitness has been extensively described and analyzed in the literature, still some questions remain to be uncovered that will be addressed in the present doctoral thesis. Previous systematic reviews and meta-analyses have examined secular trends in children’s and adolescents’ physical fitness. However, considering that those analyses are by now 15 years old and that updates are available only to limited components of physical fitness, it is time to re-analyze the literature and examine secular trends for selected components of physical fitness (i.e., cardiorespiratory endurance, muscle strength, proxies of muscle power, and speed). Fur-thermore, the available studies on children’s development of physical fitness as well as the ef-fects of moderating variables such as age and sex have been investigated within a long-term ontogenetic perspective. However, the effects of age and sex in the transition from pre-puberty to puberty in the ninth year of life using a short-term ontogenetic perspective and the effect of timing of school enrollment on children’s development of physical fitness have not been clearly identified. Therefore, the present doctoral thesis seeks to complement the knowledge of children’s and adolescents’ physical fitness development by updating secular trend analysis in selected components of physical fitness, by examining short-term ontogenetic cross-sectional developmental differences in children`s physical fitness, and by comparing physical fitness of older- and younger-than-keyage children versus keyage-children. These findings provide valuable information about children’s and adolescents’ physical fitness development to help prevent potential deficits in physical fitness as early as possible and consequently ensure a holistic development and a lifelong healthy life. Initially, a systematic review to provide an ‘update’ on secular trends in selected components of physical fitness (i.e., cardiorespiratory endurance, relative muscle strength, proxies of muscle power, speed) in children and adolescents aged 6 to 18 years was conducted using the Preferred Reporting Items for Systematic Reviews and Meta-Analysis statement guidelines. To examine short-term ontogenetic cross-sectional developmental differences and to compare physical fitness of older- and younger-than-keyage children versus keyage-children physical fitness data of 108,295 keyage-children (i.e., aged 8.00 to 8.99 years), 2,586 younger-than-keyage children (i.e., aged 7.00 to 7.99 years), and 26,540 older-than-keyage children (i.e., aged 9.00 to 9.99 years) from the third grade were analyzed. Physical fitness was assessed through the EMOTIKON test battery measuring cardiorespiratory endurance (i.e., 6-min-run test), coordina-tion (i.e., star-run test), speed (i.e., 20-m linear sprint test), and proxies of lower (i.e., standing long jump test) and upper limbs (i.e., ball-push test) muscle power. Statistical inference was based on Linear Mixed Models. Findings from the systematic review revealed a large initial improvement and an equally large subsequent decline between 1986 and 2010 as well as a stabilization between 2010 and 2015 in cardiorespiratory endurance, a general trend towards a small improvement in relative muscle strength from 1972 to 2015, an overall small negative quadratic trend for proxies of muscle power from 1972 to 2015, and a small-to-medium improvement in speed from 2002 to 2015. Findings from the cross-sectional studies showed that even in a single prepubertal year of life (i.e., ninth year) physical fitness performance develops linearly with increasing chronological age, boys showed better performances than girls in all physical fitness components, and the components varied in the size of sex and age effects. Furthermore, findings revealed that older-than-keyage children showed poorer performance in physical fitness compared to keyage-children, older-than-keyage girls showed better performances than older-than-keyage boys, and younger-than-keyage children outperformed keyage-children. Due to the varying secular trends in physical fitness, it is recommended to promote initiatives for physical activity and physical fitness for children and adolescents to prevent adverse effects on health and well-being. More precisely, public health initiatives should specifically consider exercising cardiorespiratory endurance and muscle strength because both components showed strong positive associations with markers of health. Furthermore, the findings implied that physical education teachers, coaches, or researchers can utilize a proportional adjustment to individually interpret physical fitness of prepubertal school-aged children. Special attention should be given to the promotion of physical fitness of older-than-keyage children because they showed poorer performance in physical fitness than keyage-children. Therefore, it is necessary to specifically consider this group and provide additional health and fitness programs to reduce their deficits in physical fitness experienced during prior years to guarantee a holistic development. N2 - Die Relevanz der körperlichen Fitness für die Gesundheit von Kindern und Jugendlichen ist unbestritten und es ist von entscheidender Bedeutung, den individuellen körperlichen Fitnesszustand von Kindern und Jugendlichen regelmäßig zu untersuchen und zu bewerten, um mögliche negative gesundheitliche Folgen rechtzeitig zu erkennen. Tests zur Bewertung der körperlichen Fitness sind einfach durchzuführen, reliabel und valide, weshalb sie in großem Umfang eingesetzt werden sollten, um Informationen über die Entwicklung der körperlichen Fitness und den Gesundheitszustand von Kindern und Jugendlichen zu erhalten. Bei der Betrachtung der Entwicklung der körperlichen Fitness lassen sich zwei Perspektiven unterscheiden. Die eine Perspektive untersucht, wie sich die körperliche Fitness von Kindern und Jugendlichen in den letzten Jahrzehnten verändert bzw. entwickelt hat (sog. säkulare Trends). Die andere Perspektive analysiert, wie sich die körperliche Fitness mit zunehmendem Alter aufgrund von Wachstums- und Reifungsprozessen entwickelt. Obwohl die Entwicklung der körperlichen Fitness von Kindern und Jugendlichen in der Literatur ausführlich beschrieben und analysiert wurde, sind noch einige Fragen offen, welche in der vorliegenden Doktorarbeit adressiert werden. Frühere systematische Überblicksbeiträge und Meta-Analysen haben säkulare Trends in der körperlichen Fitness von Kindern und Jugendlichen untersucht. Da diese Analysen jedoch mittlerweile 15 Jahre alt sind und Aktualisierungen nur für ausgewählte Komponenten der körperlichen Fitness zur Verfügung stehen, ist es notwendig, die Literatur neu zu analysieren und säkulare Trends für ausgewählte Komponenten der körperlichen Fitness (d. h. aerobe Ausdauer, relative Muskelkraft, Schnellkraft und Schnelligkeit) zu untersuchen. Darüber hinaus wurden die verfügbaren Studien über die Entwicklung der körperlichen Fitness von Kindern sowie die Effekte moderierender Variablen wie Alter und Geschlecht in einer langfristigen ontogenetischen Perspektive untersucht. Die Effekte von Alter und Geschlecht beim Übergang von der Vorpubertät zur Pubertät im neunten Lebensjahr unter einer kurzfristigen ontogenetischen Perspektive und die Effekte des Zeitpunkts der Einschulung auf die Entwicklung der körperlichen Fitness von Kindern sind jedoch bislang nicht eindeutig identifiziert worden. Die vorliegende Doktorarbeit hat daher das Ziel, den Wissensstand über die Entwicklung der körperlichen Fitness von Kindern und Jugendlichen zu ergänzen, indem säkulare Trendanalysen ausgewählter Komponenten der körperlichen Fitness aktualisiert werden, kurzfristige ontogenetische Entwicklungsunterschiede in der körperlichen Fitness von Kindern im Querschnitt untersucht werden und die körperliche Fitness von älteren und jüngeren Kindern im Vergleich zu Stichtagskindern analysiert wird. Diese Erkenntnisse liefern wertvolle Informationen über die Entwicklung der körperlichen Fitness von Kindern und Jugendlichen, um möglichen Defiziten in der körperlichen Fitness so früh wie möglich vorzubeugen und damit eine ganzheitliche Entwicklung und ein lebenslanges gesundes Leben zu gewährleisten. Zunächst wurde ein systematischer Überblicksbeitrag verfasst, um den Wissenstand der säkularen Trends bei ausgewählten Komponenten der körperlichen Fitness (d. h. aerobe Ausdauer, relative Muskelkraft, Schnellkraft, Schnelligkeit) bei Kindern und Jugendlichen gemäß den PRISMA Richtlinien zu aktualisieren. Um kurzfristige ontogenetische Entwicklungsunterschiede im Querschnitt zu untersuchen und die körperliche Fitness von älteren und jüngeren Kindern im Vergleich zu Stichtagskindern zu analysieren, wurden die Daten zur körperlichen Fitness von 108.295 Stichtagskindern (d. h. im Alter von 8,00 bis 8,99 Jahren), 2.586 jüngeren Kindern (d. h. im Alter von 7,00 bis 7,99 Jahren) und 26.540 älteren Kindern (d. h. im Alter von 9,00 bis 9,99 Jahren) aus der dritten Klasse analysiert. Die körperliche Fitness wurde anhand der EMOTIKON-Testbatterie zur Messung der aeroben Ausdauer (d. h. 6-min-Lauf), der Koordi-nation (d. h. Sternlauf), der Schnelligkeit (d. h. 20-m-Sprint) sowie der Schnellkraft der unteren (d. h. Standweitsprung) und oberen Extremitäten (d. h. Medizinballstoßen) erhoben. Die statistische Inferenz basierte auf Linear Mixed Models. Die Ergebnisse des systematischen Überblickbeitrags zeigten eine starke anfängliche Verbesserung und einen ebenso starken Rückgang zwischen 1986 und 2010 sowie eine Stabilisierung zwischen 2010 und 2015 bei der aeroben Ausdauer. Zudem war ein allgemeiner Trend zu einer geringen Verbesserung der relativen Muskelkraft zwischen 1972 und 2015, ein insgesamt geringer negativer quadratischer Trend bei der Schnellkraft zwischen 1972 und 2015 sowie eine geringe bis mittlere Verbesserung der Schnelligkeit zwischen 2002 und 2015 zu verzeichnen. Die Ergebnisse der Querschnittsstudien legten dar, dass sich die körperliche Fitness selbst in einem einzigen präpubertären Lebensjahr (d. h. neuntes Lebensjahr) mit zunehmendem chronologischen Alter linear entwickelt, dass Jungen in allen untersuchten Komponenten der körperlichen Fitness bessere Leistungen zeigten als Mädchen und dass sich die Komponenten der körperlichen Fitness in der Stärke der Alters- und Geschlechtseffekte stark unterschieden. Darüber hinaus zeigten die Ergebnisse, dass Kinder, die älter als Stichtagskinder sind, im Vergleich zu Stichtagskindern schlechtere Leistungen zeigten; Mädchen, die älter als Stichtagskinder sind, bessere Leistungen zeigten als Jungen, die älter als Stichtagskinder sind; und Kinder, die jünger als Stichtagskinder sind, bessere Leistungen zeigten als Stichtagskinder. Aufgrund der unterschiedlichen säkularen Trends bei der körperlichen Fitness wird empfohlen, Initiativen für körperliche Aktivität und körperliche Fitness bei Kindern und Jugendlichen zu fördern, um negative Auswirkungen auf die Gesundheit und das Wohlbefinden zu verhindern. Insbesondere sollten Initiativen im Bereich der öffentlichen Gesundheit speziell das Training der aeroben Ausdauer und der Muskelkraft berücksichtigen, da beide Komponenten starke positive Assoziationen mit Gesundheitsmarkern aufweisen. Darüber hinaus legen die Ergebnisse nahe, dass Sportlehrkräfte, Trainer und Trainerinnen oder Wissenschaftler und Wissenschaftlerinnen eine proportionale Anpassung nutzen können, um die körperliche Fitness von Kindern im vorpubertären Schulalter individuell zu interpretieren. Ein besonderes Augenmerk sollte auf die Förderung der körperlichen Fitness von Kindern, die älter als Stichtagskinder sind, gelegt werden, da diese schlechtere Leistungen in der körperlichen Fitness zeigten als Stichtagskinder. Daher ist es notwendig, diese Gruppe besonders zu berücksichtigen und zusätzliche Gesundheits- und Fitnessprogramme anzubieten, um ihre Defizite in der körperlichen Fitness abzubauen und eine ganzheitliche Entwicklung zu gewährleisten. KW - physical fitness KW - children KW - adolescents KW - primary school KW - secular trends KW - age KW - sex KW - timing of school enrollment KW - körperliche Fitness KW - Kinder KW - Jugendliche KW - Grundschule KW - säkulare Trends KW - Alter KW - Geschlecht KW - Zeitpunkt der Einschulung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-588643 ER - TY - THES A1 - Pfrang, Konstantin Johannes T1 - Search for light primordial black holes with VERITAS using gamma γ-ray and optical observations T1 - Suche nach leichten primordialen Schwarzen Löchern mit VERITAS anhand von Gammastrahlen- und optischen Beobachtungen N2 - The Very Energetic Radiation Imaging Telescope Array System (VERITAS) is an array of four imaging atmospheric Cherenkov telescopes (IACTs). VERITAS is sensitive to very-high-energy gamma-rays in the range of 100 GeV to >30 TeV. Hypothesized primordial black holes (PBHs) are attractive targets for IACTs. If they exist, their potential cosmological impact reaches beyond the candidacy for constituents of dark matter. The sublunar mass window is the largest unconstrained range of PBH masses. This thesis aims to develop novel concepts searching for light PBHs with VERITAS. PBHs below the sublunar window lose mass due to Hawking radiation. They would evaporate at the end of their lifetime, leading to a short burst of gamma-rays. If PBHs formed at about 10^15 g, the evaporation would occur nowadays. Detecting these signals might not only confirm the existence of PBHs but also prove the theory of Hawking radiation. This thesis probes archival VERITAS data recorded between 2012 and 2021 for possible PBH signals. This work presents a new automatic approach to assess the quality of the VERITAS data. The array-trigger rate and far infrared temperature are well suited to identify periods with poor data quality. These are masked by time cuts to obtain a consistent and clean dataset which contains about 4222 hours. The PBH evaporations could occur at any location in the field of view or time within this data. Only a blind search can be performed to identify these short signals. This thesis implements a data-driven deep learning based method to search for short transient signals with VERITAS. It does not depend on the modelling of the effective area and radial acceptance. This work presents the first application of this method to actual observational IACT data. This thesis develops new concepts dealing with the specifics of the data and the transient detection method. These are reflected in the developed data preparation pipeline and search strategies. After correction for trial factors, no candidate PBH evaporation is found in the data. Thus, new constraints of the local rate of PBH evaporations are derived. At the 99% confidence limit it is below <1.07 * 10^5 pc^-3 yr^-1. This constraint with the new, independent analysis approach is in the range of existing limits for the evaporation rate. This thesis also investigates an alternative novel approach to searching for PBHs with IACTs. Above the sublunar window, the PBH abundance is constrained by optical microlensing studies. The sampling speed, which is of order of minutes to hours for traditional optical telescopes, is a limiting factor in expanding the limits to lower masses. IACTs are also powerful instruments for fast transient optical astronomy with up to O(ns) sampling. This thesis investigates whether IACTs might constrain the sublunar window with optical microlensing observations. This study confirms that, in principle, the fast sampling speed might allow extending microlensing searches into the sublunar mass window. However, the limiting factor for IACTs is the modest sensitivity to detect changes in optical fluxes. This thesis presents the expected rate of detectable events for VERITAS as well as prospects of possible future next-generation IACTs. For VERITAS, the rate of detectable microlensing events in the sublunar range is ~10^-6 per year of observation time. The future prospects for a 100 times more sensitive instrument are at ~0.05 events per year. N2 - Das Very Energetic Radiation Imaging Telescope Array System (VERITAS) ist ein Instrument mit vier atmosphärischen Cherenkov-Teleskopen (IACTs). VERITAS ist empfindlich für sehr hoch-energetische gamma-Strahlung im Bereich von 100 GeV bis >30 TeV. Hypothetische primordiale Schwarze Löcher (PBHs) sind interessante Ziele für IACTs. Falls sie existieren, könnte ihr potentieller kosmologischer Einfluss über die Möglichkeit, dass sie ein Bestandteil der dunklen Materie sind, hinausgehen. Der größte nicht eingeschränkte Bereich der PBH-Massen ist das sublunare Fenster. Das Ziel dieser Arbeit ist es, neue Konzepte für die Suche nach leichten PBHs mit VERITAS zu entwickeln. Durch die Hawking-Strahlung verlieren PBHs unterhalb des sublunaren Fensters an Masse. Am Ende ihrer Lebenszeit verdampfen diese, was einen kurzen Ausbruch an gamma-Strahlung verursacht. Falls PBHs mit ~10^15 g entstanden sind, würde sich dieser Ausbruch in der heutigen Zeit ereignen. Der Nachweis dieser Signale könnte nicht nur die Existenz von PBHs bestätigen, sondern auch die Theorie der Hawking-Strahlung beweisen. In dieser Arbeit werden VERITAS-Daten aus den Jahren 2012 bis 2021 auf mögliche PBH-Signale untersucht. Es wird ein neuer automatisierter Ansatz zur Beurteilung der Qualität der VERITAS-Daten vorgestellt. Die Array-Trigger-Rate und die ferne Infrarot-Temperatur sind gut geeignet, um Zeiträume mit schlechter Datenqualität zu identifizieren. Diese werden maskiert, um einen konsistenten Datensatz zu erhalten, der etwa 4222 Stunden umfasst. Die PBH-Verdampfungen könnten an jeder beliebigen Stelle im Sichtfeld oder zu jeder beliebigen Zeit innerhalb dieser Daten auftreten. Zur Identifizierung dieser kurzen Signale kann nur eine Blindsuche durchgeführt werden. In dieser Arbeit wird eine datengestützte, auf Deep Learning basierende Methode zur Suche nach kurzen vorübergehenden Signalen mit VERITAS implementiert. Die Methode ist nicht von der Modellierung der effektiven Fläche und der radialen Akzeptanz abhängig. Diese Arbeit präsentiert die erste Anwendung dieser Methode mit echten IACT-Beobachtungsdaten. In dieser Arbeit werden neue Konzepte entwickelt, die sich mit den Besonderheiten der Daten und der Methode befassen. Sie spiegeln sich in der entwickelten Datenvorbereitung und den Suchstrategien wider. Nach Korrektur der Versuchsfaktoren wird in den Daten kein Kandidat für PBH-Verdampfung gefunden. Daher wird die lokale Rate von PBH-Verdampfungen auf unter <1.07 * 10^5 pc^-3 yr^-1 an der 99%-Konfidenzgrenze beschränkt. Dieses Limit, welches mit dem neuen, unabhängigen Analyseansatz erreicht wurde, liegt im Bereich der bestehenden Grenzwerte für die Verdunstungsrate. In dieser Arbeit wird auch ein alternativer neuer Ansatz für die Suche nach PBHs mit IACTs untersucht. Oberhalb des sublunaren Fensters wird die Existenz von PBHs durch optische Mikrolensing-Studien eingeschränkt. Für niedrige Massen ist die Abtastgeschwindigkeit, die bei herkömmlichen optischen Teleskopen in der Größenordnung von Minuten bis Stunden liegt, ein limitierender Faktor. IACTs sind auch leistungsstarke Instrumente für die schnelle optische Astronomie mit Abtastraten von bis zu O(ns). In dieser Arbeit wird untersucht, ob IACTs das sublunare Fenster mit optischen Mikrolensing-Beobachtungen beschränken könnten. Diese Studie bestätigt, dass die schnelle Abtastgeschwindigkeit eine Ausweitung der Mikrolensing-Suche auf das sublunare Massenfenster ermöglichen könnte. Der begrenzende Faktor für IACTs ist jedoch die eingeschränkte Empfindlichkeit, um Änderungen im optischen Fluss zu detektieren. In dieser Arbeit werden die erwarteten Raten der nachweisbaren Ereignisse für VERITAS sowie für mögliche zukünftige IACTs der nächsten Generation vorgestellt. Für VERITAS beträgt die Rate der nachweisbaren Microlensing-Ereignisse im sublunaren Bereich ~10^-6 pro Jahr. Die Zukunftsaussichten für ein 100-mal empfindlicheres Instrument liegen bei ~0,05 Ereignissen pro Jahr. KW - PBH KW - dark matter KW - primordial black holes KW - microlensing KW - gamma-rays KW - deep learning KW - LSTM KW - LSTM KW - PBH KW - Dunkle Materie KW - Deep Learning KW - Gammastrahlung KW - Microlensing KW - Primordiale Schwarzen Löchern Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587266 ER - TY - THES A1 - Ogunkola, Moses T1 - Role of the tRNA thiouridine modification protein (TUM1) as a sulfurtransferase in humans T1 - Die Rolle des tRNA-Thiouridin-Modifikationsproteins (TUM1) als Sulfurtransferase beim Menschen N2 - Sulfur is essential for the functionality of some important biomolecules in humans. Biomolecules like the Iron-sulfur clusters, tRNAs, Molybdenum cofactor, and some vitamins. The trafficking of sulfur involves proteins collectively called sulfurtransferase. Among these are TUM1, MOCS3, and NFS1. This research investigated the role of TUM1 for molybdenum cofactor biosynthesis and cytosolic tRNA thiolation in humans. The rhodanese-like protein MOCS3 and the L-cysteine desulfurase (NFS1) have been previously demonstrated to interact with TUM1. These interactions suggested a dual function of TUM1 in sulfur transfer for Moco biosynthesis and cytosolic tRNA thiolation. TUM1 deficiency has been implicated to be responsible for a rare inheritable disorder known as mercaptolactate cysteine disulfiduria (MCDU), which is associated with a mental disorder. This mental disorder is similar to the symptoms of sulfite oxidase deficiency which is characterised by neurological disorders. Therefore, the role of TUM1 as a sulfurtransferase in humans was investigated, in CRISPR/Cas9 generated TUM1 knockout HEK 293T cell lines. For the first time, TUM1 was implicated in Moco biosynthesis in humans by quantifying the intermediate product cPMP and Moco using HPLC. Comparing the TUM1 knockout cell lines to the wild-type, accumulation and reduction of cPMP and Moco were observed respectively. The effect of TUM1 knockout on the activity of a Moco-dependent enzyme, Sulfite oxidase, was also investigated. Sulfite oxidase is essential for the detoxification of sulfite to sulfate. Sulfite oxidase activity and protein abundance were reduced due to less availability of Moco. This shows that TUM1 is essential for efficient sulfur transfer for Moco biosynthesis. Reduction in cystathionin -lyase in TUM1 knockout cells was quantified, a possible coping mechanism of the cell against sulfite production through cysteine catabolism. Secondly, the involvement of TUM1 in tRNA thio-modification at the wobble Uridine-34 was reported by quantifying the amount of mcm5s2U and mcm5U via HPLC. The reduction and accumulation of mcm5s2U and mcm5U in TUM1 knockout cells were observed in the nucleoside analysis. Herein, exogenous treatment with NaHS, a hydrogen sulfide donor, rescued the Moco biosynthesis, cytosolic tRNA thiolation, and cell proliferation deficits in TUM1 knockout cells. Further, TUM1 was shown to impact mitochondria bioenergetics through the measurement of the oxygen consumption rate and extracellular acidification rate (ECAR) via the seahorse cell Mito stress analyzer. Reduction in total ATP production was also measured. This reveals how important TUM1 is for H2S biosynthesis in the mitochondria of HEK 293T. Finally, the inhibition of NFS1 in HEK 293T and purified NFS1 protein by 2-methylene 3-quinuclidinone was demonstrated via spectrophotometric and radioactivity quantification. Inhibition of NFS1 by MQ further affected the iron-sulfur cluster-dependent enzyme aconitase activity. N2 - Schwefel ist für die Funktionalität einiger wichtiger Biomoleküle beim Menschen wie die Eisen-Schwefel-Cluster, tRNA, Molybdän-Cofaktoren und einige Vitamine unerlässlich. Am Schwefelverkehr ist eine weit verbreitete Gruppe von Proteinen beteiligt, die als Rhodanese (Sulfurtransferase) bezeichnet wird. Zu dieser Klasse von Enzymen gehören die humanen (Proteine) TUM1, MOCS3 und NFS1. Es hat sich gezeigt, dass TUM1 mit der L-Cystein-Desulfurase (NFS1) und dem rhodaneseähnlichen Protein MOCS3 interagiert. Diese Wechselwirkungen deuten auf eine Doppelfunktion von TUM1 beim Schwefeltransfer für die Moco-Biosynthese und die zytosolische tRNA-Thiolierung hin. Ein TUM1-Mangel wird für eine seltene vererbbare Störung verantwortlich gemacht, die als Mercaptolactat-Cystein-Disulfidurie (MCDU) bekannt ist und mit geistigen Störungen einhergeht. Diese psychische Störung könnte auf die Symptome des Sulfit-Oxidase-Mangels zurückzuführen sein, der auch durch neurologische Störungen gekennzeichnet ist. In dieser Studie wurde zum ersten Mal die Rolle von TUM1 bei der Biosynthese von Molybdän-Cofaktoren und der zytosolischen tRNA-Thiolierung beim Menschen untersucht. Dies wurde durch die Verwendung von einer zuvor generierten TUM1-Deletion in HEK 293T-Zelllinien unter Verwendung von CRISPR/Cas9 erreicht. Hier wurde zum ersten Mal die Funktion von TUM1 in der Moco-Biosynthese im Menschen untersucht, wobei das Zwischenprodukt cPMP und Moco mittels HPLC quantifiziert wurde. Beim Vergleich der TUM1-deletierten-Zelllinien mit dem Wildtyp wurde eine Akkumulation bzw. Reduktion von cPMP und Moco beobachtet. Die Auswirkungen der TUM1-Deletion auf die Aktivität eines Moco-abhängigen Enzyms, der Sulfit-Oxidase, wurden ebenfalls untersucht. Sulfit ist wichtig für die Entgiftung von Sulfit zu Sulfat. Die Aktivität der Sulfit-Oxidase und die Proteinquantität waren aufgrund der geringeren Verfügbarkeit von Moco reduziert. Dies zeigt, dass TUM1 für einen effizienten Schwefeltransfer für die Moco-Biosynthese wichtig ist. Wir berichteten auch über die Verringerung der Cystathionin -Lyase in TUM1-deletierten-Zellen, ein möglicher Bewältigungsmechanismus der Zelle gegen die Sulfitproduktion. Zweitens wurde die Beteiligung von TUM1 an der tRNA-ThioModifikation am Wobble Uridin-34 durch Quantifizierung der Menge an mcm5s2U und mcm5U mittels HPLC untersucht. Es wurde eine Reduktion bzw. Akkumulation von mcm5s2U und mcm5U in TUM1-Knockout-Zellen beobachtet. Die exogene Behandlung mit NaHS, einem Schwefelwasserstoff-Donor, rettete die Moco-Biosynthese, die zytosolische tRNA-Thiolation und das Defizit der Zellproliferation in TUM1-deletion-Zellen. Darüber hinaus wurde gezeigt, dass TUM1 die Bioenergetik der Mitochondrien beeinflusst, indem die Sauerstoffverbrauchsrate und die extrazelluläre Versauerungsrate (ECAR) über den Seahorse XF Analyzer gemessen wurden. Eine Verringerung der gesamten ATP-Produktion war ebenfalls erkennbar. Dies zeigt, wie wichtig TUM1 für die H2S-Biosynthese in den Mitochondrien von HEK 293T ist. Schließlich wurde die Hemmung von NFS1 in HEK 293T und gereinigtem NFS1-Protein durch 2-Methylen-3-chinuclidinon mittels spektrophotometrischer und radioaktiver Quantifizierung nachgewiesen. Die Hemmung von NFS1 durch 2-Methylen-3-chinuclidinon verringerte die Aktivität des von Eisen-Schwefel-Clustern abhängigen Enzyms Aconitase in HEK 293T. KW - Moco biosynthesis KW - sulfite oxidase KW - cytosolic tRNA thiolation KW - 5-methoxycarbonylmethyl-2-thiouridine KW - H2S biosynthesis KW - cellular bioenergetics KW - Moco-Biosynthese KW - Sulfit-Oxidase KW - zytosolische tRNA-Thiolierung KW - 5-Methoxycarbonylmethyl-2-Thiouridin KW - H2S-Biosynthese KW - zelluläre Bioenergetik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611357 ER - TY - THES A1 - Rausch, Theresa T1 - Role of intestinal bacteria in the conversion of dietary sulfonates N2 - Over the last decades, interest in the impact of the intestinal microbiota on host health has steadily increased. Diet is a major factor that influences the gut microbiota and thereby indirectly affects human health. For example, a high fat diet rich in saturated fatty acids led to an intestinal proliferation of the colitogenic bacterium Bilophila (B.) wadsworthia by stimulating the release of the bile acid taurocholate (TC). TC contains the sulfonated head group taurine, which undergoes conversion to sulfide (H2S) by B. wadsworthia. In a colitis prone murine animal model (IL10 / mice), the bloom of B. wadsworthia was accompanied by an exacerbation of intestinal inflammation. B. wadsworthia is able to convert taurine and also other sulfonates to H2S, indicating the potential association of sulfonate utilization and the stimulation of colitogenic bacteria. This potential link raised the question, whether dietary sulfonates or their sulfonated metabolites stimulate the growth of colitogenic bacteria such as B. wadsworthia and whether these bacteria convert sulfonates to H2S. Besides taurine, which is present in meat, fish and life-style beverages, other dietary sulfonates are part of daily human nutrition. Sulfolipids such as sulfoquinovosyldiacylglycerols (SQDG) are highly abundant in salad, parsley and the cyanobacterium Arthrospira platensis (Spirulina). Based on previous findings, Escherichia (E.) coli releases the polar headgroup sulfoquinovose (SQ) from SQDG. Moreover, E. coli is able to convert SQ to 2,3 dihydroxypropane 1 sulfonate (DHPS) under anoxic conditions. DHPS is also converted to H2S by B. wadsworthia or by other potentially harmful gut bacteria such as members of the genus Desulfovibrio. However, only few studies report the conversion of sulfonates to H2S by bacteria directly isolated from the human intestinal tract. Most sulfonate utilizing bacteria were obtained from environmental sources such as soil or lake sediment or from potentially intestinal sources such as sewage. In the present study, fecal slurries from healthy human subjects were incubated with sulfonates under strictly anoxic conditions, using formate and lactate as electron donors. Fecal slurries that converted sulfonates to H2S, were used as a source for the isolation of H2S forming bacteria. Isolates were identified based on their 16S ribosomal RNA (16S rRNA) gene sequence. In addition, conventional C57BL/6 mice were fed a semisynthetic diet supplemented with the SQDG rich Spirulina (SD) or a Spirulina free control diet (CD). During the intervention, body weight, water and food intake were monitored and fecal samples were collected. After three weeks, mice were killed and organ weight and size were measured, intestinal sulfonate concentrations were quantified, gut microbiota composition was determined and parameters of intestinal and hepatic fat metabolism were analyzed. Human fecal slurries converted taurine, isethionate, cysteate, 3 sulfolacate, SQ and DHPS to H2S. However, inter individual differences in the degradation of these sulfonates were observed. Taurine, isethionate, and 3 sulfolactate were utilized by fecal microbiota of all donors, while SQ, DHPS and cysteate were converted to H2S only by microbiota from certain individuals. Bacterial isolates from human feces able to convert sulfonates to H2S were identified as taurine-utilizing Desulfovibrio strains, taurine- and isethionate-utilizing B. wadsworthia, or as SQ- and 3-sulfolactate- utilizing E. coli. In addition, a co culture of E. coli and B. wadsworthia led to complete degradation of SQ to H2S, with DHPS as an intermediate. Of the human fecal isolates, B. wadsworthia and Desulfovibrio are potentially harmful. E. coli strains might be also pathogenic, but isolated E. coli strains from human feces were identified as commensal gut bacteria. Feeding SD to mice increased the cecal and fecal SQ concentration and altered the microbiota composition, but the relative abundance of SQDG or SQ converting bacteria and colitogenic bacteria was not enriched in mice fed SD for 21 days. SD did not affect the relative abundance of Enterobacteriaceae, to which the SQDG- and SQ-utilizing E. coli strain belong to. Furthermore, the abundance of B. wadsworthia decreased from day 2 to day 9 in feces, but recovered afterwards in the same mice. In cecum, the family Desulfovibrionaceae, to which B. wadsworthia and Desulfovibrio belong to, were reduced. No changes in the number of B. wadsworthia in cecal contents or of Desulfovibrionaceae in feces were observed. SD led to a mild activation of the immune system, which was not observed in control mice fed CD. Mice fed SD had an increased body weight, a higher adipose tissue weight, and a decreased liver weight compared to the control mice, suggesting an impact of Spirulina supplementation on fat metabolism. However, expression levels of genes involved in intestinal and hepatic intracellular lipid uptake and availability were reduced. Further investigations on the lipid metabolism at protein level could help to clarify these discrepancies. In summary, humans differ in the ability of their fecal microbiota to utilize dietary sulfonates. While sulfonates stimulated the proliferation of potentially colitogenic isolates from human fecal slurries, the increased availability of SQ in Spirulina fed conventional mice did not lead to an enrichment of such bacteria. Presence or absence of these bacteria may explain the inter individual differences in sulfonate conversion observed for fecal slurries. This work provides new insights in the ability of intestinal bacteria to utilize sulfonates and thus, contributes to a better understanding of microbiota-mediated effects on dietary sulfonate utilization. Interestingly, feeding of the Spirulina-supplemented diet led to body-weight gain in mice in the first two days of intervention, the reasons for which are unknown. N2 - Die Darmmikrobiota hat auf die menschliche Gesundheit einen großen Einfluss. Nahrungskom-ponente sind die Hauptquelle für bakterielle Substrate und beeinflussen somit das Wachstum von Darmbakterien. In einer Studie mit Mäusen führte z.B. eine Hochfettdiät zu einer erhöhten Freisetzung der Gallensäure Taurocholat (TC), was wiederum zur Anreicherung des kolitogenen Bakteriums Bilophila (B.) wadsworthia führte. In einem Interleukin-10-defizienten Maus-Model für Kolitis, führte eine erhöhte intestinale Verfügbarkeit von TC zu Darmentzündungen und Wachstum von B. wadsworthia. TC enthält den sulfonierten Taurin-Rest, der auch in Nahrungsmitteln wie Fisch und Fleisch enthalten ist, und von B. wadsworthia genutzt und zu Sulfid (H2S) reduziert werden kann. Bisher gibt es jedoch nur wenige Studien, welche die Umwandlung von Sulfonaten in H2S durch Darmbakterien belegen, wobei auch H2S mit Darmentzündungen in Verbindung gebracht wird. Aus diesen Literaturdaten resultierten die Fragen, ob Sulfonate aus der Nahrung das Wachstum von kolitogenen Bakterien wie B. wadsworthia stimulieren und ob diese Bakterien Sulfonate zu H2S umwandeln können. Weitere Nahrungsmittel-Sulfonate sind die Sulfolipide Sulfoquinovosyldiacylglycerole (SQDG) in Salaten, Petersilie und Spirulina. Escherichia (E.) coli kann Sulfoquinovose (SQ) aus SQDG abspalten und in 2,3-Dihydroxypropan-1-sulfonat (DHPS) umwandeln, welches wiederum von B. wadsworthia oder einem Desulfovibrio-Stamm, einem anderen potenziell kolitogenem Darmbakterium, verwendet und zu H2S reduziert werden kann. In der vorliegenden Arbeit wurden Fäzes-Suspensionen von gesunden Menschen unter strikt anoxischen Bedingungen mit Sulfonaten und Formiat und Laktat als Elektronendonoren inkubiert. Aus den Fäzes-Suspensionen wurden H2S-bildende Bakterienstämme isoliert und identifiziert. Zusätzlich wurden konventionelle C57BL/6-Mäuse mit einer semisynthetischen Diät, welche mit SQDG-reicher Spirulina supplementiert war (SD), gefüttert. Während des Versuchs wurde das Körpergewicht der Mäuse, deren Wasser- und Nahrungsaufnahme bestimmt und Fäzesproben gesammelt. Nach drei Wochen wurden die intestinale Sulfonatkonzentration, die Zusammensetzung der Mikrobiota und die Parameter des hepatischen und intestinalen Fettstoffwechsels bestimmt. Die Ergebnisse zeigten, dass humane Fäzes-Suspensionen Taurin, Isethionat, Cysteat, 3-Sulfolaktat, SQ und DHPS mit interindividuellen Unterschieden zu H2S umwandeln. Als Sulfonat-umsetzende Bakterien wurden Stämme der Gattung Desulfovibrio, B. wadsworthia oder E. coli isoliert, wobei die Desulfovibrio-Stämme Taurin, B. wadsworthia Taurin und Isethionat und E. coli SQ und 3-Sulfolaktat zu H2S reduzieren konnten. Eine Kokultivierung von E. coli und B. wadsworthia zeigte den vollständigen Abbau von SQ über DHPS zu H2S. Die Gabe von SD an Mäuse erhöhte die intestinale SQ-Konzentration und veränderte die Mikrobiota-Zusammensetzung, jedoch war die Zellzahl von SQDG- oder SQ-umwandelnden Bakterien und kolitogenen Bakterien nicht erhöht. Die Zellzahl von B. wadsworthia in denselben Mäusen von Tag 2 bis 9 ab, normalisierte sich danach aber wieder. Im Zäkum war die Familie der Desulfovibrionaceae reduziert, zu welcher B. wadsworthia und Desulfovibrio-Stämme gehören. SD führte zu einer schwachen Aktivierung des Immunsystems und zur Erhöhung des Körpergewichtes. Zusammenfassend lässt sich sagen, dass Darmbakterien in der Lage sind, Sulfonate aus der Nahrung mit interindividuellen Unterschieden zu verwerten. Das Vorkommen von Bakterien könnte diese Unterschiede erklären. Diese Studie ermöglicht es uns, die biologische Rolle der mit der Nahrung aufgenommenen Sulfonate zu verstehen und könnte neue Erkenntnisse über die Fähigkeit der Darmbakterien zur Verwertung von Sulfonaten liefern. T2 - Die Rolle von Darmbakterien bei der Umsetzung von Nahrungsmittel-Sulfonaten KW - microbiology KW - Bilophila wadsworthia KW - sulfide KW - intestinal KW - Bilophila wadsworthia KW - intestinal KW - Mikrobiologie KW - Sulfid KW - dietary sulfonates KW - Nahrungssulfonate Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-574036 ER - TY - THES A1 - Martinez-Seidel, Federico T1 - Ribosome Heterogeneity and Specialization during Temperature Acclimation in Plants N2 - Ribosomes decode mRNA to synthesize proteins. Ribosomes, once considered static, executing machines, are now viewed as dynamic modulators of translation. Increasingly detailed analyses of structural ribosome heterogeneity led to a paradigm shift toward ribosome specialization for selective translation. As sessile organisms, plants cannot escape harmful environments and evolved strategies to withstand. Plant cytosolic ribosomes are in some respects more diverse than those of other metazoans. This diversity may contribute to plant stress acclimation. The goal of this thesis was to determine whether plants use ribosome heterogeneity to regulate protein synthesis through specialized translation. I focused on temperature acclimation, specifically on shifts to low temperatures. During cold acclimation, Arabidopsis ceases growth for seven days while establishing the responses required to resume growth. Earlier results indicate that ribosome biogenesis is essential for cold acclimation. REIL mutants (reil-dkos) lacking a 60S maturation factor do not acclimate successfully and do not resume growth. Using these genotypes, I ascribed cold-induced defects of ribosome biogenesis to the assembly of the polypeptide exit tunnel (PET) by performing spatial statistics of rProtein changes mapped onto the plant 80S structure. I discovered that growth cessation and PET remodeling also occurs in barley, suggesting a general cold response in plants. Cold triggered PET remodeling is consistent with the function of Rei-1, a REIL homolog of yeast, which performs PET quality control. Using seminal data of ribosome specialization, I show that yeast remodels the tRNA entry site of ribosomes upon change of carbon sources and demonstrate that spatially constrained remodeling of ribosomes in metazoans may modulate protein synthesis. I argue that regional remodeling may be a form of ribosome specialization and show that heterogeneous cytosolic polysomes accumulate after cold acclimation, leading to shifts in the translational output that differs between wild-type and reil-dkos. I found that heterogeneous complexes consist of newly synthesized and reused proteins. I propose that tailored ribosome complexes enable free 60S subunits to select specific 48S initiation complexes for translation. Cold acclimated ribosomes through ribosome remodeling synthesize a novel proteome consistent with known mechanisms of cold acclimation. The main hypothesis arising from my thesis is that heterogeneous/ specialized ribosomes alter translation preferences, adjust the proteome and thereby activate plant programs for successful cold acclimation. N2 - Ribosomen dekodieren mRNA, um Proteine zu synthetisieren. Ribosomen, früher als statische, ausführende Maschinen betrachtet, werden heute als dynamische Modulatoren der Translation angesehen. Zunehmend detailliertere Analysen der Strukturheterogenität von Ribosomen führte zu einem Paradigmenwechsel hin zu einer Spezialisierung von Ribosomen für eine selektive Translation. Als sessile Organismen können Pflanzen schädlichen Umwelteinflüssen nicht ausweichen und haben Strategien entwickelt, um diesen zu widerstehen. Zytosolische Ribosomen von Pflanzen sind in mancher Hinsicht vielfältiger, als die von anderen Metazoen. Diese Vielfalt könnte zur Stressakklimatisierung der Pflanzen beitragen. Ziel dieser Arbeit war es, festzustellen, ob Pflanzen die Heterogenität der Ribosomen nutzen, um die Proteinsynthese durch spezialisierte Translation zu regulieren. Ich habe mich auf die Temperaturakklimatisierung konzentriert, insbesondere auf den Wechsel zu niedrigen Temperaturen. Im Verlauf der Kälteakklimatisierung stellt Arabidopsis das Wachstum für sieben Tage ein. Währenddessen etabliert sie die für die Wiederaufnahme des Wachstums erforderlichen Anpassungen. Vorherige Ergebnisse deuten darauf hin, dass Ribosomenbiogenese für die Kälteakklimatisierung essentiell ist. REIL-Mutanten (reil-dkos), denen ein 60S-Reifungsfaktor fehlt, akklimatisieren sich nicht erfolgreich und nehmen das Wachstum nicht wieder auf. Anhand dieser Genotypen habe ich kältebedingte Defekte der Ribosomenbiogenese auf den Aufbau des Polypeptidaustritts-Tunnels (PET) zurückgeführt, indem ich räumliche statistische Analysen von rProtein-Veränderungen auf die pflanzliche 80S-Struktur abgebildet habe. Ich habe entdeckt, dass Wachstumsstillstand und PET-Umbau auch in Gerste auftreten, was auf eine allgemeine Kältereaktion in Pflanzen hindeutet. Der durch Kälte ausgelöste PET-Umbau stimmt über ein mit der Funktion von Rei-1, einem REIL-homologen Protein aus Hefe, in der Rei-1 die PET-Qualitätskontrolle durchführt. Anhand bahnbrechender Daten zur Ribosomenspezialisierung zeige ich, dass Hefe die tRNA-Eintrittsstelle von Ribosomen bei einem Wechsel von Kohlenstoffquellen umbaut, und demonstriere, dass ein räumlich begrenzter Umbau von Ribosomen in Metazoen die Proteinsynthese modulieren kann. Ich argumentiere, dass die regionale Umgestaltung eine Form der Ribosomenspezialisierung sein kann, und zeige, dass nach einer Kälteakklimatisierung heterogene zytosolische Polysomen akkumulieren, was zu Verschiebungen im Translationsoutput führt, der sich zwischen Wildtyp und reil-dkos unterscheidet. Ich habe festgestellt, dass die heterogenen Komplexe aus neu synthetisierten und wiederverwendeten Proteinen bestehen. Ich schlage vor, dass maßgeschneiderte Ribosomenkomplexe freie 60S-Untereinheiten in die Lage versetzen, spezifische 48S-Initiationskomplexe für die Translation auszuwählen. Kälte-akklimatisierte Ribosomen synthetisieren durch Ribosomenumbau ein neues Proteom, das mit bekannten Mechanismen der Kälteakklimatisierung übereinstimmt. Die Haupthypothese, die sich aus meiner Arbeit ergibt, ist, dass heterogene/spezialisierte Ribosomen ihre Translationspräferenzen verändern, das Proteom anpassen und dadurch Pflanzenprogramme für eine erfolgreiche Kälteakklimatisierung aktivieren. T2 - Ribosomenheterogenität und -spezialisierung während der Temperaturakklimatisierung in Pflanzen KW - Ribosome specialization KW - Ribosomal protein heterogeneity KW - Ribosomal protein substoichiometry KW - Protein synthesis KW - Translational regulation KW - Plant cytosolic translation KW - Cold acclimation KW - Ribosome biogenesis KW - 60S maturation KW - Hordeum vulgare KW - Arabidopsis thaliana KW - 60S-Reifung KW - Kälteakklimatisierung KW - Cytosolische Translation in Pflanzen KW - Proteinsynthese KW - Ribosomale Proteinheterogenität KW - Ribosomale Protein Substöchiometrie KW - Ribosomen-Biogenese KW - Ribosomen-Spezialisierung KW - Translationsregulation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-580724 ER - TY - THES A1 - Senger, Stefanie Sabine T1 - Reiz der Revolution T1 - Allure of the revolution BT - Zivilgesellschaftliche Solidarität für das sandinistische Nicaragua in Ost- und Westdeutschland (1976-1990) BT - civil society solidarity for Sandinista Nicaragua in East and West Germany (1976-1990) N2 - Die Dissertation untersucht die vielseitigen Verflechtungen und Transfers im Rahmen der deutschen Nicaraguasolidarität der späten 1970er und der 1980er Jahre. Bereits im Vorfeld ihres Machtantritts hatten die Sandinistas in beiden Lagern um ausländische staatliche und zivile Unterstützung geworben. Nun gestalteten sie mit dem sandinistischen Reformstaat zugleich ein internationales Netz an Solidaritätsbeziehungen aus, die zur Finanzierung ihrer sozialreformerischen Programme, aber auch zur Legitimation ihrer Herrschaft dienten. Allein in der Bundesrepublik entstanden mehrere hundert Solidaritätsgruppen. In der DDR löste die politische Führung eine staatlich gelenkte Solidarisierung mit Nicaragua aus, der sich zehntausende Menschen und unabhängige Basisinitiativen anschlossen. Trotz ihrer Verwurzelung in rivalisierenden Systemen und der Heterogenität ihrer Weltbilder – von christlicher Soziallehre bis zur kritischen Linken – arbeiteten etliche Solidaritätsinitiativen in beiden Ländern am selben Zielobjekt: einem Nicaragua jenseits der Blöcke. Gemeinsam mit ihren nicaraguanischen Projektpartner_innen eröffneten sie auf transnationaler Ebene einen neuen Raum für Kommunikation und stießen dabei auf Differenzen und Auseinandersetzungen über politische Ideen, die beiderseits des Atlantiks neue Praktiken anregten. Die Forschungsarbeit basiert auf einer umfangreichen Quellenauswertung in insgesamt 13 Archiven, darunter das Archiv der Robert-Havemann-Gesellschaft, das Archiv der BStU, verschiedene westdeutsche Bewegungsarchive und die archivalischen Nachlässe des nicaraguanischen Kulturministeriums. N2 - This dissertation explores the diverse interconnections and transfers within the German solidarity for Nicaragua in the late 1970s and 1980s. Even before coming to power, the Sandinistas sought foreign governmental and civilian support from both political factions during the Cold War. With the establishment of the Sandinista reform state, they simultaneously formed an international network of solidarity relationships that served to finance their social reform programs and legitimize their governance. Hundreds of solidarity groups emerged in the Federal Republic alone, while in the German Democratic Republic (GDR), the political leadership initiated a state-guided solidarity movement with Nicaragua, attracting tens of thousands of individuals and independent grassroots initiatives. Despite being rooted in rival systems and the heterogeneity of their ideological frameworks, ranging from Christian social teachings to the critical left, numerous solidarity initiatives in both countries worked towards a common goal: a Nicaragua beyond the ideological blocs. Collaborating with their Nicaraguan project partners, they created a new space for transnational communication, encountering differences and debates over political ideas that stimulated new practices on both sides of the Atlantic. The research is based on an extensive analysis of sources from a total of 13 archives, including the Robert Havemann Society Archive, the Archive of the Federal Commissioner for the Stasi Records (BStU), various movement archives in West Germany, and the archival holdings of the Nicaraguan Ministry of Culture. KW - Solidarität KW - Nicaragua KW - Entwicklungshilfe KW - Transfergeschichte KW - Revolution KW - solidarity KW - Nicaragua KW - development aid KW - transfer history KW - revolution Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-596637 ER - TY - THES A1 - Mientus, Lukas T1 - Reflexion und Reflexivität T1 - Reflection and reflexivity BT - Befunde reflexionsbezogener Dispositionen BT - findings of reflection-related amplifiers and filters N2 - Reflexion gilt in der Lehrkräftebildung als eine Schlüsselkategorie der professionellen Entwicklung. Entsprechend wird auf vielfältige Weise die Qualität reflexionsbezogener Kompetenzen untersucht. Eine Herausforderung hierbei kann in der Annahme bestehen, von der Analyse schriftlicher Reflexionen unmittelbar auf die Reflexivität einer Person zu schließen, da Reflexion stets kontextspezifisch als Abbild reflexionsbezogener Argumentationsprozesse angesehen werden sollte und reflexionsbezogenen Dispositionen unterliegt. Auch kann die Qualität einer Reflexion auf mehreren Dimensionen bewertet werden, ohne quantifizierbare, absolute Aussagen treffen zu können. Daher wurden im Rahmen einer Physik-Videovignette N = 134 schriftliche Fremdreflexionen verfasst und kontextspezifische reflexionsbezogene Dispositionen erhoben. Expert*innen erstellten theoriegeleitet Qualitätsbewertungen zur Breite, Tiefe, Kohärenz und Spezifität eines jeden Reflexionstextes. Unter Verwendung computerbasierter Klassifikations- und Analyseverfahren wurden weitere Textmerkmale erhoben. Mittels explorativer Faktorenanalyse konnten die Faktoren Qualität, Quantität und Deskriptivität gefunden werden. Da alle konventionell eingeschätzten Qualitätsbewertungen durch einen Faktor repräsentiert wurden, konnte ein maximales Qualitätskorrelat kalkuliert werden, zu welchem jede schriftliche Fremdreflexion im Rahmen der vorliegenden Vignette eine computerbasiert bestimmbare Distanz aufweist. Diese Distanz zum maximalen Qualitätskorrelat konnte validiert werden und kann die Qualität der schriftlichen Reflexionen unabhängig von menschlichen Ressourcen quantifiziert repräsentieren. Abschließend konnte identifiziert werden, dass ausgewählte Dispositionen in unterschiedlichem Maße mit der Reflexionsqualität zusammenhängen. So konnten beispielsweise bezogen auf das Physik-Fachwissen minimale Zusammenhänge identifiziert werden, wohingegen Werthaltung sowie wahrgenommene Unterrichtsqualität eng mit der Qualität einer schriftlichen Reflexion in Verbindung stehen können. Es wird geschlussfolgert, dass reflexionsbezogene Dispositionen moderierenden Einfluss auf Reflexionen nehmen können. Es wird empfohlen bei der Erhebung von Reflexion mit dem Ziel der Kompetenzmessung ausgewählte Dispositionen mit zu erheben. Weiter verdeutlicht diese Arbeit die Möglichkeit, aussagekräftige Quantifizierungen auch in der Analyse komplexer Konstrukte vorzunehmen. Durch computerbasierte Qualitätsabschätzungen können objektive und individuelle Analysen und differenzierteres automatisiertes Feedback ermöglicht werden. N2 - Reflection is considered as a key category of professional development in teacher education. Thus, the quality of reflection-related performance has been studied in a variety of ways. To derive teacher's reflection-related personal Pedagogical Content Knowledge (PCK) from the analysis of a written reflection (reflection-related enacted PCK) seems to be challenging. The enactment of reflection-related personal PCK is context-specific and should be seen as a manifestation under the influence of Amplifiers & Filters. Also, it is difficult to make quantifiable statements of reasoning quality in a written reflection without using stage models or categorical scoring. Therefore, N = 134 (preservice) physics teachers wrote a reflection text in the context of a video vignette and answered items related to context-specific reflection-related dispositions. Experts rated the quality of each reflection text according to the breadth, depth, coherence, and specificity. Using computer-based classification and analysis, additional text features were extracted. An exploratory factor analysis was used to reduce date to the factors quality, quantity, and descriptiveness of a written reflection. Cause experts’ quality ratings were represented by just one factor, a maximum quality-correlate for the present vignette was calculated. Each written reflection was determined a distance to this maximum computer-based. This quality index was validated and can represent the quality of the written reflections in a quantified way without the need of human expertise. Finally, it could be identified that selected Amplifiers & Filters are related to the reflection quality. For example, minimal correlations could be identified with respect to physics content knowledge, whereas values and perceived teaching quality can be closely related to the quality of a written reflection. It is concluded that reflection-related Amplifiers & Filters can have a measurable influence on reflection-related enacted PCK. It is recommended to include measurements of Amplifiers & Filters in each research of reflection with the aim of measuring competence. Further, this work illustrates the possibility of meaningful quantification even in the analysis of complex constructs. Computer-based quality assessments can enable objective and individualized analyses and more differentiated automated feedback. KW - Reflexion KW - Reflexivität KW - Physikdidaktik KW - pedagogical content knowledge KW - refined consensus model KW - machine learning Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610003 ER - TY - THES A1 - Braun, Tobias T1 - Recurrences in past climates T1 - Rekurrenzen in vergangenen Klimaperioden BT - novel concepts & tools for the study of Palaeoseasonality and beyond BT - neue Konzepte und Methoden zur Analyse von Paläosaisonalität und darüber hinaus N2 - Our ability to predict the state of a system relies on its tendency to recur to states it has visited before. Recurrence also pervades common intuitions about the systems we are most familiar with: daily routines, social rituals and the return of the seasons are just a few relatable examples. To this end, recurrence plots (RP) provide a systematic framework to quantify the recurrence of states. Despite their conceptual simplicity, they are a versatile tool in the study of observational data. The global climate is a complex system for which an understanding based on observational data is not only of academical relevance, but vital for the predurance of human societies within the planetary boundaries. Contextualizing current global climate change, however, requires observational data far beyond the instrumental period. The palaeoclimate record offers a valuable archive of proxy data but demands methodological approaches that adequately address its complexities. In this regard, the following dissertation aims at devising novel and further developing existing methods in the framework of recurrence analysis (RA). The proposed research questions focus on using RA to capture scale-dependent properties in nonlinear time series and tailoring recurrence quantification analysis (RQA) to characterize seasonal variability in palaeoclimate records (‘Palaeoseasonality’). In the first part of this thesis, we focus on the methodological development of novel approaches in RA. The predictability of nonlinear (palaeo)climate time series is limited by abrupt transitions between regimes that exhibit entirely different dynamical complexity (e.g. crossing of ‘tipping points’). These possibly depend on characteristic time scales. RPs are well-established for detecting transitions and capture scale-dependencies, yet few approaches have combined both aspects. We apply existing concepts from the study of self-similar textures to RPs to detect abrupt transitions, considering the most relevant time scales. This combination of methods further results in the definition of a novel recurrence based nonlinear dependence measure. Quantifying lagged interactions between multiple variables is a common problem, especially in the characterization of high-dimensional complex systems. The proposed ‘recurrence flow’ measure of nonlinear dependence offers an elegant way to characterize such couplings. For spatially extended complex systems, the coupled dynamics of local variables result in the emergence of spatial patterns. These patterns tend to recur in time. Based on this observation, we propose a novel method that entails dynamically distinct regimes of atmospheric circulation based on their recurrent spatial patterns. Bridging the two parts of this dissertation, we next turn to methodological advances of RA for the study of Palaeoseasonality. Observational series of palaeoclimate ‘proxy’ records involve inherent limitations, such as irregular temporal sampling. We reveal biases in the RQA of time series with a non-stationary sampling rate and propose a correction scheme. In the second part of this thesis, we proceed with applications in Palaeoseasonality. A review of common and promising time series analysis methods shows that numerous valuable tools exist, but their sound application requires adaptions to archive-specific limitations and consolidating transdisciplinary knowledge. Next, we study stalagmite proxy records from the Central Pacific as sensitive recorders of mid-Holocene El Niño-Southern Oscillation (ENSO) dynamics. The records’ remarkably high temporal resolution allows to draw links between ENSO and seasonal dynamics, quantified by RA. The final study presented here examines how seasonal predictability could play a role for the stability of agricultural societies. The Classic Maya underwent a period of sociopolitical disintegration that has been linked to drought events. Based on seasonally resolved stable isotope records from Yok Balum cave in Belize, we propose a measure of seasonal predictability. It unveils the potential role declining seasonal predictability could have played in destabilizing agricultural and sociopolitical systems of Classic Maya populations. The methodological approaches and applications presented in this work reveal multiple exciting future research avenues, both for RA and the study of Palaeoseasonality. N2 - Unsere Fähigkeit, den Zustand eines Systems vorherzusagen, hängt grundlegend von der Tendenz des Systems ab, zu früheren Zuständen zurückzukehren. Solche "Rekurrenzen" sind sogar Bestandteil unserer Intuition und alltäglichen Erfahrungswelt: regelmäßige Routinen, soziale Zusammentreffen and die Wiederkehr der Jahreszeiten sind hierfür nur vereinzelte Beispiele. Rekurrenzplots (RPs) stellen uns in diesem Kontext eine systematische Methode zur Verfügung, um die Wiederkehreigenschaften von Systemzuständen quantitativ zu untersuchen. Obwohl RPs konzeptionell vergleichsweise simpel sind, stellen sie eine vielseitige Methode zur Analyse von gemessenen Beobachtungsdaten dar. Das globale Klimasystem ist ein komplexes System, bei dem ein datenbasiertes Verständnis nicht lediglich von rein akademischen Wert ist – es ist viel mehr relevant für das Fortbestehen der Gesellschaft innerhalb der natürlichen planetaren Grenzen. Um die heute beobachteten Klimaveränderungen allerdings in einen langfristigen Kontext einzuordnen, benötigen wir empirische Daten, die weit über die Periode hinaus gehen, für die instrumentelle Daten verfügbar sind. Paläoklimatologische Datenreihen repräsentieren hier ein wertvolles Archiv, dessen Auswertung jedoch Analysemethoden erfordert, die an die Komplexitäten von paläoklimatologischen ‘Proxydaten’ angepasst sind. Um einen wissenschaftlichen Beitrag zu dieser Problemstellung zu leisten, befasst sich diese Doktorarbeit mit der Konzeptionierung neuer Methoden und der problemstellungsbezogenen Anpassung bewährter Methoden in der Rekurrenzanalyse (RA). Die hier formulierten zentralen Forschungsfragen konzentrieren sich auf den Nachweis zeitskalen-abhängiger Eigenschaften in nichtlinearen Zeitreihen und, insbesondere, der Anpassung von quantitativen Maßen in der RA, um paläosaisonale Proxydaten zu charakterisieren (‘Paläosaisonalität’). Im ersten Teil dieser Arbeit liegt der Schwerpunkt auf der Entwicklung neuer methodischer Ansätze in der RA. Die Vorhersagbarkeit nichtlinearer (paläo)klimatologischer Zeitreihen ist durch abrupte Übergänge zwischen dynamisch grundlegend verschiedenen Zuständen erschwert (so zum Beispiel das Übertreten sogenannter ‘Kipppunkte’). Solche Zustandsübergänge zeigen oft charakteristische Zeitskalen-Abhängigkeiten. RPs haben sich als Methode zum Nachweis von Zustandsübergängen bewährt und sind darüber hinaus geeignet, Skalenabhängigkeiten zu identifizieren. Dennoch wurden beide Aspekte bislang selten methodisch zusammengeführt. Wir kombinieren hier bestehende Konzepte aus der Analyse selbstähnlicher Strukturen und RPs, um abrupte Zustandsübergänge unter Einbezug der relevantesten Zeitskalen zu identifizieren. Diese Kombination von Konzepten führt uns ferner dazu, ein neues rekurrenzbasiertes, nichtlineares Abhängigkeitsmaß einzuführen. Die quantitative Untersuchung zeitversetzter Abhängigkeiten zwischen zahlreichen Variablen ist ein zentrales Problem, das insbesondere in der Analyse hochdimensionaler komplexer Systeme auftritt. Das hier definierte ‘Rekurrenzfluß’-Abhängigkeitsmaß ermöglicht es auf elegante Weise, derartige Abhängigkeiten zu charakterisieren. Bei räumlich ausgedehnten komplexen Systemen führen Interaktionen zwischen lokalen Variablen zu der Entstehung räumlicher Muster. Diese räumlichen Muster zeigen zeitliche Rekurrenzen. In einer auf dieser Beobachtung aufbauenden Publikation stellen wir eine neue Methode vor, mit deren Hilfe differenzierbare, makroskopische Zustände untersucht werden können, die zu zentralen, zeitlich wiederkehrenden räumlichen Mustern korrespondieren. Folgend leiten wir über zum zweiten Teil dieser Arbeit, indem wir uns Anpassungen von Methoden zur Untersuchung von Paläosaisonalität zuwenden. Messreihen paläoklimatologischer Proxydaten geben uns nur indirekt Informationen über die ihnen zugrunde liegenden Klimavariablen und weisen inhärente Limitationen auf, wie zum Beispiel unregelmäßige Zeitabstände zwischen Datenpunkten. Wir zeigen statistische Verzerrungseffekte auf, die in der quantitativen RA auftreten, wenn Signale mit nichtstationärer Abtastrate untersucht werden. Eine Methode zur Korrektur wird vorgestellt und anhand von Messdaten validiert. Der zweite Teil dieser Dissertation befasst sich mit angewandten Analysen von paläosaisonalen Zeitreihen. Eine Literaturauswertung verbreiteter und potentiell vielversprechender Zeitreihenanalysemethoden zeigt auf, dass es eine Vielzahl solcher Methoden gibt, deren adäquate Anwendung aber Anpassungen an Klimaarchiv-spezifische Grenzen und Probleme sowie eine Zusammenführung interdisziplinärer Fähigkeiten erfordert. Daraufhin untersuchen wir an einem Stalagmiten gemessene Proxydaten aus der zentralen Pazifikregion als ein natürliches Archiv für potentielle Veränderungen der El Niño-Southern Oscillation (ENSO) währen des mittleren Holozäns. Die bemerkenswert hohe zeitliche Auflösung der Proxy-Zeitreihen erlaubt es uns, Verbindungen zwischen der Ausprägung der ENSO und saisonalen Zyklen herzustellen, wobei wir erneut Gebrauch von der RA machen. Die letzte Publikation in dieser Arbeit untersucht, in wie fern die Vorhersagbarkeit saisonaler Veränderungen eine Rolle für die Stabilität von Gesellschaften spielen könnte, deren Nahrungsversorgung auf Landwirtschaft beruht. Die klassische Maya-Zivilisation erlitt zwischen 750-950 CE eine drastische Fragmentierung urbaner Zentren, die mit regionalen Dürren in Verbindung gebracht werden. Auf Grundlage von saisonal-aufgelösten Proxydaten aus der Yok Balum Höhle in Belize, definieren wir ein quantitatives Maß für saisonale Vorhersagbarkeit. Dies erlaubt Schlussfolgerungen über die potentielle Rolle, die ein Verlust saisonaler Vorhersagbarkeit für die sich destablisierenden agrarwirtschaftlichen und soziopolitischen Systeme der Maya gehabt haben könnte. Die methodischen Ansätze und Anwendungen in dieser Arbeit zeigen vielseitige, spannende Forschungsfragen für zukünftige Untersuchungen in der RA und Paläosaisonalität auf. KW - recurrence analysis KW - palaeoclimate KW - seasonality KW - nonlinear time series analysis KW - self-similarity KW - regime shifts KW - climate impact research KW - Klimafolgenforschung KW - nichtlineare Zeitreihenanalyse KW - Paläoklima KW - Rekurrenzanalyse KW - abrupte Übergänge KW - Selbstähnlichkeit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586900 ER - TY - THES A1 - Olivotos, Spyros-Christos T1 - Reconstructing the Landscape Evolution of South Central Africa by Surface Exposure Dating of Waterfalls N2 - The East African Rift System (EARS) is a significant example of active tectonics, which provides opportunities to examine the stages of continental faulting and landscape evolution. The southwest extension of the EARS is one of the most significant examples of active tectonics nowadays, however, seismotectonic research in the area has been scarce, despite the fundamental importance of neotectonics. Our first study area is located between the Northern Province of Zambia and the southeastern Katanga Province of the Democratic Republic of Congo. Lakes Mweru and Mweru Wantipa are part of the southwest extension of the EARS. Fault analysis reveals that, since the Miocene, movements along the active Mweru-Mweru Wantipa Fault System (MMFS) have been largely responsible for the reorganization of the landscape and the drainage patterns across the southwestern branch of the EARS. To investigate the spatial and temporal patterns of fluvial-lacustrine landscape development, we determined in-situ cosmogenic 10Be and 26Al in a total of twenty-six quartzitic bedrock samples that were collected from knickpoints across the Mporokoso Plateau (south of Lake Mweru) and the eastern part of the Kundelungu Plateau (north of Lake Mweru). Samples from the Mporokoso Plateau and close to the MMFS provide evidence of temporary burial. By contrast, surfaces located far from the MMFS appear to have remained uncovered since their initial exposure as they show consistent 10Be and 26Al exposure ages ranging up to ~830 ka. Reconciliation of the observed burial patterns with morphotectonic and stratigraphic analysis reveals the existence of an extensive paleo-lake during the Pleistocene. Through hypsometric analyses of the dated knickpoints, the potential maximum water level of the paleo-lake is constrained to ~1200 m asl (present lake lavel: 917 m asl). High denudation rates (up to ~40 mm ka-1) along the eastern Kundelungu Plateau suggest that footwall uplift, resulting from normal faulting, caused river incision, possibly controlling paleo-lake drainage. The lake level was reduced gradually reaching its current level at ~350 ka. Parallel to the MMFS in the north, the Upemba Fault System (UFS) extends across the southeastern Katanga Province of the Democratic Republic of Congo. This part of our research is focused on the geomorphological behavior of the Kiubo Waterfalls. The waterfalls are the currently active knickpoint of the Lufira River, which flows into the Upemba Depression. Eleven bedrock samples along the Lufira River and its tributary stream, Luvilombo River, were collected. In-situ cosmogenic 10Be and 26Al were used in order to constrain the K constant of the Stream Power Law equation. Constraining the K constant allowed us to calculate the knickpoint retreat rate of the Kiubo Waterfalls at ~0.096 m a-1. Combining the calculated retreat rate of the knickpoint with DNA sequencing from fish populations, we managed to present extrapolation models and estimate the location of the onset of the Kiubo Waterfalls, revealing its connection to the seismicity of the UFS. N2 - Die südwestliche Ausdehnung des Ostafrikanischen Grabenbruchsystems (East African Rift System, EARS) ist eines der bedeutendsten Beispiele aktiver Tektonik heutzutage, welches die Möglichkeit bietet, die Phasen der kontinentalen Verwerfung und der Landschaftsentwicklung zu untersuchen. Allerdings ist seismotektonische Forschung in diesem Gebiet trotz der fundamentalen Bedeutung der Neotektonik nur in geringem Umfang durchgeführt worden. Unser erstes Untersuchungsgebiet befindet sich zwischen der Nordprovinz Sambias und der Provinz Katanga im südöstlichen Teil der Demokratischen Republik Kongo. Die Seen Mweru und Mweru Wantipa sind Teil der südwestlichen Ausdehnung des EARS. Verwerfungsanalysen zeigen, dass seit dem Miozän Bewegungen entlang des aktiven Mweru–Mweru-Wantipa-Verwerfungssystems (MMFS) maßgeblich für die Reorganisation der Landschaft und der Entwässerungsmuster im südwestlichen Zweig des EARS verantwortlich sind. Um die räumlichen und zeitlichen Muster der fluvial-lakustrischen Landschaftsentwicklung zu untersuchen, haben wir in-situ kosmogenes 10Be und 26Al in insgesamt sechsundzwanzig Quarzit-Grundgesteinsproben bestimmt, die vorwiegend von Knickpunkten auf dem Mporokoso-Plateau (südlich des Mweru-Sees) und dem östlichen Teil des Kundelungu-Plateaus (nördlich des Mweru-Sees) gesammelt wurden. Proben vom Mporokoso-Plateau aus der Nähe des MMFS liefern Hinweise auf eine temporäre Bedeckung. Im Gegensatz dazu scheinen Oberflächen, die weit vom MMFS entfernt liegen, seit ihrer ersten Freilegung unbedeckt geblieben zu sein, da sie konsistente 10Be- und 26Al-Freilegungsalter bis zu ~830 ka aufweisen. Der Abgleich der beobachteten Bedeckungsmuster mit morphotektonischen und stratigraphischen Analysen zeigt die Existenz eines ausgedehnten Paläosees während des Pleistozäns. Durch hypsometrische Analysen der datierten Knickpunkte wird der potentielle maximale Wasserstand des Paläosees auf ~1200 m (heutige Seehöhe: 917 m) eingegrenzt. Hohe Denudationsraten (bis zu ~40 mm ka-1) entlang des östlichen Kundelungu-Plateaus deuten darauf hin, dass die durch normale Verwerfungen hervorgerufene Hebung des Fußes einen Flusseinschnitt verursachte, der möglicherweise die Entwässerung des Paläosees kontrollierte. Der Seespiegel wurde allmählich abgesenkt und erreichte sein heutiges Niveau bei ~350 ka. Parallel zum MMFS im Norden erstreckt sich das Upemba-Verwerfungssystem (UFS) über die südöstliche Katanga-Provinz der Demokratischen Republik Kongo. Dort konzentriert sich unsere Forschung auf das geomorphologische Verhalten der Kiubo-Wasserfälle. Diese Fälle sind der derzeit aktive Knickpunkt des Lufira-Flusses, der in die Upemba-Senke mündet. Elf Gesteinsproben entlang des Lufira-Flusses und seines Nebenflusses, des Luvilombo-Flusses, wurden gesammelt. In-situ kosmogenes 10Be und 26Al wurden verwendet, um die K-Konstante der „Strom-Power-Law“-Gleichung einzuschränken. Die Eingrenzung der K-Konstante ermöglichte uns die Berechnung der Rückzugsrate der Kiubo-Wasserfälle auf ~0,096 m a-1. Durch die Kombination der berechneten Rückzugsrate des Knickpunkts mit der DNA-Sequenzierung von Fischpopulationen konnten wir Extrapolationsmodelle formulieren und den Entstehungsort der Kiubo-Wasserfälle abschätzen. Diese Abschätzung legt einen Zusammenhang mit der Seismizität der UFS nahe. T2 - Rekonstruktion der Landschaftsentwicklung im südlichen Zentralafrika durch Datierung der Oberflächenexposition von Wasserfällen KW - Quaternary KW - paleo-lake Mweru KW - East African Rift System KW - Knickpoint KW - Geochronology KW - Cosmogenic nuclides KW - Landscape Evolution KW - Neotectonics KW - Knickpoint retreat KW - Stream Power Law KW - Kosmogene Nuklide KW - Ostafrikanisches Grabensystem KW - Geochronologie KW - Knickpunkt KW - Knickpunkt-Rückzug KW - Landschaftsentwicklung KW - Neotektonik KW - Quartär KW - Paläo-See Mweru Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601699 ER - TY - THES A1 - Discher, Sören T1 - Real-Time Rendering Techniques for Massive 3D Point Clouds T1 - Echtzeit-Rendering-Techniken für massive 3D-Punktwolken N2 - Today, point clouds are among the most important categories of spatial data, as they constitute digital 3D models of the as-is reality that can be created at unprecedented speed and precision. However, their unique properties, i.e., lack of structure, order, or connectivity information, necessitate specialized data structures and algorithms to leverage their full precision. In particular, this holds true for the interactive visualization of point clouds, which requires to balance hardware limitations regarding GPU memory and bandwidth against a naturally high susceptibility to visual artifacts. This thesis focuses on concepts, techniques, and implementations of robust, scalable, and portable 3D visualization systems for massive point clouds. To that end, a number of rendering, visualization, and interaction techniques are introduced, that extend several basic strategies to decouple rendering efforts and data management: First, a novel visualization technique that facilitates context-aware filtering, highlighting, and interaction within point cloud depictions. Second, hardware-specific optimization techniques that improve rendering performance and image quality in an increasingly diversified hardware landscape. Third, natural and artificial locomotion techniques for nausea-free exploration in the context of state-of-the-art virtual reality devices. Fourth, a framework for web-based rendering that enables collaborative exploration of point clouds across device ecosystems and facilitates the integration into established workflows and software systems. In cooperation with partners from industry and academia, the practicability and robustness of the presented techniques are showcased via several case studies using representative application scenarios and point cloud data sets. In summary, the work shows that the interactive visualization of point clouds can be implemented by a multi-tier software architecture with a number of domain-independent, generic system components that rely on optimization strategies specific to large point clouds. It demonstrates the feasibility of interactive, scalable point cloud visualization as a key component for distributed IT solutions that operate with spatial digital twins, providing arguments in favor of using point clouds as a universal type of spatial base data usable directly for visualization purposes. N2 - Punktwolken gehören heute zu den wichtigsten Kategorien räumlicher Daten, da sie digitale 3D-Modelle der Ist-Realität darstellen, die mit beispielloser Geschwindigkeit und Präzision erstellt werden können. Ihre einzigartigen Eigenschaften, d.h. das Fehlen von Struktur-, Ordnungs- oder Konnektivitätsinformationen, erfordern jedoch spezielle Datenstrukturen und Algorithmen, um ihre volle Präzision zu nutzen. Insbesondere gilt dies für die interaktive Visualisierung von Punktwolken, die es erfordert, Hardwarebeschränkungen in Bezug auf GPU-Speicher und -Bandbreite mit einer naturgemäß hohen Anfälligkeit für visuelle Artefakte in Einklang zu bringen. Diese Arbeit konzentriert sich auf Konzepte, Techniken und Implementierungen von robusten, skalierbaren und portablen 3D-Visualisierungssystemen für massive Punktwolken. Zu diesem Zweck wird eine Reihe von Rendering-, Visualisierungs- und Interaktionstechniken vorgestellt, die mehrere grundlegende Strategien zur Entkopplung von Rendering-Aufwand und Datenmanagement erweitern: Erstens eine neuartige Visualisierungstechnik, die kontextabhängiges Filtern, Hervorheben und Interaktion innerhalb von Punktwolkendarstellungen erleichtert. Zweitens hardwarespezifische Optimierungstechniken, welche die Rendering-Leistung und die Bildqualität in einer immer vielfältigeren Hardware-Landschaft verbessern. Drittens natürliche und künstliche Fortbewegungstechniken für eine übelkeitsfreie Erkundung im Kontext moderner Virtual-Reality-Geräte. Viertens ein Framework für webbasiertes Rendering, das die kollaborative Erkundung von Punktwolken über Geräteökosysteme hinweg ermöglicht und die Integration in etablierte Workflows und Softwaresysteme erleichtert. In Zusammenarbeit mit Partnern aus Industrie und Wissenschaft wird die Praxistauglichkeit und Robustheit der vorgestellten Techniken anhand mehrerer Fallstudien aufgezeigt, die repräsentative Anwendungsszenarien und Punktwolkendatensätze verwenden. Zusammenfassend zeigt die Arbeit, dass die interaktive Visualisierung von Punktwolken durch eine mehrstufige Softwarearchitektur mit einer Reihe von domänenunabhängigen, generischen Systemkomponenten realisiert werden kann, die auf Optimierungsstrategien beruhen, die speziell für große Punktwolken geeignet sind. Sie demonstriert die Machbarkeit einer interaktiven, skalierbaren Punktwolkenvisualisierung als Schlüsselkomponente für verteilte IT-Lösungen, die mit räumlichen digitalen Zwillingen arbeiten, und liefert Argumente für die Verwendung von Punktwolken als universelle Art von räumlichen Basisdaten, die direkt für Visualisierungszwecke verwendet werden können. KW - 3D Point Clouds KW - Real-Time Rendering KW - Visualization KW - Virtual Reality KW - Web-Based Rendering KW - 3D-Punktwolken KW - Echtzeit-Rendering KW - Visualisierung KW - Virtuelle Realität KW - Webbasiertes Rendering Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601641 ER -