TY - JOUR A1 - Omel'chenko, Oleh T1 - Mathematical framework for breathing chimera states JF - Journal of nonlinear science N2 - About two decades ago it was discovered that systems of nonlocally coupled oscillators can exhibit unusual symmetry-breaking patterns composed of coherent and incoherent regions. Since then such patterns, called chimera states, have been the subject of intensive study but mostly in the stationary case when the coarse-grained system dynamics remains unchanged over time. Nonstationary coherence-incoherence patterns, in particular periodically breathing chimera states, were also reported, however not investigated systematically because of their complexity. In this paper we suggest a semi-analytic solution to the above problem providing a mathematical framework for the analysis of breathing chimera states in a ring of nonlocally coupled phase oscillators. Our approach relies on the consideration of an integro-differential equation describing the long-term coarse-grained dynamics of the oscillator system. For this equation we specify a class of solutions relevant to breathing chimera states. We derive a self-consistency equation for these solutions and carry out their stability analysis. We show that our approach correctly predicts macroscopic features of breathing chimera states. Moreover, we point out its potential application to other models which can be studied using the Ott-Antonsen reduction technique. KW - Coupled oscillators KW - Breathing chimera states KW - Coherence-incoherence KW - patterns KW - Ott-Antonsen equation KW - Periodic solutions KW - Stability Y1 - 2022 U6 - https://doi.org/10.1007/s00332-021-09779-1 SN - 0938-8974 SN - 1432-1467 VL - 32 IS - 2 PB - Springer CY - New York ER - TY - JOUR A1 - Stolterfoht, Martin A1 - Lang, Felix T1 - All-perovskite tandems get flexible JF - Nature energy N2 - Flexible all-perovskite tandem photovoltaics open up new opportunities for application compared to rigid devices, yet their performance lags behind. Now, researchers show that molecule-bridged interfaces mitigate charge recombination and crack formation, improving the efficiency and mechanical reliability of flexible devices. Y1 - 2022 U6 - https://doi.org/10.1038/s41560-022-01087-6 SN - 2058-7546 VL - 7 IS - 8 SP - 688 EP - 689 PB - Nature Publishing Group CY - London ER - TY - THES A1 - Foster, Mary Grace T1 - X-Ray studies of exoplanet systems N2 - X-rays are integral to furthering our knowledge of exoplanetary systems. In this work we discuss the use of X-ray observations to understand star-planet interac- tions, mass-loss rates of an exoplanet’s atmosphere and the study of an exoplanet’s atmospheric components using future X-ray spectroscopy. The low-mass star GJ 1151 was reported to display variable low-frequency radio emission, which is an indication of coronal star-planet interactions with an unseen exoplanet. In chapter 5 we report the first X-ray detection of GJ 1151’s corona based on XMM-Newton data. Averaged over the observation, we detect the star with a low coronal temperature of 1.6 MK and an X-ray luminosity of LX = 5.5 × 1026 erg/s. This is compatible with the coronal assumptions for a sub-Alfvénic star- planet interaction origin of the observed radio signals from this star. In chapter 6, we aim to characterise the high-energy environment of known ex- oplanets and estimate their mass-loss rates. This work is based on the soft X-ray instrument on board the Spectrum Roentgen Gamma (SRG) mission, eROSITA, along with archival data from ROSAT, XMM-Newton, and Chandra. We use these four X-ray source catalogues to derive X-ray luminosities of exoplanet host stars in the 0.2-2 keV energy band. A catalogue of the mass-loss rates of 287 exoplan- ets is presented, with 96 of these planets characterised for the first time using new eROSITA detections. Of these first time detections, 14 are of transiting exoplanets that undergo irradiation from their host stars that is of a level known to cause ob- servable evaporation signals in other systems, making them suitable for follow-up observations. In the next generation of space observatories, X-ray transmission spectroscopy of an exoplanet’s atmosphere will be possible, allowing for a detailed look into the atmospheric composition of these planets. In chapter 7, we model sample spectra using a toy model of an exoplanetary atmosphere to predict what exoplanet transit observations with future X-ray missions such as Athena will look like. We then estimate the observable X-ray transmission spectrum for a typical Hot Jupiter-type exoplanet, giving us insights into the advances in X-ray observations of exoplanets in the decades to come. N2 - Röntgenstrahlen sind ein wesentlicher Bestandteil, um unser Wissen über extrasolare Planetensysteme zu vertiefen und zu erweitern. In dieser Arbeit erörtern wir den Einsatz von Röntgenbeobachtungen zum Verständnis von Stern-Planeten-Interaktionen, der Abschätzung von Massenverlustraten von Exoplanetenatmosphären und die Untersuchung der atmosphärischen Komponenten eines Exoplaneten mithilfe zukünftiger Röntgenspektroskopie. Beobachtungen des massearmen Sterns GJ 1151 deuten auf eine variable Emission niederfrequenter Radiostrahlung hin, was als Indiz für koronale Stern-Planeten-Wechselwirkungen mit einem unsichtbaren Exoplaneten angesehen wird. In Kapitel 5 berichten wir über den ersten Röntgennachweis der Korona von GJ 1151, basierend auf XMM-Newton Daten. Über die gesamte Beobachtungsdauer gemittelt, weisen wir den Stern mit einer niedrigen koronalen Temperatur von 1,6 MK und einer Röntgenluminosität von LX = 5, 5 ◊ 1026 erg/s nach. Dieser Nachweis im Röntgenlicht ist kompatibel mit der Annahme, dass sub-Alfvénische Wechselwirkungen zwischen stellarer Corona und Exoplanet die Ursache für die beobachteten Radiosignale des Sterns sind. Kapitel 6 zielt darauf ab, die hochenergetische Umgebung bekannter Exoplaneten zu charakterisieren und die Massenverlustraten der Planetenatmosphären abzuschätzen. Diese Arbeit basiert auf neu gewonnenen Daten des Instruments für weiche Röntgenstrahlung an Bord der Spectrum Roentgen Gamma (SRG) Mission, eROSITA, und wird komplementiert von Archivdaten von ROSAT, XMM-Newton und Chandra. Mithilfe dieser vier Röntgenquellenkataloge vermessen wir die Röntgenhelligkeit der Zentralsterne von bekannten Exoplanetensytemen im Energiebereich von 0,2-2 keV. Die Ergebnisse sind zusammen mit den errechneten Massenverlustraten von 287 Exoplaneten in einem Katalog zusammengefasst, darunter 96 Planeten, die zum ersten Mal durch neue eROSITA-Nachweise charakterisiert wurden. Bei 14 dieser Erstnachweise handelt es sich um transitierende Exoplaneten, die von ihrem Heimatstern so stark bestrahlt werden, dass beobachtbare Signale, ausgelöst durch die Verdampfung ihrer Atmosphäre, zu erwarten sind. Speziell diese Systeme eignen sich besonders für Folgebeobachtungen. Mit der nächsten Generation von Weltraumobservatorien wird die Röntgentransmissionsspektroskopie von extrasolaren Planetenatmosphären möglich sein, was nie dagewesene Details über die atmosphärische Zusammensetzung dieser Planeten ans Licht bringen wird. In Kapitel 7 modellieren wir Transmissionsspektren mithilfe eines vereinfachten Modells einer Exoplanetenatmosphäre um vorherzusagen, wie Transitbeobachtungen von Exoplaneten mit zukünftigen Röntgenmissionen wie Athena aussehen werden. Wir schätzen dann das beobachtbare Röntgentransmissionsspektrum für einen typischen Exoplaneten vom Typ Hot Jupiter ab, was uns einen Einblick in die zu erwartenden Fortschritte bei der Röntgenbeobachtung von Exoplaneten in den kommenden Jahrzehnten gibt. KW - exoplanets KW - x-rays KW - stellar physics KW - Exoplaneten KW - Röntgenstrahlen KW - stellare Physik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562152 PB - xiii, 92 ER - TY - THES A1 - Späker, Oliver C. T1 - Structure-property-function relationships in the cornea of Limulus polyphemus Y1 - 2022 ER - TY - JOUR A1 - Fischer, Eric W. A1 - Saalfrank, Peter T1 - Cavity-induced non-adiabatic dynamics and spectroscopy of molecular rovibrational polaritons studied by multi-mode quantum models JF - The journal of chemical physics : bridges a gap between journals of physics and journals of chemistr N2 - We study theoretically the quantum dynamics and spectroscopy of rovibrational polaritons formed in a model system composed of a single rovibrating diatomic molecule, which interacts with two degenerate, orthogonally polarized modes of an optical Fabry-Perot cavity. We employ an effective rovibrational Pauli-Fierz Hamiltonian in length gauge representation and identify three-state vibro-polaritonic conical intersections (VPCIs) between singly excited vibro-polaritonic states in a two-dimensional angular coordinate branching space. The lower and upper vibrational polaritons are of mixed light-matter hybrid character, whereas the intermediate state is purely photonic in nature. The VPCIs provide effective population transfer channels between singly excited vibrational polaritons, which manifest in rich interference patterns in rotational densities. Spectroscopically, three bright singly excited states are identified when an external infrared laser field couples to both a molecular and a cavity mode. The non-trivial VPCI topology manifests as pronounced multi-peak progression in the spectral region of the upper vibrational polariton, which is traced back to the emergence of rovibro-polaritonic light-matter hybrid states. Experimentally, ubiquitous spontaneous emission from cavity modes induces a dissipative reduction of intensity and peak broadening, which mainly influences the purely photonic intermediate state peak as well as the rovibro-polaritonic progression. Published under an exclusive license by AIP Publishing. Y1 - 2022 U6 - https://doi.org/10.1063/5.0098006 SN - 0021-9606 SN - 1089-7690 VL - 157 IS - 3 PB - American Institute of Physics CY - Melville ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Schemenz, Victoria T1 - Correlations between osteocyte lacuno-canalicular network and material characteristics in bone adaptation and regeneration T1 - Korrelationen zwischen dem lakuno-kanalikulären Netzwerk der Osteozyten und Materialeigenschaften bei der Knochenanpassung und -regeneration N2 - The complex hierarchical structure of bone undergoes a lifelong remodeling process, where it adapts to mechanical needs. Hereby, bone resorption by osteoclasts and bone formation by osteoblasts have to be balanced to sustain a healthy and stable organ. Osteocytes orchestrate this interplay by sensing mechanical strains and translating them into biochemical signals. The osteocytes are located in lacunae and are connected to one another and other bone cells via cell processes through small channels, the canaliculi. Lacunae and canaliculi form a network (LCN) of extracellular spaces that is able to transport ions and enables cell-to-cell communication. Osteocytes might also contribute to mineral homeostasis by direct interactions with the surrounding matrix. If the LCN is acting as a transport system, this should be reflected in the mineralization pattern. The central hypothesis of this thesis is that osteocytes are actively changing their material environment. Characterization methods of material science are used to achieve the aim of detecting traces of this interaction between osteocytes and the extracellular matrix. First, healthy murine bones were characterized. The properties analyzed were then compared with three murine model systems: 1) a loading model, where a bone of the mouse was loaded during its life time; 2) a healing model, where a bone of the mouse was cut to induce a healing response; and 3) a disease model, where the Fbn1 gene is dysfunctional causing defects in the formation of the extracellular tissue. The measurement strategy included routines that make it possible to analyze the organization of the LCN and the material components (i.e., the organic collagen matrix and the mineral particles) in the same bone volumes and compare the spatial distribution of different data sets. The three-dimensional network architecture of the LCN is visualized by confocal laser scanning microscopy (CLSM) after rhodamine staining and is then subsequently quantified. The calcium content is determined via quantitative backscattered electron imaging (qBEI), while small- and wide-angle X-ray scattering (SAXS and WAXS) are employed to determine the thickness and length of local mineral particles. First, tibiae cortices of healthy mice were characterized to investigate how changes in LCN architecture can be attributed to interactions of osteocytes with the surrounding bone matrix. The tibial mid-shaft cross-sections showed two main regions, consisting of a band with unordered LCN surrounded by a region with ordered LCN. The unordered region is a remnant of early bone formation and exhibited short and thin mineral particles. The surrounding, more aligned bone showed ordered and dense LCN as well as thicker and longer mineral particles. The calcium content was unchanged between the two regions. In the mouse loading model, the left tibia underwent two weeks of mechanical stimulation, which results in increased bone formation and decreased resorption in skeletally mature mice. Here the specific research question addressed was how do bone material characteristics change at (re)modeling sites? The new bone formed in response to mechanical stimulation showed similar properties in terms of the mineral particles, like the ordered calcium region but lower calcium content compared to the right, non-loaded control bone of the same mice. There was a clear, recognizable border between mature and newly formed bone. Nevertheless, some canaliculi went through this border connecting the LCN of mature and newly formed bone. Additionally, the question should be answered whether the LCN topology and the bone matrix material properties adapt to loading. Although, mechanically stimulated bones did not show differences in calcium content compared to controls, different correlations were found between the local LCN density and the local Ca content depending on whether the bone was loaded or not. These results suggest that the LCN may serve as a mineral reservoir. For the healing model, the femurs of mice underwent an osteotomy, stabilized with an external fixator and were allowed to heal for 21 days. Thus, the spatial variations in the LCN topology with mineral properties within different tissue types and their interfaces, namely calcified cartilage, bony callus and cortex, could be simultaneously visualized and compared in this model. All tissue types showed structural differences across multiple length scales. Calcium content increased and became more homogeneous from calcified cartilage to bony callus to lamellar cortical bone. The degree of LCN organization increased as well, while the lacunae became smaller, as did the lacunar density between these different tissue types that make up the callus. In the calcified cartilage, the mineral particles were short and thin. The newly formed callus exhibited thicker mineral particles, which still had a low degree of orientation. While most of the callus had a woven-like structure, it also served as a scaffold for more lamellar tissue at the edges. The lamelar bone callus showed thinner mineral particles, but a higher degree of alignment in both, mineral particles and the LCN. The cortex showed the highest values for mineral length, thickness and degree of orientation. At the same time, the lacunae number density was 34% lower and the lacunar volume 40% smaller compared to bony callus. The transition zone between cortical and callus regions showed a continuous convergence of bone mineral properties and lacunae shape. Although only a few canaliculi connected callus and the cortical region, this indicates that communication between osteocytes of both tissues should be possible. The presented correlations between LCN architecture and mineral properties across tissue types may suggest that osteocytes have an active role in mineralization processes of healing. A mouse model for the disease marfan syndrome, which includes a genetic defect in the fibrillin-1 gene, was investigated. In humans, Marfan syndrome is characterized by a range of clinical symptoms such as long bone overgrowth, loose joints, reduced bone mineral density, compromised bone microarchitecture, and increased fracture rates. Thus, fibrillin-1 seems to play a role in the skeletal homeostasis. Therefore, the present work studied how marfan syndrome alters LCN architecture and the surrounding bone matrix. The mice with marfan syndrome showed longer tibiae than their healthy littermates from an age of seven weeks onwards. In contrast, the cortical development appeared retarded, which was observed across all measured characteristics, i. e. lower endocortical bone formation, looser and less organized lacuno-canalicular network, less collagen orientation, thinner and shorter mineral particles. In each of the three model systems, this study found that changes in the LCN architecture spatially correlated with bone matrix material parameters. While not knowing the exact mechanism, these results provide indications that osteocytes can actively manipulate a mineral reservoir located around the canaliculi to make a quickly accessible contribution to mineral homeostasis. However, this interaction is most likely not one-sided, but could be understood as an interplay between osteocytes and extra-cellular matrix, since the bone matrix contains biochemical signaling molecules (e.g. non-collagenous proteins) that can change osteocyte behavior. Bone (re)modeling can therefore not only be understood as a method for removing defects or adapting to external mechanical stimuli, but also for increasing the efficiency of possible osteocyte-mineral interactions during bone homeostasis. With these findings, it seems reasonable to consider osteocytes as a target for drug development related to bone diseases that cause changes in bone composition and mechanical properties. It will most likely require the combined effort of materials scientists, cell biologists, and molecular biologists to gain a deeper understanding of how bone cells respond to their material environment. N2 - Knochen haben eine komplexe hierarchische Struktur, die einen lebenslangen Umbauprozess durchläuft, bei dem der Knochen sich seinen mechanischen Anforderungen anpasst. Um ein gesundes und stabiles Organ zu erhalten müssen Knochenresorption (durch Osteoklasten) und Knochenbildung (durch Osteoblasten) ausgewogen sein. Osteozyten lenken dieses Wechselspiel, indem sie mechanische Belastungen wahrnehmen und sie in biochemische Signale übersetzen. Die Osteozyten sitzen in Lakunen und sind durch Kanälchen untereinander und mit anderen Knochenzellen über ein Netzwerk (LCN) verbunden, das in der Lage ist, Ionen zu transportieren und eine Kommunikation von Zelle zu Zelle zu ermöglichen. Außerdem vermutet man, dass Osteozyten auch durch direkte Wechselwirkungen mit der umgebenden Matrix zur Mineralhomöostase beitragen könnten. Im Mittelpunkt dieser Arbeit steht die Frage, ob Osteozyten ihre materielle Umgebung aktiv verändern können. Um Spuren dieser Wechselwirkung zwischen Osteozyten und der extrazellulären Matrix nachzuweisen, werden materialwissenschaftliche Charakterisierungsmethoden eingesetzt. Zunächst wurden gesunde Mäuseknochen charakterisiert. Die erworbenen Ergebnisse wurden dann mit drei murinen Modellsystemen verglichen: 1) einem Belastungsmodell; 2) ein Heilungsmodell und 3) ein Krankheitsmodell, bei dem das Fbn1-Gen dysfunktional ist und Defekte in der Bildung des extrazellulären Gewebes verursacht werden. Die Messstrategie umfasste Routinen, die es ermöglichen, die Organisation des LCN und der Materialkomponenten (d.h. die organische Kollagenmatrix und die mineralischen Partikel) in denselben Knochenvolumina zu analysieren und die räumliche Verteilung der verschiedenen Datensätze zu vergleichen. Die dreidimensionale Netzwerkarchitektur des LCN wird durch konfokale Laser-Scanning-Mikroskopie nach Rhodamin-Färbung gemessen und anschließend quantifiziert. Der Kalziumgehalt wird mittels quantitativer Rückstreuelektronenbildgebung bestimmt, während Klein- und Weitwinkel-Röntgenstreuung verwendet werden, um die Dicke und Länge der Mineralpartikel zu bestimmen. Zunächst wurden Querschnitte der Unterschenkel von gesunden Mäusen charakterisiert, um zu untersuchen, ob Veränderungen in der LCN-Architektur auf Wechselwirkungen von Osteozyten mit der umgebenden Knochenmatrix zurückgeführt werden können. Die Kortizes zeigten zwei Hauptregionen, ein Band mit ungeordneter LCN-Architektur, umgeben von einer Region mit geordneter LCN. Die ungeordnete Region ist ein Überbleibsel der frühen Knochenbildung und wies kurze und dünne Mineralpartikel auf. Der umgebende, stärker ausgerichtete Knochen zeigte ein geordnetes und dichtes LCN, sowie dickere und längere Mineralpartikel. Der Kalziumgehalt blieb bei beiden Regionen unverändert. Im Mausbelastungsmodell wurde das linke Schienbein zwei Wochen lang mechanisch stimuliert, was zu einer erhöhten Knochenbildung führt. Hier sollte die Forschungsfrage beantwortet werden, wie sich Knochenmaterialeigenschaften an (Re-)Modellierungsstellen aufgrund von Belastung ändern. Der, als Reaktion auf die mechanische Stimulation, gebildete neue Knochen zeigte ähnliche Eigenschaften in Bezug auf die Mineralpartikel, wie die geordnete Kortexregion. Es gab eine klar erkennbare Grenze zwischen reifem und neu gebildetem Knochen. Trotzdem gingen einige Kanälchen durch diese Grenze, die die LCN aus reifem und neu gebildetem Knochen verband. Für das Heilungsmodell wurden die Oberschenkel von Mäusen einer Osteotomie unterzogen (einer Operation, bei der durch einen Schnitt in der Diaphyse ein Bruch erzeugt wird). Danach konnte die Fraktur 21 Tage heilen. Dadurch konnten in diesem Modell gleichzeitig verkalkter Knorpel, knöcherner Kallus und Kortex untersucht werden. Dafür wurde die räumliche Verteilung der LCN-Topologie sowie die Mineraleigenschaften der verschiedenen Gewebetypen und ihrer Grenzflächen visualisiert und verglichen. Alle Gewebetypen zeigten strukturelle Unterschiede über mehrere Längenskalen hinweg. Der Kalziumgehalt nahm von kalzifiziertem Knorpel zu knöchernem Kallus zu lamellarem kortikalem Knochen zu und wurde homogener. Der Grad der LCN-Organisation nahm ebenfalls zu, während die Lakunen vom Kallus zum Kortexgewebe kleiner wurden, ebenso wie die Lakunendichte. Im verkalkten Knorpel waren die Mineralpartikel kurz und dünn. Der größte Teil des Kallus wies eine Geflechtsknochenstruktur auf und diente als Gerüst für lamellares Gewebe, das dünnere Mineralpartikel, aber einen höheren Grad an Ausrichtung sowohl in den Mineralpartikeln als auch im LCN aufwies. Der Kortex zeigte die höchsten Werte für Minerallänge, Dicke und Orientierungsgrad. Obwohl nur wenige Kanälchen den Kallus und kortikale Regionen verbinden, weist dies darauf hin, dass eine Kommunikation zwischen Osteozyten beider Gewebe möglich sein sollte. Es wurde auch ein Mausmodell für das Marfan-Syndrom untersucht, das einen Gendefekt im Fibrillin-1-Gen beinhaltet. Beim Menschen ist das Marfan-Syndrom durch eine Reihe klinischer Symptome gekennzeichnet, wie z. B. übermäßiges Wachstum der Gliedmaßen, überstreckbare Gelenke, verringerte Knochenmineraldichte, beeinträchtigte Knochenmikroarchitektur und erhöhte Frakturraten. Somit scheint Fibrillin-1 eine Rolle in der Skeletthomöostase zu spielen. Deswegen untersuchte die vorliegende Arbeit, ob und wie das Marfan-Syndrom die LCN-Architektur und die umgebende Knochenmatrix verändert. Die Mäuse mit Marfan-Syndrom zeigten bereits ab einem Alter von sieben Wochen längere Schienbeine als ihre gesunden Wurfgeschwister. Im Gegensatz dazu erschien die kortikale Entwicklung verzögert, was über alle gemessenen Merkmale hinweg beobachtet wurde, d.h. niedrigere endokortikale Knochenbildung, lockereres und weniger organisiertes LCN, geringerer Grad an Kollagenorientierung sowie ein Trend zu dünneren und kürzeren Mineralpartikel. In jedem der drei Modellsysteme fand diese Studie, dass Änderungen in der LCN-Architektur räumlich mit Parametern des Knochenmatrixmaterials korrelierten. Obwohl der genaue Mechanismus nicht bekannt ist, liefern diese Ergebnisse Hinweise darauf, dass Osteozyten ein Mineralreservoir aktiv manipulieren können. Dieses Reservoir befindet sich um die Kanälchen herum und dieser Prozess würde es ermöglichen, einen schnell zugänglichen Beitrag zur Mineralhomöostase zu leisten. Diese Interaktion ist jedoch höchstwahrscheinlich nicht einseitig, sondern könnte als Wechselspiel zwischen Osteozyten und extrazellulärer Matrix verstanden werden, da die Knochenmatrix biochemische Signalmoleküle enthält, die das Verhalten von Osteozyten verändern können. Knochen(re)modellierung kann daher nicht nur als Methode zur Defektbeseitigung oder Anpassung an äußere mechanische Reize verstanden werden, sondern auch zur Effizienzsteigerung möglicher Osteozyten-Mineral-Interaktionen während der Knochenhomöostase. Angesichts dieser Ergebnisse erscheint es sinnvoll, Osteozyten als Ziel für die Arzneimittelentwicklung im Zusammenhang mit Knochenerkrankungen in Betracht zu ziehen, die Veränderungen der Knochenzusammensetzung und deren mechanischen Eigenschaften verursachen. KW - bone KW - lacunae KW - mineralization KW - SAXS KW - lacuno-canalicular network KW - µCT KW - CLSM KW - konfokales Laser-Scanning-Mikroskop KW - Kleinwinkelröntgenstreuung KW - Knochen KW - Lakunen KW - lakuno-kanaliculäres Netzwerk KW - Mineralisierung KW - µCT Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559593 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Kranjc Horvat, Anja T1 - Particle physics in high-school education T1 - Teilchenphysik im Oberstufenunterricht BT - what should students and teachers learn? BT - was sollten Jugendliche und Lehrpersonen lernen? N2 - Elementary particle physics is a contemporary topic in science that is slowly being integrated into high-school education. These new implementations are challenging teachers’ professional knowledge worldwide. Therefore, physics education research is faced with two important questions, namely, how can particle physics be integrated in high-school physics curricula and how best to support teachers in enhancing their professional knowledge on particle physics. This doctoral research project set up to provide better guidelines for answering these two questions by conducting three studies on high-school particle physics education. First, an expert concept mapping study was conducted to elicit experts’ expectations on what high-school students should learn about particle physics. Overall, 13 experts in particle physics, computing, and physics education participated in 9 concept mapping rounds. The broad knowledge base of the experts ensured that the final expert concept map covers all major particle physics aspects. Specifically, the final expert concept map includes 180 concepts and examples, connected with 266 links and crosslinks. Among them are also several links to students’ prior knowledge in topics such as mechanics and thermodynamics. The high interconnectedness of the concepts shows possible opportunities for including particle physics as a context for other curricular topics. As such, the resulting expert concept map is showcased as a well-suited tool for teachers to scaffold their instructional practice. Second, a review of 27 high-school physics curricula was conducted. The review uncovered which concepts related to particle physics can be identified in most curricula. Each curriculum was reviewed by two reviewers that followed a codebook with 60 concepts related to particle physics. The analysis showed that most curricula mention cosmology, elementary particles, and charges, all of which are considered theoretical particle physics concepts. None of the experimental particle physics concepts appeared in more than half of the reviewed curricula. Additional analysis was done on two curricular subsets, namely curricula with and curricula without an explicit particle physics chapter. Curricula with an explicit particle physics chapter mention several additional explicit particle physics concepts, namely the Standard Model of particle physics, fundamental interactions, antimatter research, and particle accelerators. The latter is an example of experimental particle physics concepts. Additionally, the analysis revealed that, overall, most curricula include Nature of Science and history of physics, albeit both are typically used as context or as a tool for teaching, respectively. Third, a Delphi study was conducted to investigate stakeholders’ expectations regarding what teachers should learn in particle physics professional development programmes. Over 100 stakeholders from 41 countries represented four stakeholder groups, namely physics education researchers, research scientists, government representatives, and high-school teachers. The study resulted in a ranked list of the 13 most important topics to be included in particle physics professional development programmes. The highest-ranked topics are cosmology, the Standard Model, and real-life applications of particle physics. All stakeholder groups agreed on the overall ranking of the topics. While the highest-ranked topics are again more theoretical, stakeholders also expect teachers to learn about experimental particle physics topics, which are ranked as medium importance topics. The three studies addressed two research aims of this doctoral project. The first research aim was to explore to what extent particle physics is featured in high-school physics curricula. The comparison of the outcomes of the curricular review and the expert concept map showed that curricula cover significantly less than what experts expect high-school students to learn about particle physics. For example, most curricula do not include concepts that could be classified as experimental particle physics. However, the strong connections between the different concept show that experimental particle physics can be used as context for theoretical particle physics concepts, Nature of Science, and other curricular topics. In doing so, particle physics can be introduced in classrooms even though it is not (yet) explicitly mentioned in the respective curriculum. The second research aim was to identify which aspects of content knowledge teachers are expected to learn about particle physics. The comparison of the Delphi study results to the outcomes of the curricular review and the expert concept map showed that stakeholders generally expect teachers to enhance their school knowledge as defined by the curricula. Furthermore, teachers are also expected to enhance their deeper school knowledge by learning how to connect concepts from their school knowledge to other concepts in particle physics and beyond. As such, professional development programmes that focus on enhancing teachers’ school knowledge and deeper school knowledge best support teachers in building relevant context in their instruction. Overall, this doctoral research project reviewed the current state of high-school particle physics education and provided guidelines for future enhancements of the particle physics content in high-school student and teacher education. The outcomes of the project support further implementations of particle physics in high-school education both as explicit content and as context for other curricular topics. Furthermore, the mixed-methods approach and the outcomes of this research project lead to several implications for professional development programmes and science education research, that are discussed in the final chapters of this dissertation. N2 - Elementarteilchenphysik ist ein aktuelles naturwissenschaftliches Thema, das langsam in den Oberstufenunterricht integriert wird. Diese neuen Umsetzungen stellen das Professionswissen der Lehrpersonen weltweit infrage. Die Fachdidaktik sieht sich daher mit zwei wichtigen Fragen beschäftigt: Wie kann die Teilchenphysik in die Oberstufenlehrpläne integriert werden und wie können Lehrpersonen am besten dabei unterstützt werden, ihr Professionswissen über Teilchenphysik zu erweitern? Im Rahmen dieses Promotionsprojekts wurden drei Studien zum Unterricht von Teilchenphysik in der Oberstufe durchgeführt, um bessere Leitlinien für die Beantwortung dieser beiden Fragen zu erarbeiten. Zunächst wurde eine Concept-Mapping-Studie durchgeführt, um die Erwartungen von ExpertInnen darüber zu ermitteln, was SchülerInnen der Oberstufe über Teilchenphysik lernen sollten. Insgesamt nahmen 13 ExpertInnen aus den Bereichen Teilchenphysik, Informatik und Physikdidaktik an 9 Concept-Mapping-Runden teil. Die breite Wissensbasis der Experten stellte sicher, dass die endgültige Expert Concept Map alle wichtigen Aspekte der Teilchenphysik umspannt. Die endgültige Expert Concept Map enthält 180 Konzepte und Beispiele, die mit 266 Verbindungen und Querverweisen verknüpft sind. Darunter befinden sich auch mehrere Bezüge zum Vorwissen der SchülerInnen in Themen wie Mechanik und Thermodynamik. Die starke Vernetzung der Konzepte zeigt, dass es möglich ist, die Teilchenphysik als Kontext für andere Lehrplanthemen zu nutzen. Die so entstandene Expert Concept Map wird als geeignetes Instrument für Lehrpersonen zur Unterstützung ihrer Unterrichtspraxis vorgestellt. Zweitens wurde ein Vergleich von 27 Physiklehrplänen für die Oberstufe durchgeführt. Dabei wurde festgestellt, welche Konzepte mit Bezug zur Teilchenphysik in den meisten Lehrplänen zu finden sind. Jeder Lehrplan wurde von zwei Gutachtern mittels einer Kodieranleitung mit 60 Konzepten zur Teilchenphysik analysiert. Die Lehrplananalyse ergab, dass in den meisten Lehrplänen Kosmologie, Elementarteilchen und Ladungen erwähnt werden, die alle als theoretische Konzepte der Teilchenphysik gelten. Keines der Konzepte der experimentellen Teilchenphysik kam in mehr als der Hälfte der untersuchten Lehrpläne vor. Eine zusätzliche Analyse wurde für zwei Untergruppen von Lehrplänen durchgeführt, nämlich Lehrpläne mit und Lehrpläne ohne ein explizites Teilchenphysik-Kapitel. In Lehrplänen mit einem expliziten Teilchenphysik-Kapitel werden mehrere zusätzliche Teilchenphysik-Konzepte erwähnt, nämlich das Standardmodell der Teilchenphysik, fundamentale Wechselwirkungen, Antimaterieforschung und Teilchenbeschleuniger. Letzteres ist ein Beispiel für Konzepte der experimentellen Teilchenphysik. Darüber hinaus ergab die Analyse, dass die meisten Lehrpläne Aspekte der Nature of Science und der Geschichte der Physik enthalten, obwohl beide typischerweise als Kontext bzw. als Hilfsmittel für den Unterricht verwendet werden. Drittens wurde eine Delphi-Studie durchgeführt, um die Erwartungen von Stakeholder in Bezug darauf zu untersuchen, was Lehrpersonen in Weiterbildungsprogrammen zur Teilchenphysik lernen sollten. Über 100 Stakeholder aus 41 Ländern vertraten vier Stakeholder-Gruppen, nämlich FachdidaktikerInnen, FachwissenschaftlerInnen, RegierungsvertreterInnen und Lehrpersonen. Das Ergebnis der Studie ist eine Rangliste der 13 wichtigsten Themen, die in Fortbildungsprogrammen für Teilchenphysik behandelt werden sollten. Die am höchsten bewerteten Themen waren Kosmologie, das Standardmodell der Teilchenphysik und Anwendungen der Teilchenphysik. Alle Stakeholder-Gruppen waren sich über die Gesamtwertung der Themen einig. Während die am höchsten bewerteten Themen wiederum eher theoretischer Natur waren, erwarten die Stakeholder auch, dass Lehrpersonen etwas über experimentelle Teilchenphysik Themen lernen, die mit mittlerer Bedeutung eingestuft wurden. Mit den drei Studien wurden zwei Forschungsziele dieses Promotionsprojekts verfolgt. Das erste Forschungsziel bestand darin, zu untersuchen, inwiefern die Teilchenphysik in den Physiklehrplänen für die Oberstufe behandelt wird. Der Vergleich der Ergebnisse der Lehrplananalyse und der Expert Concept Map zeigte, dass die Lehrpläne deutlich weniger abdecken als das, was ExpertInnen von OberstufenschülerInnen über Teilchenphysik erwarten. Beispielsweise enthalten die meisten Lehrpläne keine Konzepte, die der experimentellen Teilchenphysik zugeordnet werden können. Die vielfältigen Verbindungen zwischen den verschiedenen Konzepten zeigen jedoch, dass die experimentelle Teilchenphysik als Kontext für Konzepte der theoretischen Teilchenphysik, Nature of Science und andere Lehrplanthemen verwendet werden kann. Auf diese Weise kann die Teilchenphysik im Unterricht eingeführt werden, selbst wenn diese (noch) nicht explizit im jeweiligen Lehrplan erwähnt wird. Das zweite Forschungsziel bestand darin, herauszufinden, welche Aspekte des Fachwissens Lehrpersonen über Teilchenphysik vermittelt werden sollen. Der Vergleich der Ergebnisse der Delphi-Studie mit den Resultaten der Lehrplananalyse und der Expert Concept Map zeigte, dass die Stakeholder im Allgemeinen erwarten, dass Lehrpersonen ihr Schulwissen im Sinne der Lehrpläne erweitern. Darüber hinaus wird von den Lehrpersonen erwartet, dass sie ihr Schulwissen vertiefen, indem sie lernen, wie sie Konzepte aus ihrem Schulwissen mit anderen Konzepten der Teilchenphysik verbinden können. Fortbildungsprogramme, die den Schwerpunkt auf die Verbesserung des Schulwissens und des vertieften Schulwissens der Lehrpersonen legen, unterstützen somit bestmöglich die Lehrpersonen beim Aufbau relevanter Zusammenhänge für ihren Unterricht. Insgesamt wurde im Rahmen dieses Promotionsprojekts der aktuelle Stand des Teilchenphysikunterrichts in der Oberstufe untersucht und es wurden Leitlinien für die künftige Aufwertung teilchenphysikalischer Inhalte in der Ausbildung von Jugendlichen und Lehrpersonen erarbeitet. Die Ergebnisse des Projekts unterstützen die aktuelle Einführung der Teilchenphysik im Oberstufenunterricht sowohl als expliziten Inhalt als auch als Kontext für andere Lehrplanthemen. Darüber hinaus ergeben sich aus der Methodik und den Ergebnissen dieses Forschungsprojekts mehrere Implikationen für Weiterbildungsprogramme und für die Physikdidaktik, die in den letzten Kapiteln dieser Dissertation diskutiert werden. KW - physics education KW - particle physics KW - high-school education KW - teacher professional development KW - Physik Lehramt KW - Teilchenphysik KW - Lehrerfortbildung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560260 ER - TY - GEN A1 - Wang, Wei A1 - Cherstvy, Andrey G. A1 - Metzler, Ralf A1 - Sokolov, Igor M. T1 - Restoring ergodicity of stochastically reset anomalous-diffusion processes T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - How do different reset protocols affect ergodicity of a diffusion process in single-particle-tracking experiments? We here address the problem of resetting of an arbitrary stochastic anomalous-diffusion process (ADP) from the general mathematical points of view and assess ergodicity of such reset ADPs for an arbitrary resetting protocol. The process of stochastic resetting describes the events of the instantaneous restart of a particle’s motion via randomly distributed returns to a preset initial position (or a set of those). The waiting times of such resetting events obey the Poissonian, Gamma, or more generic distributions with specified conditions regarding the existence of moments. Within these general approaches, we derive general analytical results and support them by computer simulations for the behavior of the reset mean-squared displacement (MSD), the new reset increment-MSD (iMSD), and the mean reset time-averaged MSD (TAMSD). For parental nonreset ADPs with the MSD(t)∝ tμ we find a generic behavior and a switch of the short-time growth of the reset iMSD and mean reset TAMSDs from ∝ _μ for subdiffusive to ∝ _1 for superdiffusive reset ADPs. The critical condition for a reset ADP that recovers its ergodicity is found to be more general than that for the nonequilibrium stationary state, where obviously the iMSD and the mean TAMSD are equal. The consideration of the new statistical quantifier, the iMSD—as compared to the standard MSD—restores the ergodicity of an arbitrary reset ADP in all situations when the μth moment of the waiting-time distribution of resetting events is finite. Potential applications of these new resetting results are, inter alia, in the area of biophysical and soft-matter systems. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1261 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560377 SN - 1866-8372 SP - 013161-1 EP - 013161-13 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Wang, Wei A1 - Cherstvy, Andrey G. A1 - Metzler, Ralf A1 - Sokolov, Igor M. T1 - Restoring ergodicity of stochastically reset anomalous-diffusion processes JF - Physical Review Research N2 - How do different reset protocols affect ergodicity of a diffusion process in single-particle-tracking experiments? We here address the problem of resetting of an arbitrary stochastic anomalous-diffusion process (ADP) from the general mathematical points of view and assess ergodicity of such reset ADPs for an arbitrary resetting protocol. The process of stochastic resetting describes the events of the instantaneous restart of a particle’s motion via randomly distributed returns to a preset initial position (or a set of those). The waiting times of such resetting events obey the Poissonian, Gamma, or more generic distributions with specified conditions regarding the existence of moments. Within these general approaches, we derive general analytical results and support them by computer simulations for the behavior of the reset mean-squared displacement (MSD), the new reset increment-MSD (iMSD), and the mean reset time-averaged MSD (TAMSD). For parental nonreset ADPs with the MSD(t)∝ tμ we find a generic behavior and a switch of the short-time growth of the reset iMSD and mean reset TAMSDs from ∝ _μ for subdiffusive to ∝ _1 for superdiffusive reset ADPs. The critical condition for a reset ADP that recovers its ergodicity is found to be more general than that for the nonequilibrium stationary state, where obviously the iMSD and the mean TAMSD are equal. The consideration of the new statistical quantifier, the iMSD—as compared to the standard MSD—restores the ergodicity of an arbitrary reset ADP in all situations when the μth moment of the waiting-time distribution of resetting events is finite. Potential applications of these new resetting results are, inter alia, in the area of biophysical and soft-matter systems. Y1 - 2022 U6 - https://doi.org/10.1103/PhysRevResearch.4.013161 SN - 2643-1564 VL - 4 SP - 013161-1 EP - 013161-13 PB - American Physical Society CY - College Park, Maryland, United States ET - 1 ER - TY - THES A1 - Banerjee, Abhirup T1 - Characterizing the spatio-temporal patterns of extreme events BT - from recurrence to prediction N2 - Over the past decades, there has been a growing interest in ‘extreme events’ owing to the increasing threats that climate-related extremes such as floods, heatwaves, droughts, etc., pose to society. While extreme events have diverse definitions across various disciplines, ranging from earth science to neuroscience, they are characterized mainly as dynamic occurrences within a limited time frame that impedes the normal functioning of a system. Although extreme events are rare in occurrence, it has been found in various hydro-meteorological and physiological time series (e.g., river flows, temperatures, heartbeat intervals) that they may exhibit recurrent behavior, i.e., do not end the lifetime of the system. The aim of this thesis to develop some sophisticated methods to study various properties of extreme events. One of the main challenges in analyzing such extreme event-like time series is that they have large temporal gaps due to the paucity of the number of observations of extreme events. As a result, existing time series analysis tools are usually not helpful to decode the underlying information. I use the edit distance (ED) method to analyze extreme event-like time series in their unaltered form. ED is a specific distance metric, mainly designed to measure the similarity/dissimilarity between point process-like data. I combine ED with recurrence plot techniques to identify the recurrence property of flood events in the Mississippi River in the United States. I also use recurrence quantification analysis to show the deterministic properties and serial dependency in flood events. After that, I use this non-linear similarity measure (ED) to compute the pairwise dependency in extreme precipitation event series. I incorporate the similarity measure within the framework of complex network theory to study the collective behavior of climate extremes. Under this architecture, the nodes are defined by the spatial grid points of the given spatio-temporal climate dataset. Each node is associated with a time series corresponding to the temporal evolution of the climate observation at that grid point. Finally, the network links are functions of the pairwise statistical interdependence between the nodes. Various network measures, such as degree, betweenness centrality, clustering coefficient, etc., can be used to quantify the network’s topology. We apply the methodology mentioned above to study the spatio-temporal coherence pattern of extreme rainfall events in the United States and the Ganga River basin, which reveals its relation to various climate processes and the orography of the region. The identification of precursors associated with the occurrence of extreme events in the near future is extremely important to prepare the masses for an upcoming disaster and mitigate the potential risks associated with such events. Under this motivation, I propose an in-data prediction recipe for predicting the data structures that typically occur prior to extreme events using the Echo state network, a type of Recurrent Neural Network which is a part of the reservoir computing framework. However, unlike previous works that identify precursory structures in the same variable in which extreme events are manifested (active variable), I try to predict these structures by using data from another dynamic variable (passive variable) which does not show large excursions from the nominal condition but carries imprints of these extreme events. Furthermore, my results demonstrate that the quality of prediction depends on the magnitude of events, i.e., the higher the magnitude of the extreme, the better is its predictability skill. I show quantitatively that this is because the input signals collectively form a more coherent pattern for an extreme event of higher magnitude, which enhances the efficiency of the machine to predict the forthcoming extreme events. N2 - In den letzten Jahrzehnten hat das Interesse an ‘Extremereignissen’ aufgrund der zunehmenden Bedrohung, die klimabedingte Extreme wie Überschwemmungen, Hitzewellen, Dürren usw. für die Gesellschaft darstellen, zugenommen. Obwohl Extremereignisse in verschiedenen Disziplinen - von der Geowissenschaft bis zu den Neurowissenschaften - unterschiedlich definiert werden, werden sie hauptsächlich als dynamische Ereignisse innerhalb eines begrenzten Zeitrahmens charakterisiert, die das normale Funktionieren eines Systems beeinträchtigen. Obwohl Extremereignisse selten vorkommen, wurde festgestellt, dass verschiedene hydro-meteorologische und physiologische Zeitreihen (z. B. Stromabflussmengen, Temperaturen, Herzschlagintervalle) rekurrentes Verhalten. Das heißt, sie enden nicht an der Lebensdauer des Systems. Das Ziel dieser Arbeit ist es, fortschrittliche Methoden zur Untersuchung verschiedener Eigenschaften von Extremereignissen zu entwickeln. Eine der größten Herausforderungen bei der Analyse solcher extremen Ereignisse ist, dass sie große zeitliche Lücken aufweisen, da die Anzahl beobachteter Extremereignissen gering ist. Bestehende Zeitreihenanalysetools sind daher in der Regel nicht hilfreich, um die zugrundeliegenden Informationen zu entschlüsseln. Ich verwende die Edit-Distanz (ED) Methode, um extremeereignisähnliche Zeitreihen in ihrer unveränderten Form zu analysieren. ED ist eine spezielle Abstandsmetrik, die hauptsächlich zur Messung der Ähnlichkeit/Unähnlichkeit zwischen punktprozessähnlichen Daten entwickelt wurde. Ich kombiniere ED mit Rekurrenzplots, um die Wiederkehr-Eigenschaften von Hochwasserereignissen am Mississippi in den Vereinigten Staaten zu ermitteln. Außerdem werte ich die Wiederkehr-Eigenschaften quantitativ aus, um die deterministische Charakteristik und die serielle Abhängigkeit bei Hochwasserereignissen aufzuzeigen. Anschließend verwende ich dieses nichtlineare Ähnlichkeitsmaß(ED), um die paarweise Abhängigkeit in extremen Niederschlagsereignisreihen zu berechnen. Ich verknüpfe das Ähnlichkeitsmaß mit der Theorie komplexer Netzwerke, um das kollektive Verhalten von Klimaextremen zu untersuchen. In diesem Fall werden die Knoten durch die räumlichen Gitterpunkte des zu untersuchenden raumzeitlichen Klimadatensatzes definiert. Jeder Knoten repräsentiert eine Zeitreihe, die die zeitliche Entwicklung der Klimabeobachtung an diesem Gitterpunkt beschreibt. Schließlich sind die Netzwerkverbindungen Funktionen der paarweisen statistischen Interdependenz zwischen den Knotenpunkten. Zur Quantifizierung der Netztopologie können verschiedene Netzwerkmaße wie unter anderem der Grad, die Betweenness-Zentralität, oder der Clustering-Koeffizient verwendet werden. Wir wenden die oben erwähnte Methodik an, um das raumzeitliche Kohärenzmuster extremer Niederschlagsereignisse in den Vereinigten Staaten und im Einzugsgebiet des Ganges zu untersuchen. Die Ergebnisse zeigen, dass ein Zusammenhang zwischen dem Kohärenzmuster und verschiedenen Klimaprozessen und der Orographie der Region besteht. Die Identifizierung von Vorläufern, die mit dem Auftreten von Extremereignissen in naher Zukunft verbunden sind, ist äußerst wichtig, um die Bevölkerung auf eine bevorstehende Katastrophe vorzubereiten und potenziell resultierende Risiken zu mindern. Deshalb schlage ich ein datenbasiertes Vorhersageverfahren zur Bestimmung der Datenstrukturen vor, die typischerweise vor extremen Ereignissen auftreten. Das Verfahren basiert auf dem Echo-State Netzwerk, einem rekurrenten neuronalen Netz, das dem Reservoir-Computing zugeordnet wird. Im Gegensatz zu früheren Arbeiten, die Vorläuferstrukturen in der Variablen identifizieren, in der sich Extremereignisse manifestieren (aktive Variable), versuche ich die Strukturen anhand anderer dynamischer Variablen (passive Variablen) vorherzusagen. Diese Variablen weichen selbst nicht sonderlich von ihrem eigenen Sollzustand ab, aber sie besitzen eine Aussagekraft gegenüber den Extremereignissen. Meine Ergebnisse zeigen, dass die Qualität der Vorhersage von der Magnitude der Ereignisse abhängt, d.h. je extremer ein Ereignis ist, desto besser kann es vorhergesagt werden. Ich belege quantitativ, dass dieser Zusammenhang darauf basiert, dass die gesammelten Eingangssignale aussagekräftigere Kohärenzmuster für Extremereignisse hoher Magnitude bilden. Dies erhöht die Wirksamkeit des Ansatzes bei der Vorhersage bevorstehender Extremereignisse. KW - extreme events KW - Extremereignisse KW - floods KW - extreme precipitation KW - edit distance KW - recurrence plot KW - complex network KW - echo state network KW - Überschwemmungen KW - Extremniederschläge KW - Edit-Distanz KW - Rekurrenzplot KW - komplexes Netzwerk KW - Echo-State Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559839 ER - TY - GEN A1 - Teichmann, Erik A1 - Lewandowski, Heather J. A1 - Alemani, Micol T1 - Investigating students’ views of experimental physics in German laboratory classes T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - There is a large variety of goals instructors have for laboratory courses, with different courses focusing on different subsets of goals. An often implicit, but crucial, goal is to develop students’ attitudes, views, and expectations about experimental physics to align with practicing experimental physicists. The assessment of laboratory courses upon this one dimension of learning has been intensively studied in U.S. institutions using the Colorado Learning Attitudes about Science Survey for Experimental Physics (E-CLASS). However, there is no such an instrument available to use in Germany, and the influence of laboratory courses on students views about the nature of experimental physics is still unexplored at German-speaking institutions. Motivated by the lack of an assessment tool to investigate this goal in laboratory courses at German-speaking institutions, we present a translated version of the E-CLASS adapted to the context at German-speaking institutions. We call the German version of the E-CLASS, the GE-CLASS. We describe the translation process and the creation of an automated web-based system for instructors to assess their laboratory courses. We also present first results using GE-CLASS obtained at the University of Potsdam. A first comparison between E-CLASS and GE-CLASS results shows clear differences between University of Potsdam and U.S. students’ views and beliefs about experimental physics. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1263 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560429 SN - 1866-8372 SP - 010135-1 EP - 010135-17 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Teichmann, Erik A1 - Lewandowski, Heather J. A1 - Alemani, Micol T1 - Investigating students’ views of experimental physics in German laboratory classes JF - Physical Review Physics Education Research N2 - There is a large variety of goals instructors have for laboratory courses, with different courses focusing on different subsets of goals. An often implicit, but crucial, goal is to develop students’ attitudes, views, and expectations about experimental physics to align with practicing experimental physicists. The assessment of laboratory courses upon this one dimension of learning has been intensively studied in U.S. institutions using the Colorado Learning Attitudes about Science Survey for Experimental Physics (E-CLASS). However, there is no such an instrument available to use in Germany, and the influence of laboratory courses on students views about the nature of experimental physics is still unexplored at German-speaking institutions. Motivated by the lack of an assessment tool to investigate this goal in laboratory courses at German-speaking institutions, we present a translated version of the E-CLASS adapted to the context at German-speaking institutions. We call the German version of the E-CLASS, the GE-CLASS. We describe the translation process and the creation of an automated web-based system for instructors to assess their laboratory courses. We also present first results using GE-CLASS obtained at the University of Potsdam. A first comparison between E-CLASS and GE-CLASS results shows clear differences between University of Potsdam and U.S. students’ views and beliefs about experimental physics. Y1 - 2022 U6 - https://doi.org/10.1103/PhysRevPhysEducRes.18.010135 SN - 1554-9178 VL - 18 SP - 010135-1 EP - 010135-17 PB - APS CY - College Park, Maryland, United States ET - 1 ER - TY - GEN A1 - Xu, Pengbo A1 - Zhou, Tian A1 - Metzler, Ralf A1 - Deng, Weihua T1 - Stochastic harmonic trapping of a Lévy walk: transport and first-passage dynamics under soft resetting strategies T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - We introduce and study a Lévy walk (LW) model of particle spreading with a finite propagation speed combined with soft resets, stochastically occurring periods in which an harmonic external potential is switched on and forces the particle towards a specific position. Soft resets avoid instantaneous relocation of particles that in certain physical settings may be considered unphysical. Moreover, soft resets do not have a specific resetting point but lead the particle towards a resetting point by a restoring Hookean force. Depending on the exact choice for the LW waiting time density and the probability density of the periods when the harmonic potential is switched on, we demonstrate a rich emerging response behaviour including ballistic motion and superdiffusion. When the confinement periods of the soft-reset events are dominant, we observe a particle localisation with an associated non-equilibrium steady state. In this case the stationary particle probability density function turns out to acquire multimodal states. Our derivations are based on Markov chain ideas and LWs with multiple internal states, an approach that may be useful and flexible for the investigation of other generalised random walks with soft and hard resets. The spreading efficiency of soft-rest LWs is characterised by the first-passage time statistic. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1262 KW - diffusion KW - anomalous diffusion KW - stochastic resetting KW - Levy walks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560402 SN - 1866-8372 SP - 1 EP - 28 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Xu, Pengbo A1 - Zhou, Tian A1 - Metzler, Ralf A1 - Deng, Weihua T1 - Stochastic harmonic trapping of a Lévy walk BT - transport and first-passage dynamics under soft resetting strategies JF - New journal of physics : the open-access journal for physics / Deutsche Physikalische Gesellschaft ; IOP, Institute of Physics N2 - We introduce and study a Lévy walk (LW) model of particle spreading with a finite propagation speed combined with soft resets, stochastically occurring periods in which an harmonic external potential is switched on and forces the particle towards a specific position. Soft resets avoid instantaneous relocation of particles that in certain physical settings may be considered unphysical. Moreover, soft resets do not have a specific resetting point but lead the particle towards a resetting point by a restoring Hookean force. Depending on the exact choice for the LW waiting time density and the probability density of the periods when the harmonic potential is switched on, we demonstrate a rich emerging response behaviour including ballistic motion and superdiffusion. When the confinement periods of the soft-reset events are dominant, we observe a particle localisation with an associated non-equilibrium steady state. In this case the stationary particle probability density function turns out to acquire multimodal states. Our derivations are based on Markov chain ideas and LWs with multiple internal states, an approach that may be useful and flexible for the investigation of other generalised random walks with soft and hard resets. The spreading efficiency of soft-rest LWs is characterised by the first-passage time statistic. KW - diffusion KW - anomalous diffusion KW - stochastic resetting KW - Levy walks Y1 - 2022 U6 - https://doi.org/10.1088/1367-2630/ac5282 SN - 1367-2630 VL - 24 IS - 3 SP - 1 EP - 28 PB - Deutsche Physikalische Gesellschaft CY - Bad Honnef ER - TY - THES A1 - Nayak, Abani Shankar T1 - Design, Characterization and On-sky Testing of an Integrated Optics Device for Stellar Interferometry: from Pupil Remappers to Discrete Beam Combiner T1 - Entwicklung, Charakterisierung und Erprobung einer integrierten, optischen Vorrichtung für die stellare Interferometrie: von Pupil Remappers zum diskreten Strahlkombinierer N2 - Stellar interferometry is the only method in observational astronomy for obtaining the highest resolution images of astronomical targets. This method is based on combining light from two or more separate telescopes to obtain the complex visibility that contains information about the brightness distribution of an astronomical source. The applications of stellar interferometry have made significant contributions in the exciting research areas of astronomy and astrophysics, including the precise measurement of stellar diameters, imaging of stellar surfaces, observations of circumstellar disks around young stellar objects, predictions of Einstein's General relativity at the galactic center, and the direct search for exoplanets to name a few. One important related technique is aperture masking interferometry, pioneered in the 1960s, which uses a mask with holes at the re-imaged pupil of the telescope, where the light from the holes is combined using the principle of stellar interferometry. While this can increase the resolution, it comes with a disadvantage. Due to the finite size of the holes, the majority of the starlight (typically > 80 %) is lost at the mask, thus limiting the signal-to-noise ratio (SNR) of the output images. This restriction of aperture masking only to the bright targets can be avoided using pupil remapping interferometry - a technique combining aperture masking interferometry and advances in photonic technologies using single-mode fibers. Due to the inherent spatial filtering properties, the single-mode fibers can be placed at the focal plane of the re-imaged pupil, allowing the utilization of the whole pupil of the telescope to produce a high-dynamic range along with high-resolution images. Thus, pupil remapping interferometry is one of the most promising application areas in the emerging field of astrophotonics. At the heart of an interferometric facility, a beam combiner exists whose primary function is to combine light to obtain high-contrast fringes. A beam combiner can be as simple as a beam splitter or an anamorphic lens to combine light from 2 apertures (or telescopes) or as complex as a cascade of beam splitters and lenses to combine light for > 2 apertures. However, with the field of astrophotonics, interferometric facilities across the globe are increasingly employing some form of photonics technologies by using single-mode fibers or integrated optics (IO) chips as an efficient way to combine light from several apertures. The state-of-the-art instrument - GRAVITY at the very large telescope interferometer (VLTI) facility uses an IO-based beam combiner device reaching visibilities accuracy of better than < 0.25 %, which is roughly 50× as precise as a few decades back. Therefore, in the context of IO-based components for applications in stellar interferometry, this Thesis describes the work towards the development of a 3-dimensional (3-D) IO device - a monolithic astrophotonics component containing both the pupil remappers and a discrete beam combiner (DBC). In this work, the pupil remappers are 3-D single-mode waveguides in a glass substrate collecting light from the re-imaged pupil of the telescope and feeding the light to a DBC, where the combination takes place. The DBC is a lattice of 3-D single-mode waveguides, which interact through evanescent coupling. By observing the output power of single-mode waveguides of the DBC, the visibilities are retrieved by using a calibrated transfer matrix ({U}) of the device. The feasibility of the DBC in retrieving the visibilities theoretically and experimentally had already been studied in the literature but was only limited to laboratory tests with monochromatic light sources. Thus, a part of this work extends these studies by investigating the response of a 4-input DBC to a broad-band light source. Hence, the objectives of this Thesis are the following: 1) Design an IO device for broad-band light operation such that accurate and precise visibilities could be retrieved experimentally at astronomical H-band (1.5-1.65 μm), and 2) Validation of the DBC as a possible beam combination scheme for future interferometric facilities through on-sky testing at the William Herschel Telescope (WHT). This work consisted of designing three different 3-D IO devices. One of the popular methods for fabricating 3-D photonic components in a glass substrate is ultra-fast laser inscription (ULI). Thus, manufacturing of the designed devices was outsourced to Politecnico di Milano as part of an iterative fabrication process using their state-of-the-art ULI facility. The devices were then characterized using a 2-beam Michelson interferometric setup obtaining both the monochromatic and polychromatic visibilities. The retrieved visibilities for all devices were in good agreement as predicted by the simulation results of a DBC, which confirms both the repeatability of the ULI process and the stability of the Michelson setup, thus fulfilling the first objective. The best-performing device was then selected for the pupil-remapping of the WHT using a different optical setup consisting of a deformable mirror and a microlens array. The device successfully collected stellar photons from Vega and Altair. The visibilities were retrieved using a previously calibrated {U} but showed significant deviations from the expected results. Based on the analysis of comparable simulations, it was found that such deviations were primarily caused by the limited SNR of the stellar observations, thus constituting a first step towards the fulfillment of the second objective. N2 - Das Auflösungsvermögen eines Teleskops, also die Fähigkeit, zwei Punktquellen voneinander zu trennen, wird durch ~λ/A bestimmt, wobei λ die Wellenlänge des Lichts und A der Durchmesser des Hauptspiegels des Teleskops ist. Wenn bei einem gegebenen Teleskop zwei punktförmige Objekte durch <λ/A getrennt sind, kann kein eindeutiges Bild dieser Objekte erzeugt werden und das Teleskopsystem ist somit beugungsbegrenzt. Kombiniert man jedoch das Licht von zwei Teleskopen, die durch einen Abstand B voneinander getrennt sind, erhöht sich die Auflösung um einen Faktor ~2B/A und überwindet damit die Beugungsgrenze eines einzelnen Teleskops. Daher wird bei der stellaren Interferometrie - deren Konzept von Michelson in den 1920er Jahren entwickelte wurde - Licht von zwei oder mehr Teleskopen kombiniert, um hochauflösende Bilder von astronomischen Objekten zu erzeugen. Die Anwendung der stellaren Interferometrie hat wichtige Beiträge zur Astronomie und Astrophysik geleistet, von der Untersuchung grundlegender Eigenschaften von Sternen bis hin zur Abbildung extragalaktischer Objekte. Das Herzstück einer interferometrischen Anlage ist ein Strahlkombinierer, der das Licht von mehreren Teleskopen (oder Aperturen) kombiniert, um kontrastreiche Interferenzstreifen zu erhalten. In der Anfangszeit konnte ein Strahlkombinierer ganz einfach sein, wie z.B. ein Strahlteiler oder eine anamorphotische Linse für die Kombination des Lichts von 2 Aperturen (oder Teleskopen), oder sehr komplex, wie z.B. eine Kaskade von Strahlteilern und Linsen, um Licht für >2 Aperturen zu kombinieren. Mit dem aufkommenden Gebiet der Astrophotonik setzen interferometrische Einrichtungen jedoch vermehrt photonische Technologien ein, indem Einzelmoden-Fasern oder ein Chip mit integrierter Optik (IO) verwendet werden, um Licht aus mehreren Aperturen effizient zu kombinieren. Bei der sogenannten pupil remapping interferometry Technik (dt etwa: neugeordnete Pupille) wird beispielsweise Licht mit mehreren Einzelmoden-Wellenleitern auf einem IO-Chip gesammelt. Diese Komponenten werden an der Position im Strahlengang eingefügt, an der die Pupille des Teleskops abgebildet wird. Anschließend wird das Licht aus den Fasern oder Wellenleitern durch eine Freistrahloptik oder IO-basierte Komponente interferometrisch überlagert, um Bilder sowohl mit hohem Kontrast als auch hoher Auflösung zu erzeugen. Im Kontext von IO-basierten Komponenten für stellare Interferometrie ist das Ziel dieser Arbeit die Entwicklung eines 3-dimensionalen (3-D) IO-Bauteils - eine monolithische Astrophotonik-Komponente, die sowohl die Pupil Remapper als auch einen discrete beam combiner (DBC) (dt: Diskreten Strahlkombinierer ) enthält. In dieser Arbeit sind die Pupil Remapper 3-D Einzelmoden-Wellenleiter, die in ein Glassubstrat eingeschrieben sind und das Licht von der abgebildeten Pupille des Teleskops sammeln und zu einem DBC leiten, in dem die Kombination stattfindet. Der DBC ist eine 3-D Gitteranordnung von Einzelmoden-Wellenleitern, die durch evaneszente Kopplung miteinander wechselwirken. Durch Beobachtung der Ausgangsleistung der Einzelmoden-Wellenleiter des DBCs werden mit Hilfe einer kalibrierten Übertragungsmatrix des Systems die Visibilities (dt: Kontrastwerte) ermittelt, die für eine hochauflösende Bildgebung erforderlich sind. Die Eignung von DBCs für die Ermittlung der Kontrastwerte wurde sowohl theoretisch als auch experimentell untersucht und in Fachzeitschriften publiziert. Bisher beschränkten sich diese Untersuchungen jedoch auf Labortests mit monochromatischen Lichtquellen. Die Ziele dieser Arbeit sind daher die folgenden: 1) Die Entwicklung eines IO-Bauteils für die Anwendung mit breitbandigem Licht, so dass Kontrastwerte im astronomischen H-Band (1,5-1,65 μm) ermittelt werden können, 2) experimentelle Demonstration genauer und präziser Kontrastwerte mit dem IO-Bauteil, welches mit der Femtosekundenlaser-Bearbeitungsmethode hergestellt wird, und 3) Validierung des DBCs als mögliches Konzept für die Strahlkombination für zukünftige interferometrische Anlagen durch On-Sky-Tests am William Herschel Teleskop. KW - stellar interferometry KW - ultra-fast laser inscription technology KW - astrophotonics KW - discrete beam cominer KW - pupil remappers KW - visibility KW - integrated optics KW - William Herschel telescope KW - on-sky tests KW - stellare Interferometrie KW - Femtosekundenlaser-Bearbeitungsmethode KW - Astrophotonik KW - diskreter Strahlkombinierer KW - Pupil Remapper KW - Kontrastwerte KW - integrierte Optik KW - William Herschel Teleskop KW - On-Sky-Tests Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558743 ER - TY - THES A1 - Lever, Fabiano T1 - Probing the ultrafast dynamics of 2-Thiouracil with soft x-rays T1 - Untersuchung der ultraschnellen Dynamik von 2-Thiouracil mit weicher Röntgenstrahlung N2 - Understanding the changes that follow UV-excitation in thionucleobases is of great importance for the study of light-induced DNA lesions and, in a broader context, for their applications in medicine and biochemistry. Their ultrafast photophysical reactions can alter the chemical structure of DNA - leading to damages to the genetic code - as proven by the increased skin cancer risk observed for patients treated with thiouracil for its immunosuppressant properties. In this thesis, I present four research papers that result from an investigation of the ultrafast dynamics of 2-thiouracil by means of ultrafast x-ray probing combined with electron spectroscopy. A molecular jet in the gas phase is excited with a uv pulse and then ionized with x-ray radiation from a Free Electron Laser. The kinetic energy of the emitted electrons is measured in a magnetic bottle spectrometer. The spectra of the measured photo and Auger electrons are used to derive a picture of the changes in the geometrical and electronic configurations. The results allow us to look at the dynamical processes from a new perspective, thanks to the element- and site- sensitivity of x-rays. The custom-built URSA-PQ apparatus used in the experiment is described. It has been commissioned and used at the FL24 beamline of the FLASH2 FEL, showing an electron kinetic energy resolution of ∆E/E ~ 40 and a pump-probe timing resolution of 190 f s. X-ray only photoelectron and Auger spectra of 2-thiouracil are extracted from the data and used as reference. Photoelectrons following the formation a 2p core hole are identified, as well as resonant and non-resonant Auger electrons. At the L 1 edge, Coster-Kronig decay is observed from the 2s core hole. The UV-induced changes in the 2p photoline allow the study the electronic-state dynamics. With the use of an Excited-State Chemical Shift (ESCS) model, we observe a ultrafast ground-state relaxation within 250 f s. Furthermore, an oscillation with a 250 f s period is observed in the 2p binding energy, showing a coherent population exchange between electronic states. Auger electrons from the 2p core hole are analyzed and used to deduce a ultrafast C −S bond expansion on a sub 100 f s scale. A simple Coulomb-model, coupled to quantum chemical calculations, can be used to infer the geometrical changes in the molecular structure. N2 - Das Verständnis von lichtinduzierten, molekularen Prozessen ist über die Physik hinaus in einem breiten Kondext für Medizin und Biochemie relevant. Die ultraschnellen, photophysikalischen Reaktionen mancher Moleküle können die chemische Struktur von DNA verändern und somit genetischen Code schädigen. So führt zum Beispiel die UV-Anregung von Thionukleobasen zu Läsionen der DNA in den Zellen. Dementsprechend zeigen Patienten ein erhöhtes Hautkrebsrisiko, wenn sie im Rahmen einer immunsuppressiven Therapie mit Thiouracil behandelt werden. In dieser Dissertation stelle ich vier Forschungsarbeiten vor, in denen die ultraschnellen, intramolekularen Dynamiken von 2-Thiouracil mittels ultraschneller Anregungs-Abfrage(Pump-Probe)-Röntgenelektronenspektroskopie untersucht werden. Die relevanten molekularen Dynamiken werden stark durch das Schwefelatom des Thiouracils beeinflusst. Die Element- und Ortsempfindlichkeit der verwendeten Röntgenstrahlung erlauben es, diese Prozesse experimentell zu untersuchen. Dafür werden 2-Thiouracil-Moleküle thermisch in einem Molekularstrahl in die Gasphase freigesetzt. Nachdem die Moleküle mit einem UV-Puls angeregt wurden, erfolgt zeitversetzt die Abfrage mit einem Röntgenpuls, der die Moleküle ionisiert. Die kinetische Energie der emittierten Photo- und Augerelektronen wird mit einem Elektronenspektrometer vom Typ ‘Magnetische Flasche’ gemessen. Die Energiespektren dieser Elektronen werden verwendet, um ein Modell von den UV-lichtinduzierten Veränderungen der geometrischen und elektronischen Konfigurationen der Moleküle zu erhalten. Für diese Experimente wird erstmalig eine speziell angefertigte Apparatur namens URSA-PQ verwendet und beschrieben. Sie wurde an der Beamline FL24 des Freie Elektronenlaser (FEL) FLASH2 in Betrieb genommen und verwendet. Aus den Daten werden reine Röntgenphoto- und Augerelektronenspektren des Schwefelatoms von 2-Thiouracil extrahiert und als Referenz verwendet. Die 2p- Photoelektronen werden identifiziert, ebenso wie resonante und nicht-resonante Augerelektronen, die bei dem Zerfall des 2p-Kernlochs entstehen. Die UV-induzierten Veränderungen der 2p-Photolinie ermöglichen es, die Dynamik des elektronischen Zustands zu untersuchen. Unter Verwendung eines ESCS-Modells (Excited-State Chemical Shift) beobachten wir eine ultraschnelle Grundzustandsrelaxation innerhalb von 250 f s. Auger-Elektronen aus dem Zerfall des 2p-Kernlochs im UV-angeregten 2-Thiouracil werden ebenfalls analysiert. Die Änderung ihrer kinetischen Energie deutet auf eine ultraschnelle C − S-Bindungsexpansion auf einer Skala von unter 100 f s hin. Ein einfaches Coulomb-Modell, gekoppelt mit quantenchemischen Berechnungen, kann die geometrischen Veränderungen in der Molekülstruktur erklären. KW - Quantum KW - x-ray KW - photoelectron spectroscopy KW - thiouracil KW - nucleobases KW - Free Electron Laser KW - ultrafast KW - conical intersection KW - molecular dynamics KW - Freie-Elektronen-Laser KW - Quantum KW - konische Kreuzung KW - Molekulardynamik KW - Nukleobasen KW - Photoelektronenspektroskopie KW - Thiouracil KW - ultraschnell KW - Röntgenspektroskopie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555230 ER - TY - THES A1 - Perdigón-Toro, Lorena T1 - On the Generation and Fate of Free Carriers in Non-Fullerene Acceptor Organic Solar Cells N2 - Organic solar cells offer an efficient and cost-effective alternative for solar energy harvesting. This type of photovoltaic cell typically consists of a blend of two organic semiconductors, an electron donating polymer and a low molecular weight electron acceptor to create what is known as a bulk heterojunction (BHJ) morphology. Traditionally, fullerene-based acceptors have been used for this purpose. In recent years, the development of new acceptor molecules, so-called non-fullerene acceptors (NFA), has breathed new life into organic solar cell research, enabling record efficiencies close to 19%. Today, NFA-based solar cells are approaching their inorganic competitors in terms of photocurrent generation, but lag in terms of open circuit voltage (V_OC). Interestingly, the V_OC of these cells benefits from small offsets of orbital energies at the donor-NFA interface, although previous knowledge considered large energy offsets to be critical for efficient charge carrier generation. In addition, there are several other electronic and structural features that distinguish NFAs from fullerenes. My thesis focuses on understanding the interplay between the unique attributes of NFAs and the physical processes occurring in solar cells. By combining various experimental techniques with drift-diffusion simulations, the generation of free charge carriers as well as their recombination in state-of-the-art NFA-based solar cells is characterized. For this purpose, solar cells based on the donor polymer PM6 and the NFA Y6 have been investigated. The generation of free charge carriers in PM6:Y6 is efficient and independent of electric field and excitation energy. Temperature-dependent measurements show a very low activation energy for photocurrent generation (about 6 meV), indicating barrierless charge carrier separation. Theoretical modeling suggests that Y6 molecules have large quadrupole moments, leading to band bending at the donor-acceptor interface and thereby reducing the electrostatic Coulomb dissociation barrier. In this regard, this work identifies poor extraction of free charges in competition with nongeminate recombination as a dominant loss process in PM6:Y6 devices. Subsequently, the spectral characteristics of PM6:Y6 solar cells were investigated with respect to the dominant process of charge carrier recombination. It was found that the photon emission under open-circuit conditions can be almost entirely attributed to the occupation and recombination of Y6 singlet excitons. Nevertheless, the recombination pathway via the singlet state contributes only 1% to the total recombination, which is dominated by the charge transfer state (CT-state) at the donor-acceptor interface. Further V_OC gains can therefore only be expected if the density and/or recombination rate of these CT-states can be significantly reduced. Finally, the role of energetic disorder in NFA solar cells is investigated by comparing Y6 with a structurally related derivative, named N4. Layer morphology studies combined with temperature-dependent charge transport experiments show significantly lower structural and energetic disorder in the case of the PM6:Y6 blend. For both PM6:Y6 and PM6:N4, disorder determines the maximum achievable V_OC, with PM6:Y6 benefiting from improved morphological order. Overall, the obtained findings point to avenues for the realization of NFA-based solar cells with even smaller V_OC losses. Further reduction of nongeminate recombination and energetic disorder should result in organic solar cells with efficiencies above 20% in the future. N2 - Organische Solarzellen bieten eine effiziente und kostengünstige Alternative für die Nutzung von Sonnenenergie. Bei dieser Art von Photovoltaikzellen werden in der Regel zwei organische Halbleiter, ein elektronenspendendes Polymer und ein niedermolekularer Elektronenakzeptor gemischt, um eine sogenannte „Bulk-Heterojunction“ (BHJ)-Morphologie zu erzeugen. Traditionell wurden hierfür Fulleren-basierte Akzeptoren verwendet. In den letzten Jahren hat die Entwicklung neuer Akzeptor-Moleküle, so genannter Nicht-Fulleren-Akzeptoren (NFA), der organischen Solarzellenforschung neues Leben eingehaucht und damit Rekordwirkungsgrade >19 % ermöglicht. Heutzutage nähern sich NFA-basierte Solarzellen ihren anorganischen Konkurrenten bezüglich der Photostromerzeugung an, nicht jedoch im Hinblick auf die Leerlaufspannung (V_OC). Interessanterweise profitiert der V_OC dieser Zellen von kleinen Offsets der Orbitalenergien an der Donor-NFA-Grenzfläche, obwohl nach bisherigem Wissen große Energieoffsets als entscheidend für die effiziente Ladungsträgergenerierung an der Heterogrenzfläche galten. Darüber hinaus gibt es eine Reihe weiterer elektronischer und struktureller Merkmale, die NFAs von Fullerenen unterscheiden. Meine Dissertation konzentriert sich auf ein tiefgreifendes Verständnis des Zusammenspiels der einzigartigen Eigenschaften von NFAs und den physikalischen Prozessen in daraus hergestellten Solarzellen. Durch die Kombination verschiedener experimenteller Techniken mit Drift-Diffusions-Simulationen wird die Erzeugung freier Ladungsträger sowie deren Rekombination in modernen NFA-basierten Solarzellen charakterisiert. Zu diesem Zweck wurden Solarzellen auf Basis des Donor-Polymers PM6 und des NFA Y6 untersucht. Die Erzeugung freier Ladungsträger in PM6:Y6 erweist sich dabei als effizient und unabhängig von elektrischem Feld und Anregungsenergie. Temperaturabhängige Messungen zeigen eine sehr geringe Aktivierungsenergie für die Photostromerzeugung (ca. 6 meV), was auf eine barrierefreie Ladungsträgertrennung hinweist. Theoretische Modellierungen legen nahe, dass Y6-Moleküle große Quadrupolmomente aufweisen, was zu einer Bandverbiegung an der Donor-Akzeptor-Grenzfläche führt und dabei die elektrostatische Coulombsch-Dissoziationsbarriere reduziert. In dieser Hinsicht identifiziert diese Arbeit die schlechte Extraktion freier Ladungen in Konkurrenz zur „nongeminalen“ Rekombination als einen dominanten Verlustprozess in PM6:Y6 Zellen. In weiterer Folge wurden die spektralen Eigenschaften von PM6:Y6-Solarzellen im Hinblick auf den dominanten Prozess der Ladungsträgergenerierung und rekombination untersucht. Es zeigte sich, dass die Photonenemission unter Leerlaufbedingungen fast vollständig auf die Besetzung und Rekombination von Y6-Singlet-Exzitonen zurückgeführt werden kann. Trotzdem trägt der Rekombinationspfad über den Singlett-Zustand nur zu 1 % zur gesamten Rekombination bei, die über den Ladungstransfer-Zustand (CT-state) an der Donor-Akzeptor-Grenzfläche dominiert wird. Weitere V_OC Gewinne sind daher nur zu erwarten, wenn die Dichte und/oder die Rekombinationsrate dieser CT-Zustände erheblich reduziert werden kann. Schließlich wird die Rolle der energetischen Unordnung in NFA-Solarzellen durch den Vergleich von Y6 mit einem strukturverwandten Derivat, genannt N4, untersucht. Untersuchungen zur Schichtmorphologie in Kombination mit Experimenten zum temperaturabhängigen Ladungstransport zeigen eine deutlich geringere strukturelle und energetische Unordnung im Fall des PM6:Y6 Blends. Sowohl für PM6:Y6 als auch für PM6:N4 bestimmt die Unordnung den maximal erreichbaren V_OC, wobei PM6:Y6 von der verbesserten morphologischen Ordnung profitiert. Insgesamt weisen die gewonnenen Erkenntnisse Wege für die Realisierung von NFA-basierten Solarzellen mit noch kleineren V_OC-Verlusten auf. Durch die weitere Reduzierung der „nongeminaten“ Rekombination als auch der energetischen Unordnung sollten in Zukunft organische Solarzellen mit einem Wirkungsgrad von über 20 % möglich werden. T2 - Über die Photogenerierung und Rekombination freier Ladungsträger in organischen Solarzellen mit Nicht-Fulleren-Akzeptoren KW - organic solar cells KW - non-fullerene acceptors KW - free charge generation KW - free charge recombination KW - energetic disorder KW - organic semiconductors KW - energetische Unordnung KW - Generierung freier Ladungsträger KW - freie Ladungsträger Rekombination KW - Nicht-Fulleren-Akzeptoren KW - organische Halbleiter KW - organische Solarzellen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558072 ER - TY - THES A1 - Kuhla, Kilian T1 - Impact, distribution, and adaptation T1 - Auswirkung, Verteilung und Anpassung BT - how weather extremes threaten the economic network BT - wie Wetterextreme das ökonomische Netzwerk bedrohen N2 - Weather extremes pose a persistent threat to society on multiple layers. Besides an average of ~37,000 deaths per year, climate-related disasters cause destroyed properties and impaired economic activities, eroding people's livelihoods and prosperity. While global temperature rises – caused by anthropogenic greenhouse gas emissions – the direct impacts of climatic extreme events increase and will further intensify without proper adaptation measures. Additionally, weather extremes do not only have local direct effects. Resulting economic repercussions can propagate either upstream or downstream along trade chains causing indirect effects. One approach to analyze these indirect effects within the complex global supply network is the agent-based model Acclimate. Using and extending this loss-propagation model, I focus in this thesis on three aspects of the relation between weather extremes and economic repercussions. First, extreme weather events cause direct impacts on local economic performance. I compute daily local direct output loss time series of heat stress, river floods, tropical cyclones, and their consecutive occurrence using (near-future) climate projection ensembles. These regional impacts are estimated based on physical drivers and local productivity distribution. Direct effects of the aforementioned disaster categories are widely heterogeneous concerning regional and temporal distribution. As well, their intensity changes differently under future warming. Focusing on the hurricane-impacted capital, I find that long-term growth losses increase with higher heterogeneity of a shock ensemble. Second, repercussions are sectorally and regionally distributed via economic ripples within the trading network, causing higher-order effects. I use Acclimate to identify three phases of those economic ripples. Furthermore, I compute indirect impacts and analyze overall regional and global production and consumption changes. Regarding heat stress, global consumer losses double while direct output losses increase by a factor 1.5 between 2000 – 2039. In my research I identify the effect of economic ripple resonance and introduce it to climate impact research. This effect occurs if economic ripples of consecutive disasters overlap, which increases economic responses such as an enhancement of consumption losses. These loss enhancements can even be more amplified with increasing direct output losses, e.g. caused by climate crises. Transport disruptions can cause economic repercussions as well. For this, I extend the model Acclimate with a geographical transportation route and expand the decision horizon of economic agents. Using this, I show that policy-induced sudden trade restrictions (e.g. a no-deal Brexit) can significantly reduce the longer-term economic prosperity of affected regions. Analyses of transportation disruptions in typhoon seasons indicate that severely affected regions must reduce production as demand falls during a storm. Substituting suppliers may compensate for fluctuations at the beginning of the storm, which fails for prolonged disruptions. Third, possible coping mechanisms and adaptation strategies arise from direct and indirect economic responses to weather extremes. Analyzing annual trade changes due to typhoon-induced transport disruptions depict that overall exports rise. This trade resilience increases with higher network node diversification. Further, my research shows that a basic insurance scheme may diminish hurricane-induced long-term growth losses due to faster reconstruction in disasters aftermaths. I find that insurance coverage could be an economically reasonable coping scheme towards higher losses caused by the climate crisis. Indirect effects within the global economic network from weather extremes indicate further adaptation possibilities. For one, diversifying linkages reduce the hazard of sharp price increases. Next to this, close economic interconnections with regions that do not share the same extreme weather season can be economically beneficial in the medium run. Furthermore, economic ripple resonance effects should be considered while computing costs. Overall, an increase in local adaptation measures reduces economic ripples within the trade network and possible losses elsewhere. In conclusion, adaptation measures are necessary and potential present, but it seems rather not possible to avoid all direct or indirect losses. As I show in this thesis, dynamical modeling gives valuable insights into how direct and indirect economic impacts arise from different categories of weather extremes. Further, it highlights the importance of resolving individual extremes and reflecting amplifying effects caused by incomplete recovery or consecutive disasters. N2 - Wetterextreme stellen für die Gesellschaft eine anhaltende Bedrohung auf mehreren Ebenen dar. Neben durchschnittlich ~37.000 Todesfällen pro Jahr verursachen meteorologische Katastrophen Eigentumsschäden und Wirtschaftsbeeinträchtigungen, wodurch die Lebensgrundlagen und der Wohlstand der Menschen untergraben werden. Während die globale Temperatur – verursacht durch anthropogene Treibhausgasemissionen – ansteigt, nehmen die direkten Auswirkungen klimatischer Extremereignisse zu und werden sich ohne geeignete Anpassungsmaßnahmen weiter verstärken. Hinzu kommt, dass Wetterextreme nicht nur lokal direkte Schäden anrichten, sondern sich wetterbedingte wirtschaftliche Auswirkungen auch entlang der Handelsketten ausbreiten und so indirekte Effekte nach sich ziehen. Ein Ansatz zur Analyse dieser indirekten Auswirkungen innerhalb des komplexen globalen Versorgungsnetzes ist das agentenbasierte Modell Acclimate. In meiner Dissertation verwende und erweitere ich dieses Schadenspropagationsmodell, um drei Aspekte der Beziehung zwischen Wetterextremen und wirtschaftlichen Auswirkungen zu untersuchen. Erstens verursachen extreme Wetterereignisse direkte Schäden in lokaler Wirtschaftsleistung. Die regionalen Auswirkungen werden auf der Grundlage von physikalischen Faktoren und lokalen Produktivitätsverteilungen kalkuliert. Ich berechne tägliche Zeitreihen lokaler Produktionsverluste durch Hitzestress, Überschwemmungen, tropische Wirbelstürme und deren konsekutives Auftreten unter Verwendung von Klimaprojektionsensembles. Die direkten Auswirkungen der oben genannten Katastrophenkategorien sind sehr heterogen in Bezug auf die regionale und zeitliche Verteilung. Ebenso ändert sich ihre Stärke unterschiedlich unter zukünftiger Erwärmung. Meine Forschungsergebnisse zeigen, dass Kapitalstock, welcher von Wirbelstürmen beschädigt ist, langfristige Wachstumsverluste verursacht. Dabei nehmen die Verluste zu, wenn die Heterogenität der Schocks steigt. Zweitens werden die wetterbedingten Auswirkungen durch wirtschaftliche Wellen innerhalb des Handelsnetzes auf verschiedene Wirtschaftssektoren und Regionen verteilt. In meiner Dissertation, untersuche ich die wirtschaftlichen Wellen mittels Acclimate und mache dabei drei Wellenphasen aus. Darüber hinaus berechne ich indirekte Auswirkungen und analysiere die regionalen und globalen Produktionsveränderungen sowie die Auswirkungen auf Konsumierende. Für letztere verdoppeln sich zwischen 2000 und 2039 die weltweiten Verluste durch Hitzestress, während im selben Zeitraum die direkten Produktionsverluste nur um den Faktor 1.5 steigen. Im Zuge meiner Forschung identifiziere ich den Effekt der ökonomischen Wellenresonanz und führe ihn in die Klimafolgenforschung ein. Dieser Effekt tritt auf, wenn sich die ökonomischen Wellen aufeinanderfolgender Katastrophen überlagern, was wirtschaftliche Reaktionen intensiviert wie beispielsweise eine Steigerung der Konsumverluste. Diese Dynamik der Verluste kann durch zunehmende direkte Produktionsverluste, hervorgerufen etwa durch den Klimawandel, noch verstärkt werden. Auch Handelsunterbrechungen können wirtschaftliche Auswirkungen haben. Um diese zu berechnen, erweitere ich das Modell Acclimate um ein geografisches Transportnetzwerk und weite den Entscheidungshorizont der Wirtschaftsakteure aus. Politisch bedingte plötzliche Handelsbeschränkungen (z. B. ein No-Deal-Brexit) können den längerfristigen wirtschaftlichen Wohlstand der betroffenen Regionen erheblich verringern. Analysen von Transportunterbrechungen in der Taifunsaison zeigen, dass stark betroffene Regionen ihre Produktionen reduzieren müssen, wenn die Nachfrage während eines Sturms sinkt. Zu Beginn eines Sturms können Handelsschwankungen durch alternative Lieferanten ausgeglichen werden, was jedoch bei längeren Unterbrechungen nicht mehr gelingt. Drittens ergeben sich mögliche Anpassungsmechanismen und -strategien aus direkten und indirekten wirtschaftlichen Reaktionen auf Wetterextreme. Die Analyse der jährlichen Handelsveränderungen in der Taifunsaison zeigt, dass Exporte insgesamt zunehmen. Diese Widerstandsfähigkeit des Handels wächst mit einer höheren Diversifizierung der Handelspartner. Weiterhin zeigt meine Forschung an Wirtschaftswachstumsmodellen, dass ein Versicherungssystem langfristige Wachstumsverluste, verursacht durch Tropenstürme, durch schnelleren Wiederaufbau verringern kann. Ich komme zu dem Schluss, dass ein Versicherungsschutz eine wirtschaftlich sinnvolle Anpassungsstrategie gegenüber höheren Schäden durch die Klimakrise sein kann. Ebenso weisen indirekte Auswirkungen von Wetterextremen innerhalb des globalen Wirtschaftsnetzes auf weitere Anpassungsmöglichkeiten hin. Zunächst vermindert eine diversifizierte Vernetzung die Gefahr eines starken Preisanstiegs. Ebenso kann eine enge wirtschaftliche Verflechtung von Regionen, die nicht dieselbe Unwettersaison haben, mittelfristig wirtschaftlich vorteilhaft sein. Weiterhin sollten bei der Berechnung der Kosten wirtschaftliche Resonanzeffekte berücksichtigt werden. Eine Verstärkung der lokalen Anpassungsmaßnahmen verringert die Amplitude ökonomischer Wellen und damit auch potentielle Verluste in anderen Regionen. Insgesamt sind Anpassungsmaßnahmen notwendig, aber es scheint trotz dieser nicht möglich zu sein, alle direkten oder indirekten Verluste zu vermeiden. Wie ich in meiner Arbeit darlege, gibt die dynamische Modellierung wertvolle Einblicke in die Art und Weise, wie direkte und indirekte wirtschaftliche Auswirkungen durch verschiedene Wetterextreme entstehen. Darüber hinaus wird deutlich, wie wichtig es ist, einzelne Extremereignisse aufzulösen und Verstärkungseffekte zu berücksichtigen, die durch unvollständigen Wiederaufbau oder aufeinanderfolgende Katastrophen verursacht werden. KW - climate change KW - weather extremes KW - macro-economic modelling KW - network theory KW - economic network KW - Klimawandel KW - Wetterextreme KW - Makroökonomische Modellierung KW - Netzwerktheorie KW - Ökonomisches Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-552668 ER - TY - THES A1 - Büchner, Robby T1 - Understanding local electronic structure variations in bio-inspired aromatic molecules T1 - Erkenntnisse über lokale Variationen der elektronischen Struktur in biologisch inspirierten aromatischen Molekülen N2 - In this thesis, the dependencies of charge localization and itinerance in two classes of aromatic molecules are accessed: pyridones and porphyrins. The focus lies on the effects of isomerism, complexation, solvation, and optical excitation, which are concomitant with different crucial biological applications of specific members of these groups of compounds. Several porphyrins play key roles in the metabolism of plants and animals. The nucleobases, which store the genetic information in the DNA and RNA are pyridone derivatives. Additionally, a number of vitamins are based on these two groups of substances. This thesis aims to answer the question of how the electronic structure of these classes of molecules is modified, enabling the versatile natural functionality. The resulting insights into the effect of constitutional and external factors are expected to facilitate the design of new processes for medicine, light-harvesting, catalysis, and environmental remediation. The common denominator of pyridones and porphyrins is their aromatic character. As aromaticity was an early-on topic in chemical physics, the overview of relevant theoretical models in this work also mirrors the development of this scientific field in the 20th century. The spectroscopic investigation of these compounds has long been centered on their global, optical transition between frontier orbitals. The utilization and advancement of X-ray spectroscopic methods characterizing the local electronic structure of molecular samples form the core of this thesis. The element selectivity of the near-edge X-ray absorption fine structure (NEXAFS) is employed to probe the unoccupied density of states at the nitrogen site, which is key for the chemical reactivity of pyridones and porphyrins. The results contribute to the growing database of NEXAFS features and their interpretation, e.g., by advancing the debate on the porphyrin N K-edge through systematic experimental and theoretical arguments. Further, a state-of-the-art laser pump – NEXAFS probe scheme is used to characterize the relaxation pathway of a photoexcited porphyrin on the atomic level. Resonant inelastic X-ray scattering (RIXS) provides complementary results by accessing the highest occupied valence levels including symmetry information. It is shown that RIXS is an effective experimental tool to gain detailed information on charge densities of individual species in tautomeric mixtures. Additionally, the hRIXS and METRIXS high-resolution RIXS spectrometers, which have been in part commissioned in the course of this thesis, will gain access to the ultra-fast and thermal chemistry of pyridones, porphyrins, and many other compounds. With respect to both classes of bio-inspired aromatic molecules, this thesis establishes that even though pyridones and porphyrins differ largely by their optical absorption bands and hydrogen bonding abilities, they all share a global stabilization of local constitutional changes and relevant external perturbation. It is because of this wide-ranging response that pyridones and porphyrins can be applied in a manifold of biological and technical processes. N2 - In dieser Arbeit werden die Abhängigkeiten von Ladungslokalisierung und -wanderung in zwei Klassen von aromatischen Molekülen untersucht: Pyridone und Porphyrine. Der Schwerpunkt liegt auf den Auswirkungen von Isomerie, Komplexierung, Lösung (in Wasser) und optischer Anregung, die mit verschiedenen entscheidenden biologischen Anwendungen spezifischer Mitglieder dieser Gruppen von Verbindungen einhergehen. Mehrere Porphyrine spielen eine Schlüsselrolle im Stoffwechsel von Pflanzen und Tieren. Die Nukleobasen, die die genetische Information in der DNA und RNA speichern, sind Pyridonderivate. Auch mehrere Vitamine basieren auf diesen beiden Stoffgruppen. Ziel dieser Arbeit ist es, die Frage zu beantworten, wie die elektronische Struktur dieser Molekülklassen modifiziert wird, sodass die vielfältigen Funktionen in der Natur ermöglicht werden. Die sich daraus ergebenden Erkenntnisse über die Wirkung konstitutioneller und externer Einflussfaktoren ermöglichen die Entwicklung neuer Verfahren in der Medizin, Katalyse, Solar- und Umwelttechnik. Die Gemeinsamkeit von Pyridonen und Porphyrinen ist ihr aromatischer Charakter. Da Aromatizität von Beginn der chemischen Physik an thematisiert wurde, spiegelt der Überblick relevanter theoretischer Modelle in dieser Arbeit auch die Entwicklung dieses Wissenschaftsgebiets im 20. Jahrhundert wieder. Die spektroskopische Untersuchung dieser Verbindungen konzentrierte sich lange Zeit auf die globalen, optischen Übergänge zwischen den Grenzorbitalen. Die Anwendung und Weiterentwicklung röntgenspektroskopischer Methoden zur Charakterisierung der lokalen elektronischen Struktur von molekularen Proben bilden den Kern dieser Arbeit. Die Elementselektivität der Röntgen-Nahkanten-Absorptions-Spektroskopie (NEXAFS) wird genutzt, um die unbesetzte Zustandsdichte an den Stickstoffatomen zu untersuchen, welche für die chemische Reaktivität von Pyridonen und Porphyrinen verantwortlich sind. Die Ergebnisse tragen zum wachsenden Bestand von NEXAFS-Spektren und ihrer Interpretation bei, z.B. indem sie die Debatte über die N K-Kante von Porphyrinen durch systematische experimentelle und theoretische Argumente voranbringen. Zudem wird ein modernes Laser-Pump – NEXAFS-Probe System verwendet, um den Relaxationsprozess eines photoangeregten Porphyrins auf atomarer Ebene zu charakterisieren. Die resonante inelastische Röntgenstreuung (RIXS) liefert komplementäre Ergebnisse, indem sie die höchsten besetzten Valenzniveaus einschließlich Symmetrieinformationen zugänglich macht. Es wird gezeigt, dass RIXS eine effektive experimentelle Methode ist, um detaillierte Informationen über die Ladungsdichten einzelner Tautomere in einem Gemisch zu erhalten. Zudem werden es die hochauflösenden RIXS-Spektrometer hRIXS und METRIXS, die im Rahmen dieser Arbeit mit in Betrieb genommen wurden, erlauben, Informationen zur ultraschnellen und thermischen Chemie von Pyridonen, Porphyrinen und vielen anderen Verbindungen zu gewinnen. Im Hinblick auf beide Klassen biologisch inspirierter, aromatischer Moleküle wird in dieser Arbeit gezeigt, dass sich Pyridone und Porphyrine zwar durch ihre optischen Absorptionsbanden und ihre Fähigkeit zu Wasserstoffbrückenbindungen unterscheiden, aber alle Verbindungen eine globale Stabilisierung lokaler Konstitutionsänderungen und relevanter äußerer Einflüsse aufweisen. Aufgrund dieser weitreichenden Anpassung können Pyridone und Porphyrine in einer Vielzahl von biologischen und technischen Prozessen eingesetzt werden. KW - NEXAFS KW - RIXS KW - X-ray spectroscopy KW - Aromaticity KW - Porphyrins KW - Pyridones KW - Röntgenspektroskopie KW - Aromatizität KW - Porphyrine KW - Pyridone KW - NEXAFS KW - RIXS Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553192 ER - TY - THES A1 - Förste, Stefanie T1 - Assemblierung von Proteinkomplexen in vitro und in vivo T1 - Assembly of protein complexes in vitro and in vivo N2 - Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt. Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen, zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen, jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten. KW - Assemblierung KW - Proteine KW - Multiproteinkomplexbildung KW - co-translationale Assemblierung KW - post-translationale Assemblierung KW - Lösung KW - Oberfläche KW - Lösungsassemblierung KW - Oberflächenassemblierung KW - co-translational KW - post-translational KW - assembly KW - proteins KW - multi protein complex formation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550742 ER - TY - THES A1 - Velk, Natalia T1 - Investigation of the interaction of lysozyme with poly(l-lysine)/hyaluronic acid multilayers BT - Fluorescence and ATR-FTIR study Y1 - 2022 ER - TY - THES A1 - Raman Venkatesan, Thulasinath T1 - Tailoring applications-relevant properties in poly(vinylidene fluoride)-based homo-, co- and ter-polymers through modification of their three-phase structure T1 - Maßgeschneiderte anwendungsrelevante Eigenschaften in Homo-, Ko- und Ter-Polymeren auf der Basis von Poly(vinylidenfluorid) durch Modifikation ihrer Dreiphasenstruktur N2 - Poly(vinylidene fluoride) (PVDF)-based homo-, co- and ter-polymers are well-known for their ferroelectric and relaxor-ferroelectric properties. Their semi-crystalline morphology consists of crystalline and amorphous phases, plus interface regions in between, and governs the relevant electro-active properties. In this work, the influence of chemical, thermal and mechanical treatments on the structure and morphology of PVDF-based polymers and on the related ferroelectric/relaxor-ferroelectric properties is investigated. Polymer films were prepared in different ways and subjected to various treatments such as annealing, quenching and stretching. The resulting changes in the transitions and relaxations of the polymer samples were studied by means of dielectric, thermal, mechanical and optical techniques. In particular, the origin(s) behind the mysterious mid-temperature transition (T_{mid}) that is observed in all PVDF-based polymers was assessed. A new hypothesis is proposed to describe the T_{mid} transition as a result of multiple processes taking place within the temperature range of the transition. The contribution of the individual processes to the observed overall transition depends on both the chemical structure of the monomer units and the processing conditions which also affect the melting transition. Quenching results in a decrease of the overall crystallinity and in smaller crystallites. On samples quenched after annealing, notable differences in the fractions of different crystalline phases have been observed when compared to samples that had been slowly cooled. Stretching of poly(vinylidene fluoride-tetrafluoroethylene) (P(VDF-TFE)) films causes an increase in the fraction of the ferroelectric β-phase with simultaneous increments in the melting point (T_m) and the crystallinity (\chi_c) of the copolymer. While an increase in the stretching temperature does not have a profound effect on the amount of the ferroelectric phase, its stability appears to improve. Measurements of the non-linear dielectric permittivity \varepsilon_2^\prime in a poly(vinylidenefluoride-trifluoroethylene-chlorofluoroethylene) (P(VDF-TrFE- CFE)) relaxor-ferroelectric (R-F) terpolymer reveal peaks at 30 and 80 °C that cannot be identified in conventional dielectric spectroscopy. The former peak is associated with T_{mid}\ and may help to understand the non-zero \varepsilon_2^\prime values that are found for the paraelectric terpolymer phase. The latter peak can also be observed during cooling of P(VDF-TrFE) copolymer samples at 100 °C and is due to conduction processes and space-charge polarization as a result of the accumulation of real charges at the electrode-sample interface. Annealing lowers the Curie-transition temperature of the terpolymer as a consequence of its smaller ferroelectric-phase fraction, which by default exists even in terpolymers with relatively high CFE content. Changes in the transition temperatures are in turn related to the behavior of the hysteresis curves observed on differently heat-treated samples. Upon heating, the hysteresis curves evolve from those known for a ferroelectric to those of a typical relaxor-ferroelectric material. Comparing dielectric-hysteresis loops obtained at various temperatures, we find that annealed terpolymer films show higher electric-displacement values and lower coercive fields than the non-annealed samples − irrespective of the measurement temperature − and also exhibit ideal relaxor-ferroelectric behavior at ambient temperatures, which makes them excellent candidates for related applications at or near room temperature. However, non-annealed films − by virtue of their higher ferroelectric activity − show a larger and more stable remanent polarization at room temperature, while annealed samples need to be poled below 0 °C to induce a well-defined polarization. Overall, by modifying the three phases in PVDF-based polymers, it has been demonstrated how the preparation steps and processing conditions can be tailored to achieve the desired properties that are optimal for specific applications. N2 - Homo-, Ko- und Terpolymere auf der Basis von Poly(vinylidenfluorid) (PVDF) sind für ihre ferroelektrischen und relaxor-ferroelektrischen Eigenschaften bekannt. Die teilkristalline Morphologie dieser Fluorpolymere, bestehend aus kristallinen und amorphen sowie den dazwischen liegenden Grenzflächen, bestimmt die relevanten elektroaktiven Eigenschaften. In dieser Arbeit wird der Einfluss chemischer, thermischer und mechanischer Behandlungen auf die Struktur und Morphologie von Polymeren der PVDF-Familie untersucht, die wiederum direkt mit den ferroelektrischen/relaxor-ferroelektrischen Eigenschaften zusammenhängen. Daher wurden Polymerfilme mit verschiedenen Methoden hergestellt und vielfältigen Prozessschritten wie z.B. Tempern, Abschrecken und Recken unterzogen. Die sich daraus ergebenden Veränderungen bei Phasenübergängen und Relaxationen in den Proben wurden mit dielektrischen, thermischen, mechanischen und optischen Verfahren untersucht. Insbesondere wurden die Ursachen für den mysteriösen Übergang bei mittleren Temperaturen (T_{mid}) untersucht, der an allen PVDF-basierten Polymeren beobachtet werden kann. Es wurde eine neue Hypothese aufgestellt, die den T_{mid}-Übergang als Ergebnis mehrerer Prozesse beschreibt, die innerhalb eines Temperaturbereichs mehr oder weniger gleichzeitig ablaufen. Der Beitrag dieser einzelnen Übergänge zum Gesamtübergang hängt sowohl von der chemischen Struktur der Monomereinheiten als auch von den Verarbeitungsbedingungen ab. Die verschiedenen Verarbeitungsbedingungen wirken sich auch auf den Schmelzübergang der Polymere aus. Der Prozess des Abschreckens führt zu einer Abnahme der Gesamtkristallinität mit einer geringeren Kristallitgröße. Bei Proben, die nach dem Tempern abgeschreckt wurden, werden im Vergleich zu Proben, die langsam aus dem getemperten Zustand abgekühlt wurden, bemerkenswerte Unterschiede im Anteil der verschiedenen kristallinen Phasen festgestellt. Das Recken von Poly(vinylidenfluorid-Tetrafluorethylen) (P(VDF-TFE))-Filmen führt zu einem Anstieg des Anteils der ferroelektrischen β-Phase bei gleichzeitiger Erhöhung von Schmelzpunkt (T_m) und Kristallinität (\chi_c) des Kopolymers. Während eine Erhöhung der Strecktemperatur keinen tiefgreifenden Einfluss auf die Menge der ferroelektrischen Phase hat, scheint sich die Stabilität der ferroelektrischen Phase zu verbessern. Messungen der nichtlinearen dielektrischen Dielektrizitätskonstante \varepsilon_2^\prime zeigen in einem relaxor-ferroelektrischen (R-F) Terpolymer aus Poly(vinylidenfluorid-trifluorethylen-chlorfluorethylen) (P(VDF-TrFE- CFE)) Maxima bei 30 und 80 °C, die in der herkömmlichen dielektrischen Spektroskopie nicht identifiziert werden können. Das erste Maximum hängt mit T_{mid}\ zusammen und kann dabei helfen, die von Null verschiedenen \varepsilon_2^\prime-Werte zu verstehen, die an der paraelektrischen Phase des Terpolymers beobachtet werden. Das zweite Maximum kann auch während des Abkühlens von P(VDF-TrFE)-Kopolymerproben bei 100 °C beobachtet werden und ist auf elektrische Leitungsprozesse und Raumladungspolarisationen infolge der Ansammlung von realen Ladungen an den Grenzflächen der Elektroden zum Polymermaterial zurückzuführen. Das Tempern verringert die Curie-Übergangstemperatur des Terpolymers als Folge der Verringerung des ferroelektrischen Phasenanteils, der standardmäßig sogar in Terpolymeren mit relativ hohem CFE-Gehalt vorhanden ist. Die Änderungen der Übergangstemperaturen stehen wiederum im Zusammenhang mit dem Verhalten der Hysteresekurven bei unterschiedlich wärmebehandelten Proben. Während der Erwärmung kommt es zu einer deutlichen Veränderung der Hysteresekurven von einem typisch ferroelektrischen Verhalten hin zu relaxor-ferroelektrischem Verhalten. Vergleicht man die bei verschiedenen Temperaturen beobachteten dielektrischen Hystereseschleifen, so stellt man fest, dass getemperte Terpolymerfilme - unabhängig von der Messtemperatur - höhere dielektrische Verschiebungen und niedrigere Koerzitivfelder aufweisen als nicht getemperte Proben und dass sie auch bei Raumtemperatur ein ideales relaxor-ferroelektrisches Verhalten zeigen, was sie zu ausgezeichneten Kandidaten für Anwendungen in der Nähe der Raumtemperatur macht. Allerdings zeigen nicht getemperte Filme aufgrund ihrer höheren Ferroelektrizität einen höheren und stabilen Wert der remanenten Polarisation bei Raumtemperatur, während getemperte Proben unter 0 °C gepolt werden müssen, um eine eindeutige Polarisation aufzuweisen. Insgesamt konnte gezeigt werden, dass durch die Modifizierung der drei Phasen in PVDF-basierten Polymeren die Präparationsschritte und Verarbeitungsbedingungen so angepasst werden können, dass die gewünschten Eigenschaften für bestimmte Anwendungen optimal sind. KW - PVDF-based polymers KW - structure-property relationships KW - ferroelectric polymers KW - relaxor-ferroelectric polymers KW - mid-temperature transition KW - Polymere auf PVDF-Basis KW - ferroelektrische Polymere KW - Mitteltemperaturübergang KW - Relaxor-ferroelektrische Polymere KW - Struktur-Eigenschafts-Beziehungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549667 ER - TY - THES A1 - Steppa, Constantin Beverly T1 - Modelling the galactic population of very-high-energy gamma-ray sources T1 - Modellierung der Population galaktischer Quellen von sehr hochenergetischer Gammastrahlung N2 - The current generation of ground-based instruments has rapidly extended the limits of the range accessible to us with very-high-energy (VHE) gamma-rays, and more than a hundred sources have now been detected in the Milky Way. These sources represent only the tip of the iceberg, but their number has reached a level that allows population studies. In this work, a model of the global population of VHE gamma-ray sources based on the most comprehensive census of Galactic sources in this energy regime, the H.E.S.S. Galactic plane survey (HGPS), will be presented. A population synthesis approach was followed in the construction of the model. Particular attention was paid to correcting for the strong observational bias inherent in the sample of detected sources. The methods developed for estimating the model parameters have been validated with extensive Monte Carlo simulations and will be shown to provide unbiased estimates of the model parameters. With these methods, five models for different spatial distributions of sources have been constructed. To test the validity of these models, their predictions for the composition of sources within the sensitivity range of the HGPS are compared with the observed sample. With one exception, similar results are obtained for all spatial distributions, showing that the observed longitude profile and the source distribution over photon flux are in fair agreement with observation. Regarding the latitude profile and the source distribution over angular extent, it becomes apparent that the model needs to be further adjusted to bring its predictions in agreement with observation. Based on the model, predictions of the global properties of the Galactic population of VHE gamma-ray sources and the prospects of the Cherenkov Telescope Array (CTA) will be presented. CTA will significantly increase our knowledge of VHE gamma-ray sources by lowering the threshold for source detection, primarily through a larger detection area compared to current-generation instruments. In ground-based gamma-ray astronomy, the sensitivity of an instrument depends strongly, in addition to the detection area, on the ability to distinguish images of air showers produced by gamma-rays from those produced by cosmic rays, which are a strong background. This means that the number of detectable sources depends on the background rejection algorithm used and therefore may also be increased by improving the performance of such algorithms. In this context, in addition to the population model, this work presents a study on the application of deep-learning techniques to the task of gamma-hadron separation in the analysis of data from ground-based gamma-ray instruments. Based on a systematic survey of different neural-network architectures, it is shown that robust classifiers can be constructed with competitive performance compared to the best existing algorithms. Despite the broad coverage of neural-network architectures discussed, only part of the potential offered by the application of deep-learning techniques to the analysis of gamma-ray data is exploited in the context of this study. Nevertheless, it provides an important basis for further research on this topic. N2 - Die aktuelle Generation bodengestützter Instrumente hat die Grenzen des uns mit sehr hoch-energetischer (very-high-energy, VHE) Gammastrahlung zugänglichen Bereichs rasch erweitert, so dass inzwischen bereits mehr als hundert Quellen in der Milchstraße entdeckt wurden. Diese Quellen repräsentieren zwar nur die Spitze des Eisbergs, doch ihre Anzahl hat ein Niveau erreicht, das Populationsstudien ermöglicht. In dieser Arbeit wird ein Modell der globalen Population von VHE Gammastrahlungsquellen vorgestellt, das auf den umfassendsten Zensus galaktischer Quellen in diesem Energiebereich, dem H.E.S.S. Galactic plane survey (HGPS), beruht. Bei der Erstellung des Modells wurde ein Populationssynthese-Ansatz verfolgt. Besonderes Augenmerk wurde auf die Korrektur der starken Beobachtungsverzerrung gelegt, die der Stichprobe detektierter Quellen innewohnt. Die für die Schätzung der Modellparameter entwickelten Methoden wurden mit umfangreichen Monte-Carlo-Simulationen validiert und es wird gezeigt, dass sie akkurate Schätzungen der Modelparameter ermöglichen. Mit diesen Methoden wurden fünf Modelle für verschiedene räumliche Verteilungen von Quellen erstellt. Um die Gültigkeit dieser Modelle zu prüfen, werden ihre Vorhersagen für die Zusammensetzung der Quellen innerhalb des Sensitivitätsbereichs des HGPS mit der beobachteten Stichprobe verglichen. Mit einer Ausnahme werden für alle räumlichen Verteilungen ähnliche Ergebnisse erzielt, die zeigen, dass das beobachtete Longitudenprofil und die Quellenverteilung über den Photonenfluss gut mit der Beobachtung übereinstimmen. Bezüglich des Latitudenprofils und der Quellenverteilung über die Winkelausdehnung zeigt sich, dass das Modell weiter angepasst werden muss, um dessen Vorhersagen mit den Beobachtungen in Einklang zu bringen. Auf der Grundlage des Modells werden Vorhersagen über die globalen Eigenschaften der galaktischen Population von VHE Gammastrahlungsquellen und die Perspektiven des Cherenkov Telescope Array (CTA) vorgestellt. CTA wird unser Wissen über VHE Gammastrahlungsquellen erheblich erweitern, indem es die Detektionsschwelle für die Quellen senkt, vor allem durch einer im Vergleich zu Instrumenten der aktuellen Generation größeren Detektionsfläche. In der bodengebundenen Gammastrahlenastronomie hängt die Empfindlichkeit eines Instruments neben der Detektionsfläche jedoch auch stark von der Fähigkeit ab, Bilder von Luftschauern, die durch Gammastrahlen erzeugt werden, von denen zu unterscheiden, die durch kosmische Strahlung erzeugt werden und einen starken Hintergrund darstellen. Dies bedeutet, dass die Anzahl der detektierbaren Quellen von dem verwendeten Algorithmus zur Hintergrundunterdrückung abhängt und daher möglicherweise auch durch eine Verbesserung der Leistung solcher Algorithmen erhöht werden kann. In diesem Zusammenhang wird in dieser Arbeit zusätzlich zum Populationsmodell eine Studie über die Anwendung von Deep-Learning-Techniken für die Aufgabe der Gamma-Hadron-Trennung bei der Analyse von Daten von bodengestützten Gammastrahleninstrumenten vorgestellt. Auf der Grundlage einer systematischen Untersuchung verschiedener neuronaler Netzwerkarchitekturen wird gezeigt, dass robuste Klassifikatoren konstruiert werden können, die im Vergleich zu den besten bestehenden Algorithmen eine konkurrenzfähige Leistung aufweisen. Trotz des Umfangs der diskutierten neuronalen Netzwerkarchitekturen wird im Rahmen dieser Studie nur ein Teil des Potenzials ausgeschöpft, das die Anwendung von Deep-Learning-Techniken für die Analyse von Daten in der Gammaastronomie bietet. Dennoch bietet sie eine wichtige Grundlage für weitere Forschungen zu diesem Thema. KW - gamma astronomy KW - galactic population KW - very-high energy KW - Gammaastronomie KW - galaktische Population KW - sehr hohe Energien Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549478 ER - TY - THES A1 - Hosseini, Seyed Mehrdad T1 - Non-Langevin Recombination in Fullerene and Non-Fullerene Acceptor Solar Cells T1 - Nicht-Langevin-Rekombination in Fulleren- und Nicht-Fulleren-Akzeptor-Solarzellen N2 - Organic solar cells (OSCs), in recent years, have shown high efficiencies through the development of novel non-fullerene acceptors (NFAs). Fullerene derivatives have been the centerpiece of the accepting materials used throughout organic photovoltaic (OPV) research. However, since 2015 novel NFAs have been a game-changer and have overtaken fullerenes. However, the current understanding of the properties of NFAs for OPV is still relatively limited and critical mechanisms defining the performance of OPVs are still topics of debate. In this thesis, attention is paid to understanding reduced-Langevin recombination with respect to the device physics properties of fullerene and non-fullerene systems. The work is comprised of four closely linked studies. The first is a detailed exploration of the fill factor (FF) expressed in terms of transport and recombination properties in a comparison of fullerene and non-fullerene acceptors. We investigated the key reason behind the reduced FF in the NFA (ITIC-based) devices which is faster non-geminate recombination relative to the fullerene (PCBM[70]-based) devices. This is then followed by a consideration of a newly synthesized NFA Y-series derivative which exhibits the highest power conversion efficiency for OSC at the time. Such that in the second study, we illustrated the role of disorder on the non-geminate recombination and charge extraction of thick NFA (Y6-based) devices. As a result, we enhanced the FF of thick PM6:Y6 by reducing the disorder which leads to suppressing the non-geminate recombination toward non-Langevin system. In the third work, we revealed the reason behind thickness independence of the short circuit current of PM6:Y6 devices, caused by the extraordinarily long diffusion length of Y6. The fourth study entails a broad comparison of a selection of fullerene and non-fullerene blends with respect to charge generation efficiency and recombination to unveil the importance of efficient charge generation for achieving reduced recombination. I employed transient measurements such as Time Delayed Collection Field (TDCF), Resistance dependent Photovoltage (RPV), and steady-state techniques such as Bias Assisted Charge Extraction (BACE), Temperature-Dependent Space Charge Limited Current (T-SCLC), Capacitance-Voltage (CV), and Photo-Induce Absorption (PIA), to analyze the OSCs. The outcomes in this thesis together draw a complex picture of multiple factors that affect reduced-Langevin recombination and thereby the FF and overall performance. This provides a suitable platform for identifying important parameters when designing new blend systems. As a result, we succeeded to improve the overall performance through enhancing the FF of thick NFA device by adjustment of the amount of the solvent additive in the active blend solution. It also highlights potentially critical gaps in the current experimental understanding of fundamental charge interaction and recombination dynamics. N2 - Organische Solarzellen (OSZ) haben in den letzten Jahren durch die Entwicklung neuartiger Nicht-Fulleren-Akzeptoren (NFA) hohe Wirkungsgrade erzielt. Fulleren-Derivate waren das Herzstück der Akzeptor-Materialien, die in der Forschung zur organischen Photovoltaik (OPV) verwendet wurden. Doch seit 2015 haben neuartige NFAs den Fullerenen den Rang abgelaufen. Allerdings ist das derzeitige Verständnis der Eigenschaften von NFA für OPV noch relativ begrenzt und kritische Mechanismen, die die Leistung von OPV bestimmen, sind immer noch Gegenstand von Diskussionen. In dieser Arbeit geht es um das Verständnis der Reduced-Langevin-Rekombination in Hinblick auf die bauteilphysikalischen Eigenschaften von Fulleren- und Nicht-Fulleren-Systemen. Die Arbeit besteht aus vier eng miteinander verbundenen Studien. Die erste ist eine detaillierte Untersuchung des Füllfaktors (FF), ausgedrückt als Transport- und Rekombinationseigenschaften in einem Vergleich von Fulleren und Nicht-Fulleren-Akzeptoren. Wir untersuchten den Hauptgrund für die geringere FF im NFA-Bauelement (auf ITIC-Basis), nämlich die schnellere nicht-geminate Rekombination im Vergleich zum Fulleren-Bauelement (auf PCBM[70]-Basis). Anschließend wird ein neu synthetisiertes NFA-Derivat der Y-Serie betrachtet, das derzeit die höchste Leistungsumwandlungseffizienz für OSZ aufweist. In der zweiten Studie veranschaulichten wir die Rolle der Unordnung bei der nicht-geminaten Rekombination und der Ladungsextraktion von dicken NFA-Bauelementen (auf Y6-Basis). Infolgedessen haben wir die FF von dickem PM6:Y6 verbessert, indem wir die Unordnung reduziert haben, was zur Unterdrückung der nicht-geminaten Rekombination in Richtung Nicht-Langevin-System führt. In der dritten Arbeit haben wir den Grund für die Dickenunabhängigkeit des Kurzschlussstroms von NFA-Bauelementen aufgedeckt, die durch die außerordentlich lange Diffusionslänge von Y6 verursacht wird. Die vierte Studie umfasst einen umfassenden Vergleich einer Auswahl von Fulleren- und Nicht-Fulleren-Mischungen in Hinblick auf die Effizienz der Ladungserzeugung und Rekombination, um die Bedeutung einer effizienten Ladungserzeugung zum Erzielen einer geringeren Rekombination aufzuzeigen. Zur Analyse der OSCs habe ich transiente Messungen wie das Time Delayed Collection Field (TDCF), Resistance dependent Photovoltage (RPV) sowie stationäre Techniken wie die Bias Assisted Charge Extraction (BACE), Temperature-Dependent Space Charge Limited Current (T-SCLC), Capacitance-Voltage (CV) und Photo-Induce Absorption (PIA) eingesetzt. Die Ergebnisse dieser Arbeit zeichnen ein komplexes Bild zahlreicher Faktoren, die die Rekombination nach dem Prinzip des reduzierten Langèvins und damit die FF und die Gesamtleistung beeinflussen. Dies bietet eine geeignete Plattform zum Identifizieren wichtiger Parameter bei der Entwicklung neuer Mischsysteme. So ist es uns gelungen, die Gesamtleistung zu verbessern, indem wir die FF der dicken NFA-Vorrichtung durch Anpassung der Menge des Lösungsmittelzusatzes in der aktiven Mischungslösung erhöht haben. Außerdem werden potenziell kritische Lücken im derzeitigen experimentellen Verständnis der grundlegenden Ladungswechselwirkung und Rekombinationsdynamik aufgezeigt. KW - Organic solar cells KW - Non-fullerene acceptors KW - Charge recombination KW - Non-Langevin systems KW - Structural and energetic disorder KW - Ladungsrekombination KW - Nicht-Langevin-Systeme KW - Nicht-Fulleren-Akzeptoren KW - Organische Solarzellen KW - Strukturelle und energetische Unordnung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-547831 ER - TY - THES A1 - Laquai, René T1 - Extending synchrotron X-ray refraction techniques to the quantitative analysis of metallic materials N2 - In this work, two X-ray refraction based imaging methods, namely, synchrotron X-ray refraction radiography (SXRR) and synchrotron X-ray refraction computed tomography (SXRCT), are applied to analyze quantitatively cracks and porosity in metallic materials. SXRR and SXRCT make use of the refraction of X-rays at inner surfaces of the material, e.g., the surfaces of cracks and pores, for image contrast. Both methods are, therefore, sensitive to smaller defects than their absorption based counterparts X-ray radiography and computed tomography. They can detect defects of nanometric size. So far the methods have been applied to the analysis of ceramic materials and fiber reinforced plastics. The analysis of metallic materials requires higher photon energies to achieve sufficient X-ray transmission due to their higher density. This causes smaller refraction angles and, thus, lower image contrast because the refraction index depends on the photon energy. Here, for the first time, a conclusive study is presented exploring the possibility to apply SXRR and SXRCT to metallic materials. It is shown that both methods can be optimized to overcome the reduced contrast due to smaller refraction angles. Hence, the only remaining limitation is the achievable X-ray transmission which is common to all X-ray imaging methods. Further, a model for the quantitative analysis of the inner surfaces is presented and verified. For this purpose four case studies are conducted each posing a specific challenge to the imaging task. Case study A investigates cracks in a coupon taken from an aluminum weld seam. This case study primarily serves to verify the model for quantitative analysis and prove the sensitivity to sub-resolution features. In case study B, the damage evolution in an aluminum-based particle reinforced metal-matrix composite is analyzed. Here, the accuracy and repeatability of subsequent SXRR measurements is investigated showing that measurement errors of less than 3 % can be achieved. Further, case study B marks the fist application of SXRR in combination with in-situ tensile loading. Case study C is out of the highly topical field of additive manufacturing. Here, porosity in additively manufactured Ti-Al6-V4 is analyzed with a special interest in the pore morphology. A classification scheme based on SXRR measurements is devised which allows to distinguish binding defects from keyhole pores even if the defects cannot be spatially resolved. In case study D, SXRCT is applied to the analysis of hydrogen assisted cracking in steel. Due to the high X-ray attenuation of steel a comparatively high photonenergy of 50 keV is required here. This causes increased noise and lower contrast in the data compared to the other case studies. However, despite the lower data quality a quantitative analysis of the occurance of cracks in dependence of hydrogen content and applied mechanical load is possible. N2 - In der vorliegenden Arbeit werden die zwei, auf Refraktion basierende, Röntgenbildgebungsverfahren Synchrotron Röntgen-Refraktions Radiographie (engl.: SXRR) und Synchrotron Röntgen-Refraktions Computertomographie (engl.: SXRCT) für die quantitative Analyse von Rissen und Porosität in metallischenWerkstoffen angewandt. SXRR und SXRCT nutzen die Refraktion von Röntgenstrahlen an inneren Oberflächen des Materials, z.B. die Oberflächen von Rissen und Poren, zur Bildgebung. Beide Methoden sind daher empfindlich gegenüber kleineren Defekten als ihre auf Röntgenabsorption basierenden Gegenstücke, Röntgenradiographie und Röntgen-Computertomographie. Sie sind in der Lage Defekte von nanometrischer Größe zu detektieren. Bislang wurden die Methoden für die Analyse von keramischen Werkstoffen und faserverstärkten Kunststoffen eingesetzt. Die Analyse von metallischenWerkstoffen benötigt höhere Photonenenergien benötigt werden um eine ausreichende Transmission zu erreichen. Dies hat kleinere Refraktionswinkel, und damit geringeren Bildkontrast, zur Folge, da der Brechungsindex von der Photonenenergie abhängt. Hier wird erstmals eine umfassende Studie vorgelegt, welche die Möglichkeiten zur Untersuchung metallischer Werkstoffe mittels SXRR und SXRCT untersucht. Es wird gezeigt, dass der geringere Kontrast, verursacht durch die kleineren Refraktionswinkel, überwunden werden kann. Somit ist die einzig verbleibende Beschränkung die erreichbare Transmission, die alle Röntgenbildgebungsverfahren gemeinsam haben. Darüber hinaus wird ein Modell für die quantitative Auswertung der inneren Oberflächen präsentiert und verifiziert. Zu diesem Zweck werden vier Fallstudien durchgeführt, wobei jede eine spezifische Herausforderung darstellt. In Fallstudie A werden Risse in einer Probe aus einer Aluminiumschweißnaht untersucht. Diese Fallstudie dient hauptsächlich dazu das Modell für die quantitative Analyse zu verifizieren und die Empfindlichkeit gegenüber Strukturen unterhalb des Auflösungsvermögens zu beweisen. In Fallstudie B wird die Entwicklung der Schädigung in einem aluminiumbasierten partikelverstärktem Metall-Matrix Komposit untersucht. Dabei wird die Genauigkeit und Wiederholbarkeit der SXRR Messungen analysiert und es wird gezeigt das Messfehler kleiner 3% erreicht werden können. Darüber hinaus wird in Fallstudie B erstmals SXRR in Kombination mit in-situ Zugbelastung eingesetzt. Fallstudie C ist aus dem hochaktuellen Bereich der additive Fertigung. Hier wird Porosität in additiv gefertigtem Ti-Al6-V4 analysiert mit besonderem Augenmerk auf der Morphologie der Poren. Es wurde ein Verfahren zur Klassifizierung, basierend auf SXRR Messungen, erfunden, welches Bindefehler und Poren voneinander unterscheiden kann auch wenn die Defekte nicht räumlich aufgelöst werden können. In Fallstudie D wird SXRCT zur Analyse von wasserstoffunterstützter Rissbildung in Stahl angewandt. Wegen der hohen Röntgenschwächung des Stahls muss hier mit 50 keV eine vergleichsweise hohe Photonenenergie genutzt werden. Dadurch zeigen die Daten ein erhöhtes Rauschen und geringeren Kontrast verglichen mit den anderen Fallstudien. Allerdings ist es, trotz der geringeren Datenqualität, möglich das Auftreten von Rissen in Abhängigkeit der Wasserstoffkonzentration und mechanischen Belastung zu untersuchen. T2 - Erweiterung von Röntgenrefraktions-Bildgebungsmethoden auf die quantitative Analyse von metallischen Werkstoffen KW - X-ray refraction imaging KW - non-destructive evaluation KW - computed tomography KW - porosity analysis KW - crack detection KW - Röntgen-Refraktions Bildgebung KW - zerstörungfreie Prüfung KW - Computertomography KW - Porositätsanalyse KW - Risserkennung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541835 ER -