TY - THES A1 - Banerjee, Abhirup T1 - Characterizing the spatio-temporal patterns of extreme events BT - from recurrence to prediction N2 - Over the past decades, there has been a growing interest in ‘extreme events’ owing to the increasing threats that climate-related extremes such as floods, heatwaves, droughts, etc., pose to society. While extreme events have diverse definitions across various disciplines, ranging from earth science to neuroscience, they are characterized mainly as dynamic occurrences within a limited time frame that impedes the normal functioning of a system. Although extreme events are rare in occurrence, it has been found in various hydro-meteorological and physiological time series (e.g., river flows, temperatures, heartbeat intervals) that they may exhibit recurrent behavior, i.e., do not end the lifetime of the system. The aim of this thesis to develop some sophisticated methods to study various properties of extreme events. One of the main challenges in analyzing such extreme event-like time series is that they have large temporal gaps due to the paucity of the number of observations of extreme events. As a result, existing time series analysis tools are usually not helpful to decode the underlying information. I use the edit distance (ED) method to analyze extreme event-like time series in their unaltered form. ED is a specific distance metric, mainly designed to measure the similarity/dissimilarity between point process-like data. I combine ED with recurrence plot techniques to identify the recurrence property of flood events in the Mississippi River in the United States. I also use recurrence quantification analysis to show the deterministic properties and serial dependency in flood events. After that, I use this non-linear similarity measure (ED) to compute the pairwise dependency in extreme precipitation event series. I incorporate the similarity measure within the framework of complex network theory to study the collective behavior of climate extremes. Under this architecture, the nodes are defined by the spatial grid points of the given spatio-temporal climate dataset. Each node is associated with a time series corresponding to the temporal evolution of the climate observation at that grid point. Finally, the network links are functions of the pairwise statistical interdependence between the nodes. Various network measures, such as degree, betweenness centrality, clustering coefficient, etc., can be used to quantify the network’s topology. We apply the methodology mentioned above to study the spatio-temporal coherence pattern of extreme rainfall events in the United States and the Ganga River basin, which reveals its relation to various climate processes and the orography of the region. The identification of precursors associated with the occurrence of extreme events in the near future is extremely important to prepare the masses for an upcoming disaster and mitigate the potential risks associated with such events. Under this motivation, I propose an in-data prediction recipe for predicting the data structures that typically occur prior to extreme events using the Echo state network, a type of Recurrent Neural Network which is a part of the reservoir computing framework. However, unlike previous works that identify precursory structures in the same variable in which extreme events are manifested (active variable), I try to predict these structures by using data from another dynamic variable (passive variable) which does not show large excursions from the nominal condition but carries imprints of these extreme events. Furthermore, my results demonstrate that the quality of prediction depends on the magnitude of events, i.e., the higher the magnitude of the extreme, the better is its predictability skill. I show quantitatively that this is because the input signals collectively form a more coherent pattern for an extreme event of higher magnitude, which enhances the efficiency of the machine to predict the forthcoming extreme events. N2 - In den letzten Jahrzehnten hat das Interesse an ‘Extremereignissen’ aufgrund der zunehmenden Bedrohung, die klimabedingte Extreme wie Überschwemmungen, Hitzewellen, Dürren usw. für die Gesellschaft darstellen, zugenommen. Obwohl Extremereignisse in verschiedenen Disziplinen - von der Geowissenschaft bis zu den Neurowissenschaften - unterschiedlich definiert werden, werden sie hauptsächlich als dynamische Ereignisse innerhalb eines begrenzten Zeitrahmens charakterisiert, die das normale Funktionieren eines Systems beeinträchtigen. Obwohl Extremereignisse selten vorkommen, wurde festgestellt, dass verschiedene hydro-meteorologische und physiologische Zeitreihen (z. B. Stromabflussmengen, Temperaturen, Herzschlagintervalle) rekurrentes Verhalten. Das heißt, sie enden nicht an der Lebensdauer des Systems. Das Ziel dieser Arbeit ist es, fortschrittliche Methoden zur Untersuchung verschiedener Eigenschaften von Extremereignissen zu entwickeln. Eine der größten Herausforderungen bei der Analyse solcher extremen Ereignisse ist, dass sie große zeitliche Lücken aufweisen, da die Anzahl beobachteter Extremereignissen gering ist. Bestehende Zeitreihenanalysetools sind daher in der Regel nicht hilfreich, um die zugrundeliegenden Informationen zu entschlüsseln. Ich verwende die Edit-Distanz (ED) Methode, um extremeereignisähnliche Zeitreihen in ihrer unveränderten Form zu analysieren. ED ist eine spezielle Abstandsmetrik, die hauptsächlich zur Messung der Ähnlichkeit/Unähnlichkeit zwischen punktprozessähnlichen Daten entwickelt wurde. Ich kombiniere ED mit Rekurrenzplots, um die Wiederkehr-Eigenschaften von Hochwasserereignissen am Mississippi in den Vereinigten Staaten zu ermitteln. Außerdem werte ich die Wiederkehr-Eigenschaften quantitativ aus, um die deterministische Charakteristik und die serielle Abhängigkeit bei Hochwasserereignissen aufzuzeigen. Anschließend verwende ich dieses nichtlineare Ähnlichkeitsmaß(ED), um die paarweise Abhängigkeit in extremen Niederschlagsereignisreihen zu berechnen. Ich verknüpfe das Ähnlichkeitsmaß mit der Theorie komplexer Netzwerke, um das kollektive Verhalten von Klimaextremen zu untersuchen. In diesem Fall werden die Knoten durch die räumlichen Gitterpunkte des zu untersuchenden raumzeitlichen Klimadatensatzes definiert. Jeder Knoten repräsentiert eine Zeitreihe, die die zeitliche Entwicklung der Klimabeobachtung an diesem Gitterpunkt beschreibt. Schließlich sind die Netzwerkverbindungen Funktionen der paarweisen statistischen Interdependenz zwischen den Knotenpunkten. Zur Quantifizierung der Netztopologie können verschiedene Netzwerkmaße wie unter anderem der Grad, die Betweenness-Zentralität, oder der Clustering-Koeffizient verwendet werden. Wir wenden die oben erwähnte Methodik an, um das raumzeitliche Kohärenzmuster extremer Niederschlagsereignisse in den Vereinigten Staaten und im Einzugsgebiet des Ganges zu untersuchen. Die Ergebnisse zeigen, dass ein Zusammenhang zwischen dem Kohärenzmuster und verschiedenen Klimaprozessen und der Orographie der Region besteht. Die Identifizierung von Vorläufern, die mit dem Auftreten von Extremereignissen in naher Zukunft verbunden sind, ist äußerst wichtig, um die Bevölkerung auf eine bevorstehende Katastrophe vorzubereiten und potenziell resultierende Risiken zu mindern. Deshalb schlage ich ein datenbasiertes Vorhersageverfahren zur Bestimmung der Datenstrukturen vor, die typischerweise vor extremen Ereignissen auftreten. Das Verfahren basiert auf dem Echo-State Netzwerk, einem rekurrenten neuronalen Netz, das dem Reservoir-Computing zugeordnet wird. Im Gegensatz zu früheren Arbeiten, die Vorläuferstrukturen in der Variablen identifizieren, in der sich Extremereignisse manifestieren (aktive Variable), versuche ich die Strukturen anhand anderer dynamischer Variablen (passive Variablen) vorherzusagen. Diese Variablen weichen selbst nicht sonderlich von ihrem eigenen Sollzustand ab, aber sie besitzen eine Aussagekraft gegenüber den Extremereignissen. Meine Ergebnisse zeigen, dass die Qualität der Vorhersage von der Magnitude der Ereignisse abhängt, d.h. je extremer ein Ereignis ist, desto besser kann es vorhergesagt werden. Ich belege quantitativ, dass dieser Zusammenhang darauf basiert, dass die gesammelten Eingangssignale aussagekräftigere Kohärenzmuster für Extremereignisse hoher Magnitude bilden. Dies erhöht die Wirksamkeit des Ansatzes bei der Vorhersage bevorstehender Extremereignisse. KW - extreme events KW - Extremereignisse KW - floods KW - extreme precipitation KW - edit distance KW - recurrence plot KW - complex network KW - echo state network KW - Überschwemmungen KW - Extremniederschläge KW - Edit-Distanz KW - Rekurrenzplot KW - komplexes Netzwerk KW - Echo-State Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559839 ER - TY - GEN A1 - Teichmann, Erik A1 - Lewandowski, Heather J. A1 - Alemani, Micol T1 - Investigating students’ views of experimental physics in German laboratory classes T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - There is a large variety of goals instructors have for laboratory courses, with different courses focusing on different subsets of goals. An often implicit, but crucial, goal is to develop students’ attitudes, views, and expectations about experimental physics to align with practicing experimental physicists. The assessment of laboratory courses upon this one dimension of learning has been intensively studied in U.S. institutions using the Colorado Learning Attitudes about Science Survey for Experimental Physics (E-CLASS). However, there is no such an instrument available to use in Germany, and the influence of laboratory courses on students views about the nature of experimental physics is still unexplored at German-speaking institutions. Motivated by the lack of an assessment tool to investigate this goal in laboratory courses at German-speaking institutions, we present a translated version of the E-CLASS adapted to the context at German-speaking institutions. We call the German version of the E-CLASS, the GE-CLASS. We describe the translation process and the creation of an automated web-based system for instructors to assess their laboratory courses. We also present first results using GE-CLASS obtained at the University of Potsdam. A first comparison between E-CLASS and GE-CLASS results shows clear differences between University of Potsdam and U.S. students’ views and beliefs about experimental physics. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1263 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560429 SN - 1866-8372 SP - 010135-1 EP - 010135-17 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Teichmann, Erik A1 - Lewandowski, Heather J. A1 - Alemani, Micol T1 - Investigating students’ views of experimental physics in German laboratory classes JF - Physical Review Physics Education Research N2 - There is a large variety of goals instructors have for laboratory courses, with different courses focusing on different subsets of goals. An often implicit, but crucial, goal is to develop students’ attitudes, views, and expectations about experimental physics to align with practicing experimental physicists. The assessment of laboratory courses upon this one dimension of learning has been intensively studied in U.S. institutions using the Colorado Learning Attitudes about Science Survey for Experimental Physics (E-CLASS). However, there is no such an instrument available to use in Germany, and the influence of laboratory courses on students views about the nature of experimental physics is still unexplored at German-speaking institutions. Motivated by the lack of an assessment tool to investigate this goal in laboratory courses at German-speaking institutions, we present a translated version of the E-CLASS adapted to the context at German-speaking institutions. We call the German version of the E-CLASS, the GE-CLASS. We describe the translation process and the creation of an automated web-based system for instructors to assess their laboratory courses. We also present first results using GE-CLASS obtained at the University of Potsdam. A first comparison between E-CLASS and GE-CLASS results shows clear differences between University of Potsdam and U.S. students’ views and beliefs about experimental physics. Y1 - 2022 U6 - https://doi.org/10.1103/PhysRevPhysEducRes.18.010135 SN - 1554-9178 VL - 18 SP - 010135-1 EP - 010135-17 PB - APS CY - College Park, Maryland, United States ET - 1 ER - TY - GEN A1 - Xu, Pengbo A1 - Zhou, Tian A1 - Metzler, Ralf A1 - Deng, Weihua T1 - Stochastic harmonic trapping of a Lévy walk: transport and first-passage dynamics under soft resetting strategies T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - We introduce and study a Lévy walk (LW) model of particle spreading with a finite propagation speed combined with soft resets, stochastically occurring periods in which an harmonic external potential is switched on and forces the particle towards a specific position. Soft resets avoid instantaneous relocation of particles that in certain physical settings may be considered unphysical. Moreover, soft resets do not have a specific resetting point but lead the particle towards a resetting point by a restoring Hookean force. Depending on the exact choice for the LW waiting time density and the probability density of the periods when the harmonic potential is switched on, we demonstrate a rich emerging response behaviour including ballistic motion and superdiffusion. When the confinement periods of the soft-reset events are dominant, we observe a particle localisation with an associated non-equilibrium steady state. In this case the stationary particle probability density function turns out to acquire multimodal states. Our derivations are based on Markov chain ideas and LWs with multiple internal states, an approach that may be useful and flexible for the investigation of other generalised random walks with soft and hard resets. The spreading efficiency of soft-rest LWs is characterised by the first-passage time statistic. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1262 KW - diffusion KW - anomalous diffusion KW - stochastic resetting KW - Levy walks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560402 SN - 1866-8372 SP - 1 EP - 28 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Xu, Pengbo A1 - Zhou, Tian A1 - Metzler, Ralf A1 - Deng, Weihua T1 - Stochastic harmonic trapping of a Lévy walk BT - transport and first-passage dynamics under soft resetting strategies JF - New journal of physics : the open-access journal for physics / Deutsche Physikalische Gesellschaft ; IOP, Institute of Physics N2 - We introduce and study a Lévy walk (LW) model of particle spreading with a finite propagation speed combined with soft resets, stochastically occurring periods in which an harmonic external potential is switched on and forces the particle towards a specific position. Soft resets avoid instantaneous relocation of particles that in certain physical settings may be considered unphysical. Moreover, soft resets do not have a specific resetting point but lead the particle towards a resetting point by a restoring Hookean force. Depending on the exact choice for the LW waiting time density and the probability density of the periods when the harmonic potential is switched on, we demonstrate a rich emerging response behaviour including ballistic motion and superdiffusion. When the confinement periods of the soft-reset events are dominant, we observe a particle localisation with an associated non-equilibrium steady state. In this case the stationary particle probability density function turns out to acquire multimodal states. Our derivations are based on Markov chain ideas and LWs with multiple internal states, an approach that may be useful and flexible for the investigation of other generalised random walks with soft and hard resets. The spreading efficiency of soft-rest LWs is characterised by the first-passage time statistic. KW - diffusion KW - anomalous diffusion KW - stochastic resetting KW - Levy walks Y1 - 2022 U6 - https://doi.org/10.1088/1367-2630/ac5282 SN - 1367-2630 VL - 24 IS - 3 SP - 1 EP - 28 PB - Deutsche Physikalische Gesellschaft CY - Bad Honnef ER - TY - THES A1 - Nayak, Abani Shankar T1 - Design, Characterization and On-sky Testing of an Integrated Optics Device for Stellar Interferometry: from Pupil Remappers to Discrete Beam Combiner T1 - Entwicklung, Charakterisierung und Erprobung einer integrierten, optischen Vorrichtung für die stellare Interferometrie: von Pupil Remappers zum diskreten Strahlkombinierer N2 - Stellar interferometry is the only method in observational astronomy for obtaining the highest resolution images of astronomical targets. This method is based on combining light from two or more separate telescopes to obtain the complex visibility that contains information about the brightness distribution of an astronomical source. The applications of stellar interferometry have made significant contributions in the exciting research areas of astronomy and astrophysics, including the precise measurement of stellar diameters, imaging of stellar surfaces, observations of circumstellar disks around young stellar objects, predictions of Einstein's General relativity at the galactic center, and the direct search for exoplanets to name a few. One important related technique is aperture masking interferometry, pioneered in the 1960s, which uses a mask with holes at the re-imaged pupil of the telescope, where the light from the holes is combined using the principle of stellar interferometry. While this can increase the resolution, it comes with a disadvantage. Due to the finite size of the holes, the majority of the starlight (typically > 80 %) is lost at the mask, thus limiting the signal-to-noise ratio (SNR) of the output images. This restriction of aperture masking only to the bright targets can be avoided using pupil remapping interferometry - a technique combining aperture masking interferometry and advances in photonic technologies using single-mode fibers. Due to the inherent spatial filtering properties, the single-mode fibers can be placed at the focal plane of the re-imaged pupil, allowing the utilization of the whole pupil of the telescope to produce a high-dynamic range along with high-resolution images. Thus, pupil remapping interferometry is one of the most promising application areas in the emerging field of astrophotonics. At the heart of an interferometric facility, a beam combiner exists whose primary function is to combine light to obtain high-contrast fringes. A beam combiner can be as simple as a beam splitter or an anamorphic lens to combine light from 2 apertures (or telescopes) or as complex as a cascade of beam splitters and lenses to combine light for > 2 apertures. However, with the field of astrophotonics, interferometric facilities across the globe are increasingly employing some form of photonics technologies by using single-mode fibers or integrated optics (IO) chips as an efficient way to combine light from several apertures. The state-of-the-art instrument - GRAVITY at the very large telescope interferometer (VLTI) facility uses an IO-based beam combiner device reaching visibilities accuracy of better than < 0.25 %, which is roughly 50× as precise as a few decades back. Therefore, in the context of IO-based components for applications in stellar interferometry, this Thesis describes the work towards the development of a 3-dimensional (3-D) IO device - a monolithic astrophotonics component containing both the pupil remappers and a discrete beam combiner (DBC). In this work, the pupil remappers are 3-D single-mode waveguides in a glass substrate collecting light from the re-imaged pupil of the telescope and feeding the light to a DBC, where the combination takes place. The DBC is a lattice of 3-D single-mode waveguides, which interact through evanescent coupling. By observing the output power of single-mode waveguides of the DBC, the visibilities are retrieved by using a calibrated transfer matrix ({U}) of the device. The feasibility of the DBC in retrieving the visibilities theoretically and experimentally had already been studied in the literature but was only limited to laboratory tests with monochromatic light sources. Thus, a part of this work extends these studies by investigating the response of a 4-input DBC to a broad-band light source. Hence, the objectives of this Thesis are the following: 1) Design an IO device for broad-band light operation such that accurate and precise visibilities could be retrieved experimentally at astronomical H-band (1.5-1.65 μm), and 2) Validation of the DBC as a possible beam combination scheme for future interferometric facilities through on-sky testing at the William Herschel Telescope (WHT). This work consisted of designing three different 3-D IO devices. One of the popular methods for fabricating 3-D photonic components in a glass substrate is ultra-fast laser inscription (ULI). Thus, manufacturing of the designed devices was outsourced to Politecnico di Milano as part of an iterative fabrication process using their state-of-the-art ULI facility. The devices were then characterized using a 2-beam Michelson interferometric setup obtaining both the monochromatic and polychromatic visibilities. The retrieved visibilities for all devices were in good agreement as predicted by the simulation results of a DBC, which confirms both the repeatability of the ULI process and the stability of the Michelson setup, thus fulfilling the first objective. The best-performing device was then selected for the pupil-remapping of the WHT using a different optical setup consisting of a deformable mirror and a microlens array. The device successfully collected stellar photons from Vega and Altair. The visibilities were retrieved using a previously calibrated {U} but showed significant deviations from the expected results. Based on the analysis of comparable simulations, it was found that such deviations were primarily caused by the limited SNR of the stellar observations, thus constituting a first step towards the fulfillment of the second objective. N2 - Das Auflösungsvermögen eines Teleskops, also die Fähigkeit, zwei Punktquellen voneinander zu trennen, wird durch ~λ/A bestimmt, wobei λ die Wellenlänge des Lichts und A der Durchmesser des Hauptspiegels des Teleskops ist. Wenn bei einem gegebenen Teleskop zwei punktförmige Objekte durch <λ/A getrennt sind, kann kein eindeutiges Bild dieser Objekte erzeugt werden und das Teleskopsystem ist somit beugungsbegrenzt. Kombiniert man jedoch das Licht von zwei Teleskopen, die durch einen Abstand B voneinander getrennt sind, erhöht sich die Auflösung um einen Faktor ~2B/A und überwindet damit die Beugungsgrenze eines einzelnen Teleskops. Daher wird bei der stellaren Interferometrie - deren Konzept von Michelson in den 1920er Jahren entwickelte wurde - Licht von zwei oder mehr Teleskopen kombiniert, um hochauflösende Bilder von astronomischen Objekten zu erzeugen. Die Anwendung der stellaren Interferometrie hat wichtige Beiträge zur Astronomie und Astrophysik geleistet, von der Untersuchung grundlegender Eigenschaften von Sternen bis hin zur Abbildung extragalaktischer Objekte. Das Herzstück einer interferometrischen Anlage ist ein Strahlkombinierer, der das Licht von mehreren Teleskopen (oder Aperturen) kombiniert, um kontrastreiche Interferenzstreifen zu erhalten. In der Anfangszeit konnte ein Strahlkombinierer ganz einfach sein, wie z.B. ein Strahlteiler oder eine anamorphotische Linse für die Kombination des Lichts von 2 Aperturen (oder Teleskopen), oder sehr komplex, wie z.B. eine Kaskade von Strahlteilern und Linsen, um Licht für >2 Aperturen zu kombinieren. Mit dem aufkommenden Gebiet der Astrophotonik setzen interferometrische Einrichtungen jedoch vermehrt photonische Technologien ein, indem Einzelmoden-Fasern oder ein Chip mit integrierter Optik (IO) verwendet werden, um Licht aus mehreren Aperturen effizient zu kombinieren. Bei der sogenannten pupil remapping interferometry Technik (dt etwa: neugeordnete Pupille) wird beispielsweise Licht mit mehreren Einzelmoden-Wellenleitern auf einem IO-Chip gesammelt. Diese Komponenten werden an der Position im Strahlengang eingefügt, an der die Pupille des Teleskops abgebildet wird. Anschließend wird das Licht aus den Fasern oder Wellenleitern durch eine Freistrahloptik oder IO-basierte Komponente interferometrisch überlagert, um Bilder sowohl mit hohem Kontrast als auch hoher Auflösung zu erzeugen. Im Kontext von IO-basierten Komponenten für stellare Interferometrie ist das Ziel dieser Arbeit die Entwicklung eines 3-dimensionalen (3-D) IO-Bauteils - eine monolithische Astrophotonik-Komponente, die sowohl die Pupil Remapper als auch einen discrete beam combiner (DBC) (dt: Diskreten Strahlkombinierer ) enthält. In dieser Arbeit sind die Pupil Remapper 3-D Einzelmoden-Wellenleiter, die in ein Glassubstrat eingeschrieben sind und das Licht von der abgebildeten Pupille des Teleskops sammeln und zu einem DBC leiten, in dem die Kombination stattfindet. Der DBC ist eine 3-D Gitteranordnung von Einzelmoden-Wellenleitern, die durch evaneszente Kopplung miteinander wechselwirken. Durch Beobachtung der Ausgangsleistung der Einzelmoden-Wellenleiter des DBCs werden mit Hilfe einer kalibrierten Übertragungsmatrix des Systems die Visibilities (dt: Kontrastwerte) ermittelt, die für eine hochauflösende Bildgebung erforderlich sind. Die Eignung von DBCs für die Ermittlung der Kontrastwerte wurde sowohl theoretisch als auch experimentell untersucht und in Fachzeitschriften publiziert. Bisher beschränkten sich diese Untersuchungen jedoch auf Labortests mit monochromatischen Lichtquellen. Die Ziele dieser Arbeit sind daher die folgenden: 1) Die Entwicklung eines IO-Bauteils für die Anwendung mit breitbandigem Licht, so dass Kontrastwerte im astronomischen H-Band (1,5-1,65 μm) ermittelt werden können, 2) experimentelle Demonstration genauer und präziser Kontrastwerte mit dem IO-Bauteil, welches mit der Femtosekundenlaser-Bearbeitungsmethode hergestellt wird, und 3) Validierung des DBCs als mögliches Konzept für die Strahlkombination für zukünftige interferometrische Anlagen durch On-Sky-Tests am William Herschel Teleskop. KW - stellar interferometry KW - ultra-fast laser inscription technology KW - astrophotonics KW - discrete beam cominer KW - pupil remappers KW - visibility KW - integrated optics KW - William Herschel telescope KW - on-sky tests KW - stellare Interferometrie KW - Femtosekundenlaser-Bearbeitungsmethode KW - Astrophotonik KW - diskreter Strahlkombinierer KW - Pupil Remapper KW - Kontrastwerte KW - integrierte Optik KW - William Herschel Teleskop KW - On-Sky-Tests Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558743 ER - TY - THES A1 - Lever, Fabiano T1 - Probing the ultrafast dynamics of 2-Thiouracil with soft x-rays T1 - Untersuchung der ultraschnellen Dynamik von 2-Thiouracil mit weicher Röntgenstrahlung N2 - Understanding the changes that follow UV-excitation in thionucleobases is of great importance for the study of light-induced DNA lesions and, in a broader context, for their applications in medicine and biochemistry. Their ultrafast photophysical reactions can alter the chemical structure of DNA - leading to damages to the genetic code - as proven by the increased skin cancer risk observed for patients treated with thiouracil for its immunosuppressant properties. In this thesis, I present four research papers that result from an investigation of the ultrafast dynamics of 2-thiouracil by means of ultrafast x-ray probing combined with electron spectroscopy. A molecular jet in the gas phase is excited with a uv pulse and then ionized with x-ray radiation from a Free Electron Laser. The kinetic energy of the emitted electrons is measured in a magnetic bottle spectrometer. The spectra of the measured photo and Auger electrons are used to derive a picture of the changes in the geometrical and electronic configurations. The results allow us to look at the dynamical processes from a new perspective, thanks to the element- and site- sensitivity of x-rays. The custom-built URSA-PQ apparatus used in the experiment is described. It has been commissioned and used at the FL24 beamline of the FLASH2 FEL, showing an electron kinetic energy resolution of ∆E/E ~ 40 and a pump-probe timing resolution of 190 f s. X-ray only photoelectron and Auger spectra of 2-thiouracil are extracted from the data and used as reference. Photoelectrons following the formation a 2p core hole are identified, as well as resonant and non-resonant Auger electrons. At the L 1 edge, Coster-Kronig decay is observed from the 2s core hole. The UV-induced changes in the 2p photoline allow the study the electronic-state dynamics. With the use of an Excited-State Chemical Shift (ESCS) model, we observe a ultrafast ground-state relaxation within 250 f s. Furthermore, an oscillation with a 250 f s period is observed in the 2p binding energy, showing a coherent population exchange between electronic states. Auger electrons from the 2p core hole are analyzed and used to deduce a ultrafast C −S bond expansion on a sub 100 f s scale. A simple Coulomb-model, coupled to quantum chemical calculations, can be used to infer the geometrical changes in the molecular structure. N2 - Das Verständnis von lichtinduzierten, molekularen Prozessen ist über die Physik hinaus in einem breiten Kondext für Medizin und Biochemie relevant. Die ultraschnellen, photophysikalischen Reaktionen mancher Moleküle können die chemische Struktur von DNA verändern und somit genetischen Code schädigen. So führt zum Beispiel die UV-Anregung von Thionukleobasen zu Läsionen der DNA in den Zellen. Dementsprechend zeigen Patienten ein erhöhtes Hautkrebsrisiko, wenn sie im Rahmen einer immunsuppressiven Therapie mit Thiouracil behandelt werden. In dieser Dissertation stelle ich vier Forschungsarbeiten vor, in denen die ultraschnellen, intramolekularen Dynamiken von 2-Thiouracil mittels ultraschneller Anregungs-Abfrage(Pump-Probe)-Röntgenelektronenspektroskopie untersucht werden. Die relevanten molekularen Dynamiken werden stark durch das Schwefelatom des Thiouracils beeinflusst. Die Element- und Ortsempfindlichkeit der verwendeten Röntgenstrahlung erlauben es, diese Prozesse experimentell zu untersuchen. Dafür werden 2-Thiouracil-Moleküle thermisch in einem Molekularstrahl in die Gasphase freigesetzt. Nachdem die Moleküle mit einem UV-Puls angeregt wurden, erfolgt zeitversetzt die Abfrage mit einem Röntgenpuls, der die Moleküle ionisiert. Die kinetische Energie der emittierten Photo- und Augerelektronen wird mit einem Elektronenspektrometer vom Typ ‘Magnetische Flasche’ gemessen. Die Energiespektren dieser Elektronen werden verwendet, um ein Modell von den UV-lichtinduzierten Veränderungen der geometrischen und elektronischen Konfigurationen der Moleküle zu erhalten. Für diese Experimente wird erstmalig eine speziell angefertigte Apparatur namens URSA-PQ verwendet und beschrieben. Sie wurde an der Beamline FL24 des Freie Elektronenlaser (FEL) FLASH2 in Betrieb genommen und verwendet. Aus den Daten werden reine Röntgenphoto- und Augerelektronenspektren des Schwefelatoms von 2-Thiouracil extrahiert und als Referenz verwendet. Die 2p- Photoelektronen werden identifiziert, ebenso wie resonante und nicht-resonante Augerelektronen, die bei dem Zerfall des 2p-Kernlochs entstehen. Die UV-induzierten Veränderungen der 2p-Photolinie ermöglichen es, die Dynamik des elektronischen Zustands zu untersuchen. Unter Verwendung eines ESCS-Modells (Excited-State Chemical Shift) beobachten wir eine ultraschnelle Grundzustandsrelaxation innerhalb von 250 f s. Auger-Elektronen aus dem Zerfall des 2p-Kernlochs im UV-angeregten 2-Thiouracil werden ebenfalls analysiert. Die Änderung ihrer kinetischen Energie deutet auf eine ultraschnelle C − S-Bindungsexpansion auf einer Skala von unter 100 f s hin. Ein einfaches Coulomb-Modell, gekoppelt mit quantenchemischen Berechnungen, kann die geometrischen Veränderungen in der Molekülstruktur erklären. KW - Quantum KW - x-ray KW - photoelectron spectroscopy KW - thiouracil KW - nucleobases KW - Free Electron Laser KW - ultrafast KW - conical intersection KW - molecular dynamics KW - Freie-Elektronen-Laser KW - Quantum KW - konische Kreuzung KW - Molekulardynamik KW - Nukleobasen KW - Photoelektronenspektroskopie KW - Thiouracil KW - ultraschnell KW - Röntgenspektroskopie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555230 ER - TY - THES A1 - Perdigón-Toro, Lorena T1 - On the Generation and Fate of Free Carriers in Non-Fullerene Acceptor Organic Solar Cells N2 - Organic solar cells offer an efficient and cost-effective alternative for solar energy harvesting. This type of photovoltaic cell typically consists of a blend of two organic semiconductors, an electron donating polymer and a low molecular weight electron acceptor to create what is known as a bulk heterojunction (BHJ) morphology. Traditionally, fullerene-based acceptors have been used for this purpose. In recent years, the development of new acceptor molecules, so-called non-fullerene acceptors (NFA), has breathed new life into organic solar cell research, enabling record efficiencies close to 19%. Today, NFA-based solar cells are approaching their inorganic competitors in terms of photocurrent generation, but lag in terms of open circuit voltage (V_OC). Interestingly, the V_OC of these cells benefits from small offsets of orbital energies at the donor-NFA interface, although previous knowledge considered large energy offsets to be critical for efficient charge carrier generation. In addition, there are several other electronic and structural features that distinguish NFAs from fullerenes. My thesis focuses on understanding the interplay between the unique attributes of NFAs and the physical processes occurring in solar cells. By combining various experimental techniques with drift-diffusion simulations, the generation of free charge carriers as well as their recombination in state-of-the-art NFA-based solar cells is characterized. For this purpose, solar cells based on the donor polymer PM6 and the NFA Y6 have been investigated. The generation of free charge carriers in PM6:Y6 is efficient and independent of electric field and excitation energy. Temperature-dependent measurements show a very low activation energy for photocurrent generation (about 6 meV), indicating barrierless charge carrier separation. Theoretical modeling suggests that Y6 molecules have large quadrupole moments, leading to band bending at the donor-acceptor interface and thereby reducing the electrostatic Coulomb dissociation barrier. In this regard, this work identifies poor extraction of free charges in competition with nongeminate recombination as a dominant loss process in PM6:Y6 devices. Subsequently, the spectral characteristics of PM6:Y6 solar cells were investigated with respect to the dominant process of charge carrier recombination. It was found that the photon emission under open-circuit conditions can be almost entirely attributed to the occupation and recombination of Y6 singlet excitons. Nevertheless, the recombination pathway via the singlet state contributes only 1% to the total recombination, which is dominated by the charge transfer state (CT-state) at the donor-acceptor interface. Further V_OC gains can therefore only be expected if the density and/or recombination rate of these CT-states can be significantly reduced. Finally, the role of energetic disorder in NFA solar cells is investigated by comparing Y6 with a structurally related derivative, named N4. Layer morphology studies combined with temperature-dependent charge transport experiments show significantly lower structural and energetic disorder in the case of the PM6:Y6 blend. For both PM6:Y6 and PM6:N4, disorder determines the maximum achievable V_OC, with PM6:Y6 benefiting from improved morphological order. Overall, the obtained findings point to avenues for the realization of NFA-based solar cells with even smaller V_OC losses. Further reduction of nongeminate recombination and energetic disorder should result in organic solar cells with efficiencies above 20% in the future. N2 - Organische Solarzellen bieten eine effiziente und kostengünstige Alternative für die Nutzung von Sonnenenergie. Bei dieser Art von Photovoltaikzellen werden in der Regel zwei organische Halbleiter, ein elektronenspendendes Polymer und ein niedermolekularer Elektronenakzeptor gemischt, um eine sogenannte „Bulk-Heterojunction“ (BHJ)-Morphologie zu erzeugen. Traditionell wurden hierfür Fulleren-basierte Akzeptoren verwendet. In den letzten Jahren hat die Entwicklung neuer Akzeptor-Moleküle, so genannter Nicht-Fulleren-Akzeptoren (NFA), der organischen Solarzellenforschung neues Leben eingehaucht und damit Rekordwirkungsgrade >19 % ermöglicht. Heutzutage nähern sich NFA-basierte Solarzellen ihren anorganischen Konkurrenten bezüglich der Photostromerzeugung an, nicht jedoch im Hinblick auf die Leerlaufspannung (V_OC). Interessanterweise profitiert der V_OC dieser Zellen von kleinen Offsets der Orbitalenergien an der Donor-NFA-Grenzfläche, obwohl nach bisherigem Wissen große Energieoffsets als entscheidend für die effiziente Ladungsträgergenerierung an der Heterogrenzfläche galten. Darüber hinaus gibt es eine Reihe weiterer elektronischer und struktureller Merkmale, die NFAs von Fullerenen unterscheiden. Meine Dissertation konzentriert sich auf ein tiefgreifendes Verständnis des Zusammenspiels der einzigartigen Eigenschaften von NFAs und den physikalischen Prozessen in daraus hergestellten Solarzellen. Durch die Kombination verschiedener experimenteller Techniken mit Drift-Diffusions-Simulationen wird die Erzeugung freier Ladungsträger sowie deren Rekombination in modernen NFA-basierten Solarzellen charakterisiert. Zu diesem Zweck wurden Solarzellen auf Basis des Donor-Polymers PM6 und des NFA Y6 untersucht. Die Erzeugung freier Ladungsträger in PM6:Y6 erweist sich dabei als effizient und unabhängig von elektrischem Feld und Anregungsenergie. Temperaturabhängige Messungen zeigen eine sehr geringe Aktivierungsenergie für die Photostromerzeugung (ca. 6 meV), was auf eine barrierefreie Ladungsträgertrennung hinweist. Theoretische Modellierungen legen nahe, dass Y6-Moleküle große Quadrupolmomente aufweisen, was zu einer Bandverbiegung an der Donor-Akzeptor-Grenzfläche führt und dabei die elektrostatische Coulombsch-Dissoziationsbarriere reduziert. In dieser Hinsicht identifiziert diese Arbeit die schlechte Extraktion freier Ladungen in Konkurrenz zur „nongeminalen“ Rekombination als einen dominanten Verlustprozess in PM6:Y6 Zellen. In weiterer Folge wurden die spektralen Eigenschaften von PM6:Y6-Solarzellen im Hinblick auf den dominanten Prozess der Ladungsträgergenerierung und rekombination untersucht. Es zeigte sich, dass die Photonenemission unter Leerlaufbedingungen fast vollständig auf die Besetzung und Rekombination von Y6-Singlet-Exzitonen zurückgeführt werden kann. Trotzdem trägt der Rekombinationspfad über den Singlett-Zustand nur zu 1 % zur gesamten Rekombination bei, die über den Ladungstransfer-Zustand (CT-state) an der Donor-Akzeptor-Grenzfläche dominiert wird. Weitere V_OC Gewinne sind daher nur zu erwarten, wenn die Dichte und/oder die Rekombinationsrate dieser CT-Zustände erheblich reduziert werden kann. Schließlich wird die Rolle der energetischen Unordnung in NFA-Solarzellen durch den Vergleich von Y6 mit einem strukturverwandten Derivat, genannt N4, untersucht. Untersuchungen zur Schichtmorphologie in Kombination mit Experimenten zum temperaturabhängigen Ladungstransport zeigen eine deutlich geringere strukturelle und energetische Unordnung im Fall des PM6:Y6 Blends. Sowohl für PM6:Y6 als auch für PM6:N4 bestimmt die Unordnung den maximal erreichbaren V_OC, wobei PM6:Y6 von der verbesserten morphologischen Ordnung profitiert. Insgesamt weisen die gewonnenen Erkenntnisse Wege für die Realisierung von NFA-basierten Solarzellen mit noch kleineren V_OC-Verlusten auf. Durch die weitere Reduzierung der „nongeminaten“ Rekombination als auch der energetischen Unordnung sollten in Zukunft organische Solarzellen mit einem Wirkungsgrad von über 20 % möglich werden. T2 - Über die Photogenerierung und Rekombination freier Ladungsträger in organischen Solarzellen mit Nicht-Fulleren-Akzeptoren KW - organic solar cells KW - non-fullerene acceptors KW - free charge generation KW - free charge recombination KW - energetic disorder KW - organic semiconductors KW - energetische Unordnung KW - Generierung freier Ladungsträger KW - freie Ladungsträger Rekombination KW - Nicht-Fulleren-Akzeptoren KW - organische Halbleiter KW - organische Solarzellen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558072 ER - TY - THES A1 - Kuhla, Kilian T1 - Impact, distribution, and adaptation T1 - Auswirkung, Verteilung und Anpassung BT - how weather extremes threaten the economic network BT - wie Wetterextreme das ökonomische Netzwerk bedrohen N2 - Weather extremes pose a persistent threat to society on multiple layers. Besides an average of ~37,000 deaths per year, climate-related disasters cause destroyed properties and impaired economic activities, eroding people's livelihoods and prosperity. While global temperature rises – caused by anthropogenic greenhouse gas emissions – the direct impacts of climatic extreme events increase and will further intensify without proper adaptation measures. Additionally, weather extremes do not only have local direct effects. Resulting economic repercussions can propagate either upstream or downstream along trade chains causing indirect effects. One approach to analyze these indirect effects within the complex global supply network is the agent-based model Acclimate. Using and extending this loss-propagation model, I focus in this thesis on three aspects of the relation between weather extremes and economic repercussions. First, extreme weather events cause direct impacts on local economic performance. I compute daily local direct output loss time series of heat stress, river floods, tropical cyclones, and their consecutive occurrence using (near-future) climate projection ensembles. These regional impacts are estimated based on physical drivers and local productivity distribution. Direct effects of the aforementioned disaster categories are widely heterogeneous concerning regional and temporal distribution. As well, their intensity changes differently under future warming. Focusing on the hurricane-impacted capital, I find that long-term growth losses increase with higher heterogeneity of a shock ensemble. Second, repercussions are sectorally and regionally distributed via economic ripples within the trading network, causing higher-order effects. I use Acclimate to identify three phases of those economic ripples. Furthermore, I compute indirect impacts and analyze overall regional and global production and consumption changes. Regarding heat stress, global consumer losses double while direct output losses increase by a factor 1.5 between 2000 – 2039. In my research I identify the effect of economic ripple resonance and introduce it to climate impact research. This effect occurs if economic ripples of consecutive disasters overlap, which increases economic responses such as an enhancement of consumption losses. These loss enhancements can even be more amplified with increasing direct output losses, e.g. caused by climate crises. Transport disruptions can cause economic repercussions as well. For this, I extend the model Acclimate with a geographical transportation route and expand the decision horizon of economic agents. Using this, I show that policy-induced sudden trade restrictions (e.g. a no-deal Brexit) can significantly reduce the longer-term economic prosperity of affected regions. Analyses of transportation disruptions in typhoon seasons indicate that severely affected regions must reduce production as demand falls during a storm. Substituting suppliers may compensate for fluctuations at the beginning of the storm, which fails for prolonged disruptions. Third, possible coping mechanisms and adaptation strategies arise from direct and indirect economic responses to weather extremes. Analyzing annual trade changes due to typhoon-induced transport disruptions depict that overall exports rise. This trade resilience increases with higher network node diversification. Further, my research shows that a basic insurance scheme may diminish hurricane-induced long-term growth losses due to faster reconstruction in disasters aftermaths. I find that insurance coverage could be an economically reasonable coping scheme towards higher losses caused by the climate crisis. Indirect effects within the global economic network from weather extremes indicate further adaptation possibilities. For one, diversifying linkages reduce the hazard of sharp price increases. Next to this, close economic interconnections with regions that do not share the same extreme weather season can be economically beneficial in the medium run. Furthermore, economic ripple resonance effects should be considered while computing costs. Overall, an increase in local adaptation measures reduces economic ripples within the trade network and possible losses elsewhere. In conclusion, adaptation measures are necessary and potential present, but it seems rather not possible to avoid all direct or indirect losses. As I show in this thesis, dynamical modeling gives valuable insights into how direct and indirect economic impacts arise from different categories of weather extremes. Further, it highlights the importance of resolving individual extremes and reflecting amplifying effects caused by incomplete recovery or consecutive disasters. N2 - Wetterextreme stellen für die Gesellschaft eine anhaltende Bedrohung auf mehreren Ebenen dar. Neben durchschnittlich ~37.000 Todesfällen pro Jahr verursachen meteorologische Katastrophen Eigentumsschäden und Wirtschaftsbeeinträchtigungen, wodurch die Lebensgrundlagen und der Wohlstand der Menschen untergraben werden. Während die globale Temperatur – verursacht durch anthropogene Treibhausgasemissionen – ansteigt, nehmen die direkten Auswirkungen klimatischer Extremereignisse zu und werden sich ohne geeignete Anpassungsmaßnahmen weiter verstärken. Hinzu kommt, dass Wetterextreme nicht nur lokal direkte Schäden anrichten, sondern sich wetterbedingte wirtschaftliche Auswirkungen auch entlang der Handelsketten ausbreiten und so indirekte Effekte nach sich ziehen. Ein Ansatz zur Analyse dieser indirekten Auswirkungen innerhalb des komplexen globalen Versorgungsnetzes ist das agentenbasierte Modell Acclimate. In meiner Dissertation verwende und erweitere ich dieses Schadenspropagationsmodell, um drei Aspekte der Beziehung zwischen Wetterextremen und wirtschaftlichen Auswirkungen zu untersuchen. Erstens verursachen extreme Wetterereignisse direkte Schäden in lokaler Wirtschaftsleistung. Die regionalen Auswirkungen werden auf der Grundlage von physikalischen Faktoren und lokalen Produktivitätsverteilungen kalkuliert. Ich berechne tägliche Zeitreihen lokaler Produktionsverluste durch Hitzestress, Überschwemmungen, tropische Wirbelstürme und deren konsekutives Auftreten unter Verwendung von Klimaprojektionsensembles. Die direkten Auswirkungen der oben genannten Katastrophenkategorien sind sehr heterogen in Bezug auf die regionale und zeitliche Verteilung. Ebenso ändert sich ihre Stärke unterschiedlich unter zukünftiger Erwärmung. Meine Forschungsergebnisse zeigen, dass Kapitalstock, welcher von Wirbelstürmen beschädigt ist, langfristige Wachstumsverluste verursacht. Dabei nehmen die Verluste zu, wenn die Heterogenität der Schocks steigt. Zweitens werden die wetterbedingten Auswirkungen durch wirtschaftliche Wellen innerhalb des Handelsnetzes auf verschiedene Wirtschaftssektoren und Regionen verteilt. In meiner Dissertation, untersuche ich die wirtschaftlichen Wellen mittels Acclimate und mache dabei drei Wellenphasen aus. Darüber hinaus berechne ich indirekte Auswirkungen und analysiere die regionalen und globalen Produktionsveränderungen sowie die Auswirkungen auf Konsumierende. Für letztere verdoppeln sich zwischen 2000 und 2039 die weltweiten Verluste durch Hitzestress, während im selben Zeitraum die direkten Produktionsverluste nur um den Faktor 1.5 steigen. Im Zuge meiner Forschung identifiziere ich den Effekt der ökonomischen Wellenresonanz und führe ihn in die Klimafolgenforschung ein. Dieser Effekt tritt auf, wenn sich die ökonomischen Wellen aufeinanderfolgender Katastrophen überlagern, was wirtschaftliche Reaktionen intensiviert wie beispielsweise eine Steigerung der Konsumverluste. Diese Dynamik der Verluste kann durch zunehmende direkte Produktionsverluste, hervorgerufen etwa durch den Klimawandel, noch verstärkt werden. Auch Handelsunterbrechungen können wirtschaftliche Auswirkungen haben. Um diese zu berechnen, erweitere ich das Modell Acclimate um ein geografisches Transportnetzwerk und weite den Entscheidungshorizont der Wirtschaftsakteure aus. Politisch bedingte plötzliche Handelsbeschränkungen (z. B. ein No-Deal-Brexit) können den längerfristigen wirtschaftlichen Wohlstand der betroffenen Regionen erheblich verringern. Analysen von Transportunterbrechungen in der Taifunsaison zeigen, dass stark betroffene Regionen ihre Produktionen reduzieren müssen, wenn die Nachfrage während eines Sturms sinkt. Zu Beginn eines Sturms können Handelsschwankungen durch alternative Lieferanten ausgeglichen werden, was jedoch bei längeren Unterbrechungen nicht mehr gelingt. Drittens ergeben sich mögliche Anpassungsmechanismen und -strategien aus direkten und indirekten wirtschaftlichen Reaktionen auf Wetterextreme. Die Analyse der jährlichen Handelsveränderungen in der Taifunsaison zeigt, dass Exporte insgesamt zunehmen. Diese Widerstandsfähigkeit des Handels wächst mit einer höheren Diversifizierung der Handelspartner. Weiterhin zeigt meine Forschung an Wirtschaftswachstumsmodellen, dass ein Versicherungssystem langfristige Wachstumsverluste, verursacht durch Tropenstürme, durch schnelleren Wiederaufbau verringern kann. Ich komme zu dem Schluss, dass ein Versicherungsschutz eine wirtschaftlich sinnvolle Anpassungsstrategie gegenüber höheren Schäden durch die Klimakrise sein kann. Ebenso weisen indirekte Auswirkungen von Wetterextremen innerhalb des globalen Wirtschaftsnetzes auf weitere Anpassungsmöglichkeiten hin. Zunächst vermindert eine diversifizierte Vernetzung die Gefahr eines starken Preisanstiegs. Ebenso kann eine enge wirtschaftliche Verflechtung von Regionen, die nicht dieselbe Unwettersaison haben, mittelfristig wirtschaftlich vorteilhaft sein. Weiterhin sollten bei der Berechnung der Kosten wirtschaftliche Resonanzeffekte berücksichtigt werden. Eine Verstärkung der lokalen Anpassungsmaßnahmen verringert die Amplitude ökonomischer Wellen und damit auch potentielle Verluste in anderen Regionen. Insgesamt sind Anpassungsmaßnahmen notwendig, aber es scheint trotz dieser nicht möglich zu sein, alle direkten oder indirekten Verluste zu vermeiden. Wie ich in meiner Arbeit darlege, gibt die dynamische Modellierung wertvolle Einblicke in die Art und Weise, wie direkte und indirekte wirtschaftliche Auswirkungen durch verschiedene Wetterextreme entstehen. Darüber hinaus wird deutlich, wie wichtig es ist, einzelne Extremereignisse aufzulösen und Verstärkungseffekte zu berücksichtigen, die durch unvollständigen Wiederaufbau oder aufeinanderfolgende Katastrophen verursacht werden. KW - climate change KW - weather extremes KW - macro-economic modelling KW - network theory KW - economic network KW - Klimawandel KW - Wetterextreme KW - Makroökonomische Modellierung KW - Netzwerktheorie KW - Ökonomisches Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-552668 ER - TY - THES A1 - Büchner, Robby T1 - Understanding local electronic structure variations in bio-inspired aromatic molecules T1 - Erkenntnisse über lokale Variationen der elektronischen Struktur in biologisch inspirierten aromatischen Molekülen N2 - In this thesis, the dependencies of charge localization and itinerance in two classes of aromatic molecules are accessed: pyridones and porphyrins. The focus lies on the effects of isomerism, complexation, solvation, and optical excitation, which are concomitant with different crucial biological applications of specific members of these groups of compounds. Several porphyrins play key roles in the metabolism of plants and animals. The nucleobases, which store the genetic information in the DNA and RNA are pyridone derivatives. Additionally, a number of vitamins are based on these two groups of substances. This thesis aims to answer the question of how the electronic structure of these classes of molecules is modified, enabling the versatile natural functionality. The resulting insights into the effect of constitutional and external factors are expected to facilitate the design of new processes for medicine, light-harvesting, catalysis, and environmental remediation. The common denominator of pyridones and porphyrins is their aromatic character. As aromaticity was an early-on topic in chemical physics, the overview of relevant theoretical models in this work also mirrors the development of this scientific field in the 20th century. The spectroscopic investigation of these compounds has long been centered on their global, optical transition between frontier orbitals. The utilization and advancement of X-ray spectroscopic methods characterizing the local electronic structure of molecular samples form the core of this thesis. The element selectivity of the near-edge X-ray absorption fine structure (NEXAFS) is employed to probe the unoccupied density of states at the nitrogen site, which is key for the chemical reactivity of pyridones and porphyrins. The results contribute to the growing database of NEXAFS features and their interpretation, e.g., by advancing the debate on the porphyrin N K-edge through systematic experimental and theoretical arguments. Further, a state-of-the-art laser pump – NEXAFS probe scheme is used to characterize the relaxation pathway of a photoexcited porphyrin on the atomic level. Resonant inelastic X-ray scattering (RIXS) provides complementary results by accessing the highest occupied valence levels including symmetry information. It is shown that RIXS is an effective experimental tool to gain detailed information on charge densities of individual species in tautomeric mixtures. Additionally, the hRIXS and METRIXS high-resolution RIXS spectrometers, which have been in part commissioned in the course of this thesis, will gain access to the ultra-fast and thermal chemistry of pyridones, porphyrins, and many other compounds. With respect to both classes of bio-inspired aromatic molecules, this thesis establishes that even though pyridones and porphyrins differ largely by their optical absorption bands and hydrogen bonding abilities, they all share a global stabilization of local constitutional changes and relevant external perturbation. It is because of this wide-ranging response that pyridones and porphyrins can be applied in a manifold of biological and technical processes. N2 - In dieser Arbeit werden die Abhängigkeiten von Ladungslokalisierung und -wanderung in zwei Klassen von aromatischen Molekülen untersucht: Pyridone und Porphyrine. Der Schwerpunkt liegt auf den Auswirkungen von Isomerie, Komplexierung, Lösung (in Wasser) und optischer Anregung, die mit verschiedenen entscheidenden biologischen Anwendungen spezifischer Mitglieder dieser Gruppen von Verbindungen einhergehen. Mehrere Porphyrine spielen eine Schlüsselrolle im Stoffwechsel von Pflanzen und Tieren. Die Nukleobasen, die die genetische Information in der DNA und RNA speichern, sind Pyridonderivate. Auch mehrere Vitamine basieren auf diesen beiden Stoffgruppen. Ziel dieser Arbeit ist es, die Frage zu beantworten, wie die elektronische Struktur dieser Molekülklassen modifiziert wird, sodass die vielfältigen Funktionen in der Natur ermöglicht werden. Die sich daraus ergebenden Erkenntnisse über die Wirkung konstitutioneller und externer Einflussfaktoren ermöglichen die Entwicklung neuer Verfahren in der Medizin, Katalyse, Solar- und Umwelttechnik. Die Gemeinsamkeit von Pyridonen und Porphyrinen ist ihr aromatischer Charakter. Da Aromatizität von Beginn der chemischen Physik an thematisiert wurde, spiegelt der Überblick relevanter theoretischer Modelle in dieser Arbeit auch die Entwicklung dieses Wissenschaftsgebiets im 20. Jahrhundert wieder. Die spektroskopische Untersuchung dieser Verbindungen konzentrierte sich lange Zeit auf die globalen, optischen Übergänge zwischen den Grenzorbitalen. Die Anwendung und Weiterentwicklung röntgenspektroskopischer Methoden zur Charakterisierung der lokalen elektronischen Struktur von molekularen Proben bilden den Kern dieser Arbeit. Die Elementselektivität der Röntgen-Nahkanten-Absorptions-Spektroskopie (NEXAFS) wird genutzt, um die unbesetzte Zustandsdichte an den Stickstoffatomen zu untersuchen, welche für die chemische Reaktivität von Pyridonen und Porphyrinen verantwortlich sind. Die Ergebnisse tragen zum wachsenden Bestand von NEXAFS-Spektren und ihrer Interpretation bei, z.B. indem sie die Debatte über die N K-Kante von Porphyrinen durch systematische experimentelle und theoretische Argumente voranbringen. Zudem wird ein modernes Laser-Pump – NEXAFS-Probe System verwendet, um den Relaxationsprozess eines photoangeregten Porphyrins auf atomarer Ebene zu charakterisieren. Die resonante inelastische Röntgenstreuung (RIXS) liefert komplementäre Ergebnisse, indem sie die höchsten besetzten Valenzniveaus einschließlich Symmetrieinformationen zugänglich macht. Es wird gezeigt, dass RIXS eine effektive experimentelle Methode ist, um detaillierte Informationen über die Ladungsdichten einzelner Tautomere in einem Gemisch zu erhalten. Zudem werden es die hochauflösenden RIXS-Spektrometer hRIXS und METRIXS, die im Rahmen dieser Arbeit mit in Betrieb genommen wurden, erlauben, Informationen zur ultraschnellen und thermischen Chemie von Pyridonen, Porphyrinen und vielen anderen Verbindungen zu gewinnen. Im Hinblick auf beide Klassen biologisch inspirierter, aromatischer Moleküle wird in dieser Arbeit gezeigt, dass sich Pyridone und Porphyrine zwar durch ihre optischen Absorptionsbanden und ihre Fähigkeit zu Wasserstoffbrückenbindungen unterscheiden, aber alle Verbindungen eine globale Stabilisierung lokaler Konstitutionsänderungen und relevanter äußerer Einflüsse aufweisen. Aufgrund dieser weitreichenden Anpassung können Pyridone und Porphyrine in einer Vielzahl von biologischen und technischen Prozessen eingesetzt werden. KW - NEXAFS KW - RIXS KW - X-ray spectroscopy KW - Aromaticity KW - Porphyrins KW - Pyridones KW - Röntgenspektroskopie KW - Aromatizität KW - Porphyrine KW - Pyridone KW - NEXAFS KW - RIXS Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553192 ER - TY - THES A1 - Förste, Stefanie T1 - Assemblierung von Proteinkomplexen in vitro und in vivo T1 - Assembly of protein complexes in vitro and in vivo N2 - Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt. Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen, zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen, jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten. KW - Assemblierung KW - Proteine KW - Multiproteinkomplexbildung KW - co-translationale Assemblierung KW - post-translationale Assemblierung KW - Lösung KW - Oberfläche KW - Lösungsassemblierung KW - Oberflächenassemblierung KW - co-translational KW - post-translational KW - assembly KW - proteins KW - multi protein complex formation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550742 ER - TY - THES A1 - Velk, Natalia T1 - Investigation of the interaction of lysozyme with poly(l-lysine)/hyaluronic acid multilayers BT - Fluorescence and ATR-FTIR study Y1 - 2022 ER - TY - THES A1 - Raman Venkatesan, Thulasinath T1 - Tailoring applications-relevant properties in poly(vinylidene fluoride)-based homo-, co- and ter-polymers through modification of their three-phase structure T1 - Maßgeschneiderte anwendungsrelevante Eigenschaften in Homo-, Ko- und Ter-Polymeren auf der Basis von Poly(vinylidenfluorid) durch Modifikation ihrer Dreiphasenstruktur N2 - Poly(vinylidene fluoride) (PVDF)-based homo-, co- and ter-polymers are well-known for their ferroelectric and relaxor-ferroelectric properties. Their semi-crystalline morphology consists of crystalline and amorphous phases, plus interface regions in between, and governs the relevant electro-active properties. In this work, the influence of chemical, thermal and mechanical treatments on the structure and morphology of PVDF-based polymers and on the related ferroelectric/relaxor-ferroelectric properties is investigated. Polymer films were prepared in different ways and subjected to various treatments such as annealing, quenching and stretching. The resulting changes in the transitions and relaxations of the polymer samples were studied by means of dielectric, thermal, mechanical and optical techniques. In particular, the origin(s) behind the mysterious mid-temperature transition (T_{mid}) that is observed in all PVDF-based polymers was assessed. A new hypothesis is proposed to describe the T_{mid} transition as a result of multiple processes taking place within the temperature range of the transition. The contribution of the individual processes to the observed overall transition depends on both the chemical structure of the monomer units and the processing conditions which also affect the melting transition. Quenching results in a decrease of the overall crystallinity and in smaller crystallites. On samples quenched after annealing, notable differences in the fractions of different crystalline phases have been observed when compared to samples that had been slowly cooled. Stretching of poly(vinylidene fluoride-tetrafluoroethylene) (P(VDF-TFE)) films causes an increase in the fraction of the ferroelectric β-phase with simultaneous increments in the melting point (T_m) and the crystallinity (\chi_c) of the copolymer. While an increase in the stretching temperature does not have a profound effect on the amount of the ferroelectric phase, its stability appears to improve. Measurements of the non-linear dielectric permittivity \varepsilon_2^\prime in a poly(vinylidenefluoride-trifluoroethylene-chlorofluoroethylene) (P(VDF-TrFE- CFE)) relaxor-ferroelectric (R-F) terpolymer reveal peaks at 30 and 80 °C that cannot be identified in conventional dielectric spectroscopy. The former peak is associated with T_{mid}\ and may help to understand the non-zero \varepsilon_2^\prime values that are found for the paraelectric terpolymer phase. The latter peak can also be observed during cooling of P(VDF-TrFE) copolymer samples at 100 °C and is due to conduction processes and space-charge polarization as a result of the accumulation of real charges at the electrode-sample interface. Annealing lowers the Curie-transition temperature of the terpolymer as a consequence of its smaller ferroelectric-phase fraction, which by default exists even in terpolymers with relatively high CFE content. Changes in the transition temperatures are in turn related to the behavior of the hysteresis curves observed on differently heat-treated samples. Upon heating, the hysteresis curves evolve from those known for a ferroelectric to those of a typical relaxor-ferroelectric material. Comparing dielectric-hysteresis loops obtained at various temperatures, we find that annealed terpolymer films show higher electric-displacement values and lower coercive fields than the non-annealed samples − irrespective of the measurement temperature − and also exhibit ideal relaxor-ferroelectric behavior at ambient temperatures, which makes them excellent candidates for related applications at or near room temperature. However, non-annealed films − by virtue of their higher ferroelectric activity − show a larger and more stable remanent polarization at room temperature, while annealed samples need to be poled below 0 °C to induce a well-defined polarization. Overall, by modifying the three phases in PVDF-based polymers, it has been demonstrated how the preparation steps and processing conditions can be tailored to achieve the desired properties that are optimal for specific applications. N2 - Homo-, Ko- und Terpolymere auf der Basis von Poly(vinylidenfluorid) (PVDF) sind für ihre ferroelektrischen und relaxor-ferroelektrischen Eigenschaften bekannt. Die teilkristalline Morphologie dieser Fluorpolymere, bestehend aus kristallinen und amorphen sowie den dazwischen liegenden Grenzflächen, bestimmt die relevanten elektroaktiven Eigenschaften. In dieser Arbeit wird der Einfluss chemischer, thermischer und mechanischer Behandlungen auf die Struktur und Morphologie von Polymeren der PVDF-Familie untersucht, die wiederum direkt mit den ferroelektrischen/relaxor-ferroelektrischen Eigenschaften zusammenhängen. Daher wurden Polymerfilme mit verschiedenen Methoden hergestellt und vielfältigen Prozessschritten wie z.B. Tempern, Abschrecken und Recken unterzogen. Die sich daraus ergebenden Veränderungen bei Phasenübergängen und Relaxationen in den Proben wurden mit dielektrischen, thermischen, mechanischen und optischen Verfahren untersucht. Insbesondere wurden die Ursachen für den mysteriösen Übergang bei mittleren Temperaturen (T_{mid}) untersucht, der an allen PVDF-basierten Polymeren beobachtet werden kann. Es wurde eine neue Hypothese aufgestellt, die den T_{mid}-Übergang als Ergebnis mehrerer Prozesse beschreibt, die innerhalb eines Temperaturbereichs mehr oder weniger gleichzeitig ablaufen. Der Beitrag dieser einzelnen Übergänge zum Gesamtübergang hängt sowohl von der chemischen Struktur der Monomereinheiten als auch von den Verarbeitungsbedingungen ab. Die verschiedenen Verarbeitungsbedingungen wirken sich auch auf den Schmelzübergang der Polymere aus. Der Prozess des Abschreckens führt zu einer Abnahme der Gesamtkristallinität mit einer geringeren Kristallitgröße. Bei Proben, die nach dem Tempern abgeschreckt wurden, werden im Vergleich zu Proben, die langsam aus dem getemperten Zustand abgekühlt wurden, bemerkenswerte Unterschiede im Anteil der verschiedenen kristallinen Phasen festgestellt. Das Recken von Poly(vinylidenfluorid-Tetrafluorethylen) (P(VDF-TFE))-Filmen führt zu einem Anstieg des Anteils der ferroelektrischen β-Phase bei gleichzeitiger Erhöhung von Schmelzpunkt (T_m) und Kristallinität (\chi_c) des Kopolymers. Während eine Erhöhung der Strecktemperatur keinen tiefgreifenden Einfluss auf die Menge der ferroelektrischen Phase hat, scheint sich die Stabilität der ferroelektrischen Phase zu verbessern. Messungen der nichtlinearen dielektrischen Dielektrizitätskonstante \varepsilon_2^\prime zeigen in einem relaxor-ferroelektrischen (R-F) Terpolymer aus Poly(vinylidenfluorid-trifluorethylen-chlorfluorethylen) (P(VDF-TrFE- CFE)) Maxima bei 30 und 80 °C, die in der herkömmlichen dielektrischen Spektroskopie nicht identifiziert werden können. Das erste Maximum hängt mit T_{mid}\ zusammen und kann dabei helfen, die von Null verschiedenen \varepsilon_2^\prime-Werte zu verstehen, die an der paraelektrischen Phase des Terpolymers beobachtet werden. Das zweite Maximum kann auch während des Abkühlens von P(VDF-TrFE)-Kopolymerproben bei 100 °C beobachtet werden und ist auf elektrische Leitungsprozesse und Raumladungspolarisationen infolge der Ansammlung von realen Ladungen an den Grenzflächen der Elektroden zum Polymermaterial zurückzuführen. Das Tempern verringert die Curie-Übergangstemperatur des Terpolymers als Folge der Verringerung des ferroelektrischen Phasenanteils, der standardmäßig sogar in Terpolymeren mit relativ hohem CFE-Gehalt vorhanden ist. Die Änderungen der Übergangstemperaturen stehen wiederum im Zusammenhang mit dem Verhalten der Hysteresekurven bei unterschiedlich wärmebehandelten Proben. Während der Erwärmung kommt es zu einer deutlichen Veränderung der Hysteresekurven von einem typisch ferroelektrischen Verhalten hin zu relaxor-ferroelektrischem Verhalten. Vergleicht man die bei verschiedenen Temperaturen beobachteten dielektrischen Hystereseschleifen, so stellt man fest, dass getemperte Terpolymerfilme - unabhängig von der Messtemperatur - höhere dielektrische Verschiebungen und niedrigere Koerzitivfelder aufweisen als nicht getemperte Proben und dass sie auch bei Raumtemperatur ein ideales relaxor-ferroelektrisches Verhalten zeigen, was sie zu ausgezeichneten Kandidaten für Anwendungen in der Nähe der Raumtemperatur macht. Allerdings zeigen nicht getemperte Filme aufgrund ihrer höheren Ferroelektrizität einen höheren und stabilen Wert der remanenten Polarisation bei Raumtemperatur, während getemperte Proben unter 0 °C gepolt werden müssen, um eine eindeutige Polarisation aufzuweisen. Insgesamt konnte gezeigt werden, dass durch die Modifizierung der drei Phasen in PVDF-basierten Polymeren die Präparationsschritte und Verarbeitungsbedingungen so angepasst werden können, dass die gewünschten Eigenschaften für bestimmte Anwendungen optimal sind. KW - PVDF-based polymers KW - structure-property relationships KW - ferroelectric polymers KW - relaxor-ferroelectric polymers KW - mid-temperature transition KW - Polymere auf PVDF-Basis KW - ferroelektrische Polymere KW - Mitteltemperaturübergang KW - Relaxor-ferroelektrische Polymere KW - Struktur-Eigenschafts-Beziehungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549667 ER - TY - THES A1 - Steppa, Constantin Beverly T1 - Modelling the galactic population of very-high-energy gamma-ray sources T1 - Modellierung der Population galaktischer Quellen von sehr hochenergetischer Gammastrahlung N2 - The current generation of ground-based instruments has rapidly extended the limits of the range accessible to us with very-high-energy (VHE) gamma-rays, and more than a hundred sources have now been detected in the Milky Way. These sources represent only the tip of the iceberg, but their number has reached a level that allows population studies. In this work, a model of the global population of VHE gamma-ray sources based on the most comprehensive census of Galactic sources in this energy regime, the H.E.S.S. Galactic plane survey (HGPS), will be presented. A population synthesis approach was followed in the construction of the model. Particular attention was paid to correcting for the strong observational bias inherent in the sample of detected sources. The methods developed for estimating the model parameters have been validated with extensive Monte Carlo simulations and will be shown to provide unbiased estimates of the model parameters. With these methods, five models for different spatial distributions of sources have been constructed. To test the validity of these models, their predictions for the composition of sources within the sensitivity range of the HGPS are compared with the observed sample. With one exception, similar results are obtained for all spatial distributions, showing that the observed longitude profile and the source distribution over photon flux are in fair agreement with observation. Regarding the latitude profile and the source distribution over angular extent, it becomes apparent that the model needs to be further adjusted to bring its predictions in agreement with observation. Based on the model, predictions of the global properties of the Galactic population of VHE gamma-ray sources and the prospects of the Cherenkov Telescope Array (CTA) will be presented. CTA will significantly increase our knowledge of VHE gamma-ray sources by lowering the threshold for source detection, primarily through a larger detection area compared to current-generation instruments. In ground-based gamma-ray astronomy, the sensitivity of an instrument depends strongly, in addition to the detection area, on the ability to distinguish images of air showers produced by gamma-rays from those produced by cosmic rays, which are a strong background. This means that the number of detectable sources depends on the background rejection algorithm used and therefore may also be increased by improving the performance of such algorithms. In this context, in addition to the population model, this work presents a study on the application of deep-learning techniques to the task of gamma-hadron separation in the analysis of data from ground-based gamma-ray instruments. Based on a systematic survey of different neural-network architectures, it is shown that robust classifiers can be constructed with competitive performance compared to the best existing algorithms. Despite the broad coverage of neural-network architectures discussed, only part of the potential offered by the application of deep-learning techniques to the analysis of gamma-ray data is exploited in the context of this study. Nevertheless, it provides an important basis for further research on this topic. N2 - Die aktuelle Generation bodengestützter Instrumente hat die Grenzen des uns mit sehr hoch-energetischer (very-high-energy, VHE) Gammastrahlung zugänglichen Bereichs rasch erweitert, so dass inzwischen bereits mehr als hundert Quellen in der Milchstraße entdeckt wurden. Diese Quellen repräsentieren zwar nur die Spitze des Eisbergs, doch ihre Anzahl hat ein Niveau erreicht, das Populationsstudien ermöglicht. In dieser Arbeit wird ein Modell der globalen Population von VHE Gammastrahlungsquellen vorgestellt, das auf den umfassendsten Zensus galaktischer Quellen in diesem Energiebereich, dem H.E.S.S. Galactic plane survey (HGPS), beruht. Bei der Erstellung des Modells wurde ein Populationssynthese-Ansatz verfolgt. Besonderes Augenmerk wurde auf die Korrektur der starken Beobachtungsverzerrung gelegt, die der Stichprobe detektierter Quellen innewohnt. Die für die Schätzung der Modellparameter entwickelten Methoden wurden mit umfangreichen Monte-Carlo-Simulationen validiert und es wird gezeigt, dass sie akkurate Schätzungen der Modelparameter ermöglichen. Mit diesen Methoden wurden fünf Modelle für verschiedene räumliche Verteilungen von Quellen erstellt. Um die Gültigkeit dieser Modelle zu prüfen, werden ihre Vorhersagen für die Zusammensetzung der Quellen innerhalb des Sensitivitätsbereichs des HGPS mit der beobachteten Stichprobe verglichen. Mit einer Ausnahme werden für alle räumlichen Verteilungen ähnliche Ergebnisse erzielt, die zeigen, dass das beobachtete Longitudenprofil und die Quellenverteilung über den Photonenfluss gut mit der Beobachtung übereinstimmen. Bezüglich des Latitudenprofils und der Quellenverteilung über die Winkelausdehnung zeigt sich, dass das Modell weiter angepasst werden muss, um dessen Vorhersagen mit den Beobachtungen in Einklang zu bringen. Auf der Grundlage des Modells werden Vorhersagen über die globalen Eigenschaften der galaktischen Population von VHE Gammastrahlungsquellen und die Perspektiven des Cherenkov Telescope Array (CTA) vorgestellt. CTA wird unser Wissen über VHE Gammastrahlungsquellen erheblich erweitern, indem es die Detektionsschwelle für die Quellen senkt, vor allem durch einer im Vergleich zu Instrumenten der aktuellen Generation größeren Detektionsfläche. In der bodengebundenen Gammastrahlenastronomie hängt die Empfindlichkeit eines Instruments neben der Detektionsfläche jedoch auch stark von der Fähigkeit ab, Bilder von Luftschauern, die durch Gammastrahlen erzeugt werden, von denen zu unterscheiden, die durch kosmische Strahlung erzeugt werden und einen starken Hintergrund darstellen. Dies bedeutet, dass die Anzahl der detektierbaren Quellen von dem verwendeten Algorithmus zur Hintergrundunterdrückung abhängt und daher möglicherweise auch durch eine Verbesserung der Leistung solcher Algorithmen erhöht werden kann. In diesem Zusammenhang wird in dieser Arbeit zusätzlich zum Populationsmodell eine Studie über die Anwendung von Deep-Learning-Techniken für die Aufgabe der Gamma-Hadron-Trennung bei der Analyse von Daten von bodengestützten Gammastrahleninstrumenten vorgestellt. Auf der Grundlage einer systematischen Untersuchung verschiedener neuronaler Netzwerkarchitekturen wird gezeigt, dass robuste Klassifikatoren konstruiert werden können, die im Vergleich zu den besten bestehenden Algorithmen eine konkurrenzfähige Leistung aufweisen. Trotz des Umfangs der diskutierten neuronalen Netzwerkarchitekturen wird im Rahmen dieser Studie nur ein Teil des Potenzials ausgeschöpft, das die Anwendung von Deep-Learning-Techniken für die Analyse von Daten in der Gammaastronomie bietet. Dennoch bietet sie eine wichtige Grundlage für weitere Forschungen zu diesem Thema. KW - gamma astronomy KW - galactic population KW - very-high energy KW - Gammaastronomie KW - galaktische Population KW - sehr hohe Energien Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549478 ER - TY - THES A1 - Hosseini, Seyed Mehrdad T1 - Non-Langevin Recombination in Fullerene and Non-Fullerene Acceptor Solar Cells T1 - Nicht-Langevin-Rekombination in Fulleren- und Nicht-Fulleren-Akzeptor-Solarzellen N2 - Organic solar cells (OSCs), in recent years, have shown high efficiencies through the development of novel non-fullerene acceptors (NFAs). Fullerene derivatives have been the centerpiece of the accepting materials used throughout organic photovoltaic (OPV) research. However, since 2015 novel NFAs have been a game-changer and have overtaken fullerenes. However, the current understanding of the properties of NFAs for OPV is still relatively limited and critical mechanisms defining the performance of OPVs are still topics of debate. In this thesis, attention is paid to understanding reduced-Langevin recombination with respect to the device physics properties of fullerene and non-fullerene systems. The work is comprised of four closely linked studies. The first is a detailed exploration of the fill factor (FF) expressed in terms of transport and recombination properties in a comparison of fullerene and non-fullerene acceptors. We investigated the key reason behind the reduced FF in the NFA (ITIC-based) devices which is faster non-geminate recombination relative to the fullerene (PCBM[70]-based) devices. This is then followed by a consideration of a newly synthesized NFA Y-series derivative which exhibits the highest power conversion efficiency for OSC at the time. Such that in the second study, we illustrated the role of disorder on the non-geminate recombination and charge extraction of thick NFA (Y6-based) devices. As a result, we enhanced the FF of thick PM6:Y6 by reducing the disorder which leads to suppressing the non-geminate recombination toward non-Langevin system. In the third work, we revealed the reason behind thickness independence of the short circuit current of PM6:Y6 devices, caused by the extraordinarily long diffusion length of Y6. The fourth study entails a broad comparison of a selection of fullerene and non-fullerene blends with respect to charge generation efficiency and recombination to unveil the importance of efficient charge generation for achieving reduced recombination. I employed transient measurements such as Time Delayed Collection Field (TDCF), Resistance dependent Photovoltage (RPV), and steady-state techniques such as Bias Assisted Charge Extraction (BACE), Temperature-Dependent Space Charge Limited Current (T-SCLC), Capacitance-Voltage (CV), and Photo-Induce Absorption (PIA), to analyze the OSCs. The outcomes in this thesis together draw a complex picture of multiple factors that affect reduced-Langevin recombination and thereby the FF and overall performance. This provides a suitable platform for identifying important parameters when designing new blend systems. As a result, we succeeded to improve the overall performance through enhancing the FF of thick NFA device by adjustment of the amount of the solvent additive in the active blend solution. It also highlights potentially critical gaps in the current experimental understanding of fundamental charge interaction and recombination dynamics. N2 - Organische Solarzellen (OSZ) haben in den letzten Jahren durch die Entwicklung neuartiger Nicht-Fulleren-Akzeptoren (NFA) hohe Wirkungsgrade erzielt. Fulleren-Derivate waren das Herzstück der Akzeptor-Materialien, die in der Forschung zur organischen Photovoltaik (OPV) verwendet wurden. Doch seit 2015 haben neuartige NFAs den Fullerenen den Rang abgelaufen. Allerdings ist das derzeitige Verständnis der Eigenschaften von NFA für OPV noch relativ begrenzt und kritische Mechanismen, die die Leistung von OPV bestimmen, sind immer noch Gegenstand von Diskussionen. In dieser Arbeit geht es um das Verständnis der Reduced-Langevin-Rekombination in Hinblick auf die bauteilphysikalischen Eigenschaften von Fulleren- und Nicht-Fulleren-Systemen. Die Arbeit besteht aus vier eng miteinander verbundenen Studien. Die erste ist eine detaillierte Untersuchung des Füllfaktors (FF), ausgedrückt als Transport- und Rekombinationseigenschaften in einem Vergleich von Fulleren und Nicht-Fulleren-Akzeptoren. Wir untersuchten den Hauptgrund für die geringere FF im NFA-Bauelement (auf ITIC-Basis), nämlich die schnellere nicht-geminate Rekombination im Vergleich zum Fulleren-Bauelement (auf PCBM[70]-Basis). Anschließend wird ein neu synthetisiertes NFA-Derivat der Y-Serie betrachtet, das derzeit die höchste Leistungsumwandlungseffizienz für OSZ aufweist. In der zweiten Studie veranschaulichten wir die Rolle der Unordnung bei der nicht-geminaten Rekombination und der Ladungsextraktion von dicken NFA-Bauelementen (auf Y6-Basis). Infolgedessen haben wir die FF von dickem PM6:Y6 verbessert, indem wir die Unordnung reduziert haben, was zur Unterdrückung der nicht-geminaten Rekombination in Richtung Nicht-Langevin-System führt. In der dritten Arbeit haben wir den Grund für die Dickenunabhängigkeit des Kurzschlussstroms von NFA-Bauelementen aufgedeckt, die durch die außerordentlich lange Diffusionslänge von Y6 verursacht wird. Die vierte Studie umfasst einen umfassenden Vergleich einer Auswahl von Fulleren- und Nicht-Fulleren-Mischungen in Hinblick auf die Effizienz der Ladungserzeugung und Rekombination, um die Bedeutung einer effizienten Ladungserzeugung zum Erzielen einer geringeren Rekombination aufzuzeigen. Zur Analyse der OSCs habe ich transiente Messungen wie das Time Delayed Collection Field (TDCF), Resistance dependent Photovoltage (RPV) sowie stationäre Techniken wie die Bias Assisted Charge Extraction (BACE), Temperature-Dependent Space Charge Limited Current (T-SCLC), Capacitance-Voltage (CV) und Photo-Induce Absorption (PIA) eingesetzt. Die Ergebnisse dieser Arbeit zeichnen ein komplexes Bild zahlreicher Faktoren, die die Rekombination nach dem Prinzip des reduzierten Langèvins und damit die FF und die Gesamtleistung beeinflussen. Dies bietet eine geeignete Plattform zum Identifizieren wichtiger Parameter bei der Entwicklung neuer Mischsysteme. So ist es uns gelungen, die Gesamtleistung zu verbessern, indem wir die FF der dicken NFA-Vorrichtung durch Anpassung der Menge des Lösungsmittelzusatzes in der aktiven Mischungslösung erhöht haben. Außerdem werden potenziell kritische Lücken im derzeitigen experimentellen Verständnis der grundlegenden Ladungswechselwirkung und Rekombinationsdynamik aufgezeigt. KW - Organic solar cells KW - Non-fullerene acceptors KW - Charge recombination KW - Non-Langevin systems KW - Structural and energetic disorder KW - Ladungsrekombination KW - Nicht-Langevin-Systeme KW - Nicht-Fulleren-Akzeptoren KW - Organische Solarzellen KW - Strukturelle und energetische Unordnung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-547831 ER - TY - THES A1 - Laquai, René T1 - Extending synchrotron X-ray refraction techniques to the quantitative analysis of metallic materials N2 - In this work, two X-ray refraction based imaging methods, namely, synchrotron X-ray refraction radiography (SXRR) and synchrotron X-ray refraction computed tomography (SXRCT), are applied to analyze quantitatively cracks and porosity in metallic materials. SXRR and SXRCT make use of the refraction of X-rays at inner surfaces of the material, e.g., the surfaces of cracks and pores, for image contrast. Both methods are, therefore, sensitive to smaller defects than their absorption based counterparts X-ray radiography and computed tomography. They can detect defects of nanometric size. So far the methods have been applied to the analysis of ceramic materials and fiber reinforced plastics. The analysis of metallic materials requires higher photon energies to achieve sufficient X-ray transmission due to their higher density. This causes smaller refraction angles and, thus, lower image contrast because the refraction index depends on the photon energy. Here, for the first time, a conclusive study is presented exploring the possibility to apply SXRR and SXRCT to metallic materials. It is shown that both methods can be optimized to overcome the reduced contrast due to smaller refraction angles. Hence, the only remaining limitation is the achievable X-ray transmission which is common to all X-ray imaging methods. Further, a model for the quantitative analysis of the inner surfaces is presented and verified. For this purpose four case studies are conducted each posing a specific challenge to the imaging task. Case study A investigates cracks in a coupon taken from an aluminum weld seam. This case study primarily serves to verify the model for quantitative analysis and prove the sensitivity to sub-resolution features. In case study B, the damage evolution in an aluminum-based particle reinforced metal-matrix composite is analyzed. Here, the accuracy and repeatability of subsequent SXRR measurements is investigated showing that measurement errors of less than 3 % can be achieved. Further, case study B marks the fist application of SXRR in combination with in-situ tensile loading. Case study C is out of the highly topical field of additive manufacturing. Here, porosity in additively manufactured Ti-Al6-V4 is analyzed with a special interest in the pore morphology. A classification scheme based on SXRR measurements is devised which allows to distinguish binding defects from keyhole pores even if the defects cannot be spatially resolved. In case study D, SXRCT is applied to the analysis of hydrogen assisted cracking in steel. Due to the high X-ray attenuation of steel a comparatively high photonenergy of 50 keV is required here. This causes increased noise and lower contrast in the data compared to the other case studies. However, despite the lower data quality a quantitative analysis of the occurance of cracks in dependence of hydrogen content and applied mechanical load is possible. N2 - In der vorliegenden Arbeit werden die zwei, auf Refraktion basierende, Röntgenbildgebungsverfahren Synchrotron Röntgen-Refraktions Radiographie (engl.: SXRR) und Synchrotron Röntgen-Refraktions Computertomographie (engl.: SXRCT) für die quantitative Analyse von Rissen und Porosität in metallischenWerkstoffen angewandt. SXRR und SXRCT nutzen die Refraktion von Röntgenstrahlen an inneren Oberflächen des Materials, z.B. die Oberflächen von Rissen und Poren, zur Bildgebung. Beide Methoden sind daher empfindlich gegenüber kleineren Defekten als ihre auf Röntgenabsorption basierenden Gegenstücke, Röntgenradiographie und Röntgen-Computertomographie. Sie sind in der Lage Defekte von nanometrischer Größe zu detektieren. Bislang wurden die Methoden für die Analyse von keramischen Werkstoffen und faserverstärkten Kunststoffen eingesetzt. Die Analyse von metallischenWerkstoffen benötigt höhere Photonenenergien benötigt werden um eine ausreichende Transmission zu erreichen. Dies hat kleinere Refraktionswinkel, und damit geringeren Bildkontrast, zur Folge, da der Brechungsindex von der Photonenenergie abhängt. Hier wird erstmals eine umfassende Studie vorgelegt, welche die Möglichkeiten zur Untersuchung metallischer Werkstoffe mittels SXRR und SXRCT untersucht. Es wird gezeigt, dass der geringere Kontrast, verursacht durch die kleineren Refraktionswinkel, überwunden werden kann. Somit ist die einzig verbleibende Beschränkung die erreichbare Transmission, die alle Röntgenbildgebungsverfahren gemeinsam haben. Darüber hinaus wird ein Modell für die quantitative Auswertung der inneren Oberflächen präsentiert und verifiziert. Zu diesem Zweck werden vier Fallstudien durchgeführt, wobei jede eine spezifische Herausforderung darstellt. In Fallstudie A werden Risse in einer Probe aus einer Aluminiumschweißnaht untersucht. Diese Fallstudie dient hauptsächlich dazu das Modell für die quantitative Analyse zu verifizieren und die Empfindlichkeit gegenüber Strukturen unterhalb des Auflösungsvermögens zu beweisen. In Fallstudie B wird die Entwicklung der Schädigung in einem aluminiumbasierten partikelverstärktem Metall-Matrix Komposit untersucht. Dabei wird die Genauigkeit und Wiederholbarkeit der SXRR Messungen analysiert und es wird gezeigt das Messfehler kleiner 3% erreicht werden können. Darüber hinaus wird in Fallstudie B erstmals SXRR in Kombination mit in-situ Zugbelastung eingesetzt. Fallstudie C ist aus dem hochaktuellen Bereich der additive Fertigung. Hier wird Porosität in additiv gefertigtem Ti-Al6-V4 analysiert mit besonderem Augenmerk auf der Morphologie der Poren. Es wurde ein Verfahren zur Klassifizierung, basierend auf SXRR Messungen, erfunden, welches Bindefehler und Poren voneinander unterscheiden kann auch wenn die Defekte nicht räumlich aufgelöst werden können. In Fallstudie D wird SXRCT zur Analyse von wasserstoffunterstützter Rissbildung in Stahl angewandt. Wegen der hohen Röntgenschwächung des Stahls muss hier mit 50 keV eine vergleichsweise hohe Photonenenergie genutzt werden. Dadurch zeigen die Daten ein erhöhtes Rauschen und geringeren Kontrast verglichen mit den anderen Fallstudien. Allerdings ist es, trotz der geringeren Datenqualität, möglich das Auftreten von Rissen in Abhängigkeit der Wasserstoffkonzentration und mechanischen Belastung zu untersuchen. T2 - Erweiterung von Röntgenrefraktions-Bildgebungsmethoden auf die quantitative Analyse von metallischen Werkstoffen KW - X-ray refraction imaging KW - non-destructive evaluation KW - computed tomography KW - porosity analysis KW - crack detection KW - Röntgen-Refraktions Bildgebung KW - zerstörungfreie Prüfung KW - Computertomography KW - Porositätsanalyse KW - Risserkennung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541835 ER -