TY - JOUR A1 - Ullrich, Rebecca A1 - Abramowicz, Isidoro T1 - Ein unbekannter Piyyut für Schabbat aus Reckendorf JF - Genisa-Blätter IV Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-584897 SN - 978-3-86956-539-2 SP - 73 EP - 82 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ehlert, Kristian T1 - Simulations of active galactic nuclei feedback with cosmic rays and magnetic fields N2 - The central gas in half of all galaxy clusters shows short cooling times. Assuming unimpeded cooling, this should lead to high star formation and mass cooling rates, which are not observed. Instead, it is believed that condensing gas is accreted by the central black hole that powers an active galactic nuclei jet, which heats the cluster. The detailed heating mechanism remains uncertain. A promising mechanism invokes cosmic ray protons that scatter on self-generated magnetic fluctuations, i.e. Alfvén waves. Continuous damping of Alfvén waves provides heat to the intracluster medium. Previous work has found steady state solutions for a large sample of clusters where cooling is balanced by Alfvénic wave heating. To verify modeling assumptions, we set out to study cosmic ray injection in three-dimensional magnetohydrodynamical simulations of jet feedback in an idealized cluster with the moving-mesh code arepo. We analyze the interaction of jet-inflated bubbles with the turbulent magnetized intracluster medium. Furthermore, jet dynamics and heating are closely linked to the largely unconstrained jet composition. Interactions of electrons with photons of the cosmic microwave background result in observational signatures that depend on the bubble content. Those recent observations provided evidence for underdense bubbles with a relativistic filling while adopting simplifying modeling assumptions for the bubbles. By reproducing the observations with our simulations, we confirm the validity of their modeling assumptions and as such, confirm the important finding of low-(momentum) density jets. In addition, the velocity and magnetic field structure of the intracluster medium have profound consequences for bubble evolution and heating processes. As velocity and magnetic fields are physically coupled, we demonstrate that numerical simulations can help link and thereby constrain their respective observables. Finally, we implement the currently preferred accretion model, cold accretion, into the moving-mesh code arepo and study feedback by light jets in a radiatively cooling magnetized cluster. While self-regulation is attained independently of accretion model, jet density and feedback efficiencies, we find that in order to reproduce observed cold gas morphology light jets are preferred. N2 - Das zentrale Gas in der Hälfte aller Galaxienhaufen weist kurze Kühlzeiten auf. Dies sollte zu hohen Sternentstehungs- und Massenkühlungsraten führen. Bei ungehinderter Kühlung würden jedoch viel mehr Sterne entstehen als beobachtet. Stattdessen wird vermutet, dass das kondensierende Gas durch das zentrale Schwarze Loch akkretiert wird, das einen aktiven Galaxienkerne antreibt, der den Haufen heizt. Der genaue Heizmechanismus ist noch unklar. Ein vielversprechender Mechanismus geht von Protonen der kosmischen Strahlung aus, die an selbst erzeugten magnetischen Fluktuationen, d.h. Alfvénwellen, streuen. Die kontinuierliche Dämpfung der Alfvénwellen heizt das Gas. Für eine große Anzahl von Galaxienhaufen wurden stationäre Lösungen gefunden, bei denen Kühlen durch Alfvénwellenheizen ausgeglichen wird. Um die Modellierungsannahmen zu überprüfen, untersuchen wir die CR-Injektion in magnetohydrodynamischen 3D-Simulationen von Jets in einem idealisierten Cluster mit dem Code arepo. Wir simulieren die Entstehung und Entwicklung von Gasblasen durch energetische Ausflüsse in einer turbulenten, magnetische Atmosphäre. Darüberhinaus ist die Dynamik des Jets und das Heizen eng verknüpft mit der soweit unklaren Zusammensetzung des Jets. DieWechselwirkung von Elektronen mit dem kosmischen Mikrowellenhintergrund führt zu beobachtbaren Signaturen, die vom Inhalt der Blasen abhängen. Diese jüngsten Beobachtungen lieferten Beweise für unterdichte Blasen mit einer relativistischen Füllung, wobei vereinfachende Modellannahmen für die Blasen angenommen wurden. Indem wir die Beobachtungen mit unseren Simulationen reproduzieren, bestätigen wir die Gültigkeit ihrer Modellannahmen und damit die wichtige Erkenntnis, dass Jets eine niedrige (Impuls-)Dichte haben. Außerdem haben die Geschwindigkeits- und Magnetfeldstruktur der Haufenatmosphäre tiefgreifende Auswirkungen auf die Blasenentwicklung und Heizprozesse. Da Geschwindigkeits- und Magnetfelder physikalisch gekoppelt sind, zeigen wir, dass numerische Simulationen dazu beitragen können, die jeweiligen Beobachtungsdaten in direkte Verbindung zu setzen, um sie dadurch besser abschätzen zu können. Schließlich implementieren wir das derzeit bevorzugte Akkretionsmodell, cold accretion, in arepo und untersuchen die Rückkopplung durch leichte Jets in einem explizit kühlenden magnetisierten Haufen. Während die Selbstregulierung unabhängig vom Akkretionsmodell, der Jetdichte und der Jeteffizienz erreicht wird, ist die Morphologie des kalten Gases bei Simulationen mit leichten Jets Beobachtungen am ähnlichsten. T2 - Simulationen vom Heizen von Galaxienhaufen durch aktive Galaxienkerne mit kosmischer Strahlung und Magnetfeldern KW - galaxy clusters KW - intracluster medium KW - active galactic nuclei KW - magnetohydrodynamics KW - cosmic rays KW - Galaxienhaufen KW - aktive Galaxienkerne KW - Magnetohydrodynamik KW - kosmische Strahlung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-578168 ER - TY - THES A1 - Rolo, David T1 - Assembly of photosystem I in thylakoid membranes T1 - Die Assemblierung des Photosystems I in der Thylakoidmembran N2 - The light reactions of photosynthesis are carried out by a series of multiprotein complexes embedded in thylakoid membranes. Among them, photosystem I (PSI), acting as plastocyanin-ferderoxin oxidoreductase, catalyzes the final reaction. Together with light-harvesting antenna I, PSI forms a high-molecular-weight supercomplex of ~600 kDa, consisting of eighteen subunits and nearly two hundred co-factors. Assembly of the various components into a functional thylakoid membrane complex requires precise coordination, which is provided by the assembly machinery. Although this includes a small number of proteins (PSI assembly factors) that have been shown to play a role in the formation of PSI, the process as a whole, as well as the intricacy of its members, remains largely unexplored. In the present work, two approaches were used to find candidate PSI assembly factors. First, EnsembleNet was used to select proteins thought to be functionally related to known PSI assembly factors in Arabidopsis thaliana (approach I), and second, co-immunoprecipitation (Co-IP) of tagged PSI assembly factors in Nicotiana tabacum was performed (approach II). Here, the novel PSI assembly factors designated CO-EXPRESSED WITH PSI ASSEMBLY 1 (CEPA1) and Ycf4-INTERACTING PROTEIN 1 (Y4IP1) were identified. A. thaliana null mutants for CEPA1 and Y4IP1 showed a growth phenotype and pale leaves compared with the wild type. Biophysical experiments using pulse amplitude modulation (PAM) revealed insufficient electron transport on the PSII acceptor side. Biochemical analyses revealed that both CEPA1 and Y4IP1 are specifically involved in PSI accumulation in A. thaliana at the post-translational level but are not essential. Consistent with their roles as factors in the assembly of a thylakoid membrane protein complex, the two proteins localize to thylakoid membranes. Remarkably, cepa1 y4ip1 double mutants exhibited lethal phenotypes in early developmental stages under photoautotrophic growth. Finally, co-IP and native gel experiments supported a possible role for CEPA1 and Y4IP1 in mediating PSI assembly in conjunction with other PSI assembly factors (e.g., PPD1- and PSA3-CEPA1 and Ycf4-Y4IP1). The fact that CEPA1 and Y4IP1 are found exclusively in green algae and higher plants suggests eukaryote-specific functions. Although the specific mechanisms need further investigation, CEPA1 and Y4IP1 are two novel assembly factors that contribute to PSI formation. N2 - Die Lichtreaktionen der Photosynthese werden von einer Reihe von Multiproteinkomplexen durchgeführt, die in Thylakoidmembranen eingebettet sind. Hier katalysiert das Photosystem I (PSI), das als Plastocyanin-Ferderoxin-Oxidoreduktase fungiert, die letzte Reaktion. Zusammen mit der lichtsammelnden Antenne I bildet PSI einen hochmolekularen Superkomplex von etwa 600 kDa, der aus achtzehn Untereinheiten und fast zweihundert Co-Faktoren besteht. Der Zusammenbau der verschiedenen Komponenten zu einem funktionsfähigen Thylakoidmembrankomplex erfordert eine präzise Koordination, die durch den Assemblierungsapparat gewährleistet wird. Obwohl dieser eine kleine Anzahl von Proteinen (PSI-Assemblierungsfaktoren) umfasst, die nachweislich eine Rolle bei der Bildung des PSI spielen, ist der Prozess als Ganzes sowie die Komplexität seiner Mitglieder noch weitgehend unerforscht. In der vorliegenden Arbeit wurden zwei Ansätze verwendet, um Kandidaten für PSI-Assemblierungsfaktoren zu finden. Erstens wurde EnsembleNet verwendet, um Proteine auszuwählen, von denen angenommen wird, dass sie funktionell mit bekannten PSI-Assemblierungsfaktoren in Arabidopsis thaliana verwandt sind (Ansatz I), und zweitens wurde eine Co-Immunopräzipitation (Co-IP) von markierten PSI-Assemblierungsfaktoren in Nicotiana tabacum durchgeführt (Ansatz II). Dabei wurden die neuartigen PSI-Assemblierungsfaktoren mit der Bezeichnung CO-EXPRESSED WITH PSI ASSEMBLY 1 (CEPA1) und Ycf4-INTERACTING PROTEIN 1 (Y4IP1) identifiziert. A. thaliana Nullmutanten für CEPA1 und Y4IP1 zeigten einen Wachstumsphänotyp und blasse Blätter im Vergleich zum Wildtyp. Biophysikalische Experimente unter Verwendung der Pulsamplitudenmodulation (PAM) zeigten einen unzureichenden Elektronentransport auf der PSII-Akzeptorseite. Biochemische Analysen ergaben, dass sowohl CEPA1 als auch Y4IP1 spezifisch an der PSI-Akkumulation in A. thaliana auf posttranslationaler Ebene beteiligt, jedoch nicht essentiell sind. Entsprechend ihrer Rolle als Faktoren für den Aufbau eines Thylakoidmembran-Proteinkomplexes sind die beiden Proteine an Thylakoidmembranen lokalisiert. Bemerkenswerterweise wiesen cepa1 y4ip1-Doppelmutanten in frühen Entwicklungsstadien unter photoautotrophem Wachstum tödliche Phänotypen auf. Schließlich untermauerten Co-IP- und native Gelexperimente eine mögliche Rolle von CEPA1 und Y4IP1 bei der Vermittlung des PSI-Aufbaus in Verbindung mit anderen PSI-Aufbaufaktoren (z. B. PPD1- und PSA3-CEPA1, und Ycf4-Y4IP1). Die Tatsache, dass CEPA1 und Y4IP1 ausschließlich in Grünalgen und höheren Pflanzen vorkommen, lässt auf eukaryontenspezifische Funktionen schließen. Obwohl die spezifischen Mechanismen noch weiter untersucht werden müssen, sind CEPA1 und Y4IP1 zwei neuartige Assemblierungsfaktoren, die zur PSI-Bildung beitragen. KW - photosynthesis KW - photosystem I KW - biogenesis KW - thylakoid membranes KW - assembly factor KW - Photosynthese KW - Photosystem I KW - Biogenese KW - Thylakoidmembran KW - Assemblierungsfaktor Y1 - 2023 ER - TY - THES A1 - De Andrade Queiroz, Anna Barbara T1 - The Milky Way disks, bulge, and bar sub-populations T1 - Die Scheiben, der Bulge und der Balken der Milchstraße Subpopulationen BT - a chemo-dynamical view of our Galaxy in the APOGEE + Gaia era BT - ein chemodynamischer Blick auf unsere Galaxie in der APOGEE + Gaia Ära N2 - In recent decades, astronomy has seen a boom in large-scale stellar surveys of the Galaxy. The detailed information obtained about millions of individual stars in the Milky Way is bringing us a step closer to answering one of the most outstanding questions in astrophysics: how do galaxies form and evolve? The Milky Way is the only galaxy where we can dissect many stars into their high-dimensional chemical composition and complete phase space, which analogously as fossil records can unveil the past history of the genesis of the Galaxy. The processes that lead to large structure formation, such as the Milky Way, are critical for constraining cosmological models; we call this line of study Galactic archaeology or near-field cosmology. At the core of this work, we present a collection of efforts to chemically and dynamically characterise the disks and bulge of our Galaxy. The results we present in this thesis have only been possible thanks to the advent of the Gaia astrometric satellite, which has revolutionised the field of Galactic archaeology by precisely measuring the positions, parallax distances and motions of more than a billion stars. Another, though not less important, breakthrough is the APOGEE survey, which has observed spectra in the near-infrared peering into the dusty regions of the Galaxy, allowing us to determine detailed chemical abundance patterns in hundreds of thousands of stars. To accurately depict the Milky Way structure, we use and develop the Bayesian isochrone fitting tool/code called StarHorse; this software can predict stellar distances, extinctions and ages by combining astrometry, photometry and spectroscopy based on stellar evolutionary models. The StarHorse code is pivotal to calculating distances where Gaia parallaxes alone cannot allow accurate estimates. We show that by combining Gaia, APOGEE, photometric surveys and using StarHorse, we can produce a chemical cartography of the Milky way disks from their outermost to innermost parts. Such a map is unprecedented in the inner Galaxy. It reveals a continuity of the bimodal chemical pattern previously detected in the solar neighbourhood, indicating two populations with distinct formation histories. Furthermore, the data reveals a chemical gradient within the thin disk where the content of 𝛼-process elements and metals is higher towards the centre. Focusing on a sample in the inner MW we confirm the extension of the chemical duality to the innermost regions of the Galaxy. We find stars with bar shape orbits to show both high- and low-𝛼 abundances, suggesting the bar formed by secular evolution trapping stars that already existed. By analysing the chemical orbital space of the inner Galactic regions, we disentangle the multiple populations that inhabit this complex region. We reveal the presence of the thin disk, thick disk, bar, and a counter-rotating population, which resembles the outcome of a perturbed proto-Galactic disk. Our study also finds that the inner Galaxy holds a high quantity of super metal-rich stars up to three times solar suggesting it is a possible repository of old super-metal-rich stars found in the solar neighbourhood. We also enter into the complicated task of deriving individual stellar ages. With StarHorse, we calculate the ages of main-sequence turn-off and sub-giant stars for several public spectroscopic surveys. We validate our results by investigating linear relations between chemical abundances and time since the 𝛼 and neutron capture elements are sensitive to age as a reflection of the different enrichment timescales of these elements. For further study of the disks in the solar neighbourhood, we use an unsupervised machine learning algorithm to delineate a multidimensional separation of chrono-chemical stellar groups revealing the chemical thick disk, the thin disk, and young 𝛼-rich stars. The thick disk is shown to have a small age dispersion indicating its fast formation contrary to the thin disk that spans a wide range of ages. With groundbreaking data, this thesis encloses a detailed chemo-dynamical view of the disk and bulge of our Galaxy. Our findings on the Milky Way can be linked to the evolution of high redshift disk galaxies, helping to solve the conundrum of galaxy formation. N2 - In den letzten Jahrzehnten hat die Astronomie mit großen galaktischen Durchmusterungen einen Boom erlebt. Die dadurch gewonnenen detaillierten Informationen über Millionen von Einzelsternen in der Milchstraße bringen uns der Beantwortung einer der wichtigsten Fragen der Astrophysik einen Schritt näher: Wie entstehen und entwickeln sich Galaxien? Die Milchstraße ist die einzige Galaxie, in der wir viele Sterne in ihre hochdimensionale chemische Zusammensetzung und ihren vollständigen Phasenraum zerlegen können, was analog zu fossilen Aufzeichnungen die Entstehungsgeschichte der Galaxie enthüllen kann. Für kosmologische Modelle ist es von entscheidender Bedeutung, die Prozesse zu verstehen, die zur Bildung großer Strukturen wie der Milchstraße führen; wir nennen diese Studienrichtung Galaktische Archäologie oder Nahfeldkosmologie. Im Mittelpunkt dieser Arbeit stehen die Bemühungen, die Scheiben und den Bulge unserer Galaxie chemisch und dynamisch zu charakterisieren. Die Ergebnisse, die wir in dieser Arbeit vorstellen, waren nur dank des starts des astrometrischen Satelliten Gaia möglich, der das Gebiet der galaktischen Archäologie durch die präzise Messung der Positionen, Parallaxenwinkel und Eigenbewegungen von mehr als einer Milliarde Sterne revolutioniert hat. Ein weiterer, aber nicht minder wichtiger Durchbruch ist die APOGEE-Durchmusterung, die Spektren im nahen Infrarot beobachtet hat, was es uns erlaubt, durch die staubigen Regionen der Milchstraße hindurchzublicken und die chemischen Fingerabdrücke von Hunderttausenden von Sternen zu bestimmen. Um die Struktur der Milchstraße genau darzustellen, verwenden und entwickeln wir das Isochrone-fitting-Tool StarHorse; diese Software kann Sternentfernungen, Aussterbezeiten und Alter vorhersagen, indem sie Astrometrie, Photometrie und Spektroskopie auf der Grundlage von Modellen der Sternentwicklung kombiniert. Der Code StarHorse ist von zentraler Bedeutung für die Berechnung von Entfernungen, bei denen Gaia -Parallaxen allein keine Bestimmung ermöglichen. Wir zeigen, dass wir durch die Kombination von Gaia, APOGEE und StarHorse eine chemische Kartographie der Milchstraßenscheiben von ihrem äußersten bis zum innersten Teil erstellen können. Eine solche Karte ist in der inneren Galaxis beispiellos und zeigt ein bimodales chemisches Muster, das auf zwei Populationen mit unterschiedlichen Entstehungsgeschichten hinweist. Darüber hinaus bestätigen die Daten einen chemischen Gradienten innerhalb der dünnen Scheibe, bei dem der Gehalt an Elementen und Metallen aus 𝛼-Prozessen zum Zentrum hin zunimmt ist. Eine Überdichte in der Anzahl der Sterne bestätigt zudem die Signatur eines Balkens in der inneren Galaxie. Modelle der Galaxienentstehung sagen gewöhnlich deren Beginn im galaktischen Zentrum voraus. Wir konzentrieren uns auf eine Stichprobe in der inneren Galaxie und erwarten, dass wir primordiale stellare Populationen finden. Wir bestätigen die chemische Bimodalität der inneren Galaxie und dass der galaktische Balken sowohl aus Sternen mit hohem als auch mit niedrigem 𝛼 besteht, was darauf hindeutet, dass sich der Balken durch säkulare Evolution gebildet hat, bei der bereits existierende Sterne eingefangen wurden. Durch die Analyse des chemischen Orbitalraums der inneren galaktischen Regionen können wir die verschiedenen Populationen, die diese komplexe Region bewohnen, unterscheiden. Wir zeigen das Vorhandensein einer dünnen Scheibe, einer dicken Scheibe, eines Balkens und einer gegenläufig rotierenden Population, die dem Ergebnis einer gestörten proto-galaktischen Scheibe ähnelt. Unsere Studie zeigt auch, dass die innere Galaxie eine große Menge an supermetallreichen Sternen enthält, die bis zum Dreifachen der solaren Metallizität reichen. Möglicherweise handelt es sich bei der Gruppe alter supermetallreicher Sterne, die in der Sonnenumgebung gefunden wurden um Kandidaten für Migranten aus den innersten Regionen. Wir befassen uns auch mit der komplizierten Aufgabe der Bestimmung individueller Sternalter. Mit StarHorse berechnen wir das Alter von Hauptreihenabzweig- und Unterriesensternen für mehrere öffentliche spektroskopische Durchmusterungen. Wir validieren unsere Ergebnisse, indem wir lineare Abhängigkeiten zwischen den chemischen Häufigkeiten und der Zeit untersuchen, da die 𝛼- und Neutroneneinfang-Elemente empfindlich auf das Alter reagieren, was auf die unterschiedlichen Zeitskalen der Anreicherung dieser Elemente zurückzuführen ist. Zur weiteren Untersuchung der Scheiben in der Sonnenumgebung verwenden wir einen nicht überwachten Algorithmus für maschinelles Lernen, um eine mehrdimensionale Trennung der chrono-chemischen Sterngruppen vorzunehmen. Dies macht die chemisch dicke Scheibe, die dünne Scheibe und junge 𝛼 Sterne erkennbar. Es zeigt sich, dass die dicke Scheibe eine geringe Altersstreuung aufweist, was auf ihre schnelle Entstehung hindeutet, während die dünne Scheibe eine große Altersspanne abdeckt. Mit bahnbrechenden Daten liefert diese Arbeit ein detailliertes chemodynamisches Bild der Scheibe und des Bulge der Galaxis. Unsere Erkenntnisse über die Milchstraße können mit der Entwicklung von Scheibengalaxien mit hoher Rotverschiebung in Verbindung gebracht werden und so zur Lösung des Rätsels der Galaxienbildung beitragen. KW - stars: distances KW - fundamental parameters KW - statistics KW - galaxy: general KW - disc KW - bulge KW - stellar content KW - Bulge KW - Scheibe KW - fundamentale Parameter KW - Galaxie: allgemein KW - Sterne: Entfernungen KW - Statistik KW - stellarer Inhalt Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590615 ER - TY - THES A1 - Werhahn, Maria T1 - Simulating galaxy evolution with cosmic rays: the multi-frequency view T1 - Galaxienentwicklung in Simulationen mit komischer Strahlung und deren Strahlungsprozessen N2 - Cosmic rays (CRs) constitute an important component of the interstellar medium (ISM) of galaxies and are thought to play an essential role in governing their evolution. In particular, they are able to impact the dynamics of a galaxy by driving galactic outflows or heating the ISM and thereby affecting the efficiency of star-formation. Hence, in order to understand galaxy formation and evolution, we need to accurately model this non-thermal constituent of the ISM. But except in our local environment within the Milky Way, we do not have the ability to measure CRs directly in other galaxies. However, there are many ways to indirectly observe CRs via the radiation they emit due to their interaction with magnetic and interstellar radiation fields as well as with the ISM. In this work, I develop a numerical framework to calculate the spectral distribution of CRs in simulations of isolated galaxies where a steady-state between injection and cooling is assumed. Furthermore, I calculate the non-thermal emission processes arising from the modelled CR proton and electron spectra ranging from radio wavelengths up to the very high-energy gamma-ray regime. I apply this code to a number of high-resolution magneto-hydrodynamical (MHD) simulations of isolated galaxies, where CRs are included. This allows me to study their CR spectra and compare them to observations of the CR proton and electron spectra by the Voyager-1 satellite and the AMS-02 instrument in order to reveal the origin of the measured spectral features. Furthermore, I provide detailed emission maps, luminosities and spectra of the non-thermal emission from our simulated galaxies that range from dwarfs to Milk-Way analogues to starburst galaxies at different evolutionary stages. I successfully reproduce the observed relations between the radio and gamma-ray luminosities with the far-infrared (FIR) emission of star-forming (SF) galaxies, respectively, where the latter is a good tracer of the star-formation rate. I find that highly SF galaxies are close to the limit where their CR population would lose all of their energy due to the emission of radiation, whereas CRs tend to escape low SF galaxies more quickly. On top of that, I investigate the properties of CR transport that are needed in order to match the observed gamma-ray spectra. Furthermore, I uncover the underlying processes that enable the FIR-radio correlation (FRC) to be maintained even in starburst galaxies and find that thermal free-free-emission naturally explains the observed radio spectra in SF galaxies like M82 and NGC 253 thus solving the riddle of flat radio spectra that have been proposed to contradict the observed tight FRC. Lastly, I scrutinise the steady-state modelling of the CR proton component by investigating for the first time the influence of spectrally resolved CR transport in MHD simulations on the hadronic gamma-ray emission of SF galaxies revealing new insights into the observational signatures of CR transport both spectrally and spatially. N2 - Kosmische Strahlung (CR) ist ein essentieller Bestandteil des interstellaren Mediums (ISM) von Galaxien und spielt eine wichtige Rolle in deren Entwicklung. Insbesondere ist sie in der Lage, die Dynamik einer Galaxie zu beeinflussen, indem sie galaktische Ausflüsse treibt oder das ISM aufheizt und sich dadurch auf die Effizienz der Sternentstehung auswirkt. Um Galaxienentstehung zu verstehen ist es daher notwendig, diesen nicht-thermischen Bestandteil des ISM genau zu modellieren. Aber außerhalb unserer lokalen Umgebung innerhalb der Milchstraße haben wir keine Möglichkeit, um CRs in anderen Galaxien direkt zu messen. Allerdings gibt es viele Möglichkeiten, CRs indirekt über die Strahlung zu beobachten, die sie auf Grund ihrer Interaktion mit Magnetfeldern und interstellarer Strahlung sowie mit dem ISM emittieren. In dieser Arbeit habe ich einen numerischen Code entwickelt, der die spektrale Verteilung der CRs in Simulationen von isolierten Galaxien berechnet, wobei ein stationäres Verhältnis zwischen Injektion und Kühlen angenommen wird. Des Weiteren berechnet er die nicht-thermischen Strahlungsprozesse, die aus den modellierten CR Protonen- und Elektronenspektren hervorgehen. Diese reichen von Radiowellenlängen bis hin zu hochenergetischer Gammastrahlung. Ich wende diesen Code auf eine Vielzahl von hoch aufgelösten, magneto-hydrodynamischen Simulationen von isolierten Galaxien an, die CRs beinhalten. Das ermöglicht es mir, ihre CR Spektren zu untersuchen und mit Beobachtungen des Voyager-1 Satelliten sowie des AMS-02 Instruments von CR Protonen- und Elektronenspektren zu vergleichen, um dem Ursprung von den gemessenen spektralen Besonderheiten nachzugehen. Außerdem lege ich detaillierte Emissionskarten, Leuchtkräfte und Spektren der nicht-thermischen Strahlung unserer simulierten Galaxien vor, die von Zwerggalaxien über Milchstraßen-ähnliche Galaxien bis hin zu Starburst-Galaxien bei verschiedensten Entwicklungsstadien reichen. Damit kann ich erfolgreich die beobachteten Zusammenhänge zwischen jeweils der Radio- und Gammastrahlungsleuchtkraft mit der Ferninfrarot (FIR) Strahlung der sternbildenden Galaxien reproduzieren, wobei die FIR Strahlung ein guter Indikator für die Rate der Sternentstehung ist. Dabei finde ich heraus, dass Galaxien mit einer hohen Rate an Sternentstehung sehr nah an dem Limit sind, in dem ihre CR Population all ihre Energie an die Produktion von Strahlung verlieren würde, während CRs dazu tendieren, Galaxien mit einer niedrigen Sternentstehungsrate schneller zu verlassen. Zusätzlich untersuche ich die Eigenschaften des Transports von CRs, die benötigt werden, um die beobachteten Spektren der Gammastrahlung zu reproduzieren. Außerdem decke ich die zugrundeliegenden physikalischen Prozesse auf, durch die die Korrelation zwischen der FIR- und Radioleuchtkraft auch in Starburst-Galaxien aufrecht erhalten werden kann und finde heraus, dass die thermische Emission natürlicherweise die beobachteten Radiospektren in Galaxien wie M82 und NGC 253 erklärt, wodurch sich das Rätsel der flachen Radiospektren löst, die scheinbar im Widerspruch zum beobachteten engen Zusammenhang zwischen der FIR- und Radioleuchtkraft standen. Zuletzt hinterfrage ich die Annahme eines stationären Zustandes bei der Modellierung der CR Protonenspektren, indem ich zum ersten Mal den Einfluss von spektral aufgelöstem Transport von CR Protonen in magneto-hydrodynamischen Simulationen auf die hadronische Gammastrahlung von sternbildenden Galaxien untersuche, was neue Einblicke in beobachtbare Signaturen, sowohl spektral als auch räumlich, von CR-Transport ermöglicht. KW - galaxies KW - cosmic rays KW - numerical astrophysics KW - kosmische Strahlung KW - Galaxien KW - numerische Astrophysik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572851 ER - TY - JOUR A1 - Smith, Taylor A1 - Zotta, Ruxandra-Maria A1 - Boulton, Chris A. A1 - Lenton, Timothy M. A1 - Dorigo, Wouter A1 - Boers, Niklas T1 - Reliability of resilience estimation based on multi-instrument time series JF - Earth System Dynamics N2 - Many widely used observational data sets are comprised of several overlapping instrument records. While data inter-calibration techniques often yield continuous and reliable data for trend analysis, less attention is generally paid to maintaining higher-order statistics such as variance and autocorrelation. A growing body of work uses these metrics to quantify the stability or resilience of a system under study and potentially to anticipate an approaching critical transition in the system. Exploring the degree to which changes in resilience indicators such as the variance or autocorrelation can be attributed to non-stationary characteristics of the measurement process – rather than actual changes in the dynamical properties of the system – is important in this context. In this work we use both synthetic and empirical data to explore how changes in the noise structure of a data set are propagated into the commonly used resilience metrics lag-one autocorrelation and variance. We focus on examples from remotely sensed vegetation indicators such as vegetation optical depth and the normalized difference vegetation index from different satellite sources. We find that time series resulting from mixing signals from sensors with varied uncertainties and covering overlapping time spans can lead to biases in inferred resilience changes. These biases are typically more pronounced when resilience metrics are aggregated (for example, by land-cover type or region), whereas estimates for individual time series remain reliable at reasonable sensor signal-to-noise ratios. Our work provides guidelines for the treatment and aggregation of multi-instrument data in studies of critical transitions and resilience. Y1 - 2023 U6 - https://doi.org/10.5194/esd-14-173-2023 SN - 2190-4987 VL - 14 SP - 173 EP - 183 PB - Copernicus Publications CY - Göttingen ER - TY - THES A1 - Kruse, Marlen T1 - Characterization of biomolecules and their interactions using electrically controllable DNA nanolevers N2 - In this work, binding interactions between biomolecules were analyzed by a technique that is based on electrically controllable DNA nanolevers. The technique was applied to virus-receptor interactions for the first time. As receptors, primarily peptides on DNA nanostructures and antibodies were utilized. The DNA nanostructures were integrated into the measurement technique and enabled the presentation of the peptides in a controllable geometrical order. The number of peptides could be varied to be compatible to the binding sites of the viral surface proteins. Influenza A virus served as a model system, on which the general measurability was demonstrated. Variations of the receptor peptide, the surface ligand density, the measurement temperature and the virus subtypes showed the sensitivity and applicability of the technology. Additionally, the immobilization of virus particles enabled the measurement of differences in oligovalent binding of DNA-peptide nanostructures to the viral proteins in their native environment. When the coronavirus pandemic broke out in 2020, work on binding interactions of a peptide from the hACE2 receptor and the spike protein of the SARS-CoV-2 virus revealed that oligovalent binding can be quantified in the switchSENSE technology. It could also be shown that small changes in the amino acid sequence of the spike protein resulted in complete loss of binding. Interactions of the peptide and inactivated virus material as well as pseudo virus particles could be measured. Additionally, the switchSENSE technology was utilized to rank six antibodies for their binding affinity towards the nucleocapsid protein of SARS-CoV-2 for the development of a rapid antigen test device. The technique was furthermore employed to show binding of a non-enveloped virus (adenovirus) and a virus-like particle (norovirus-like particle) to antibodies. Apart from binding interactions, the use of DNA origami levers with a length of around 50 nm enabled the switching of virus material. This proved that the technology is also able to size objects with a hydrodynamic diameter larger than 14 nm. A theoretical work on diffusion and reaction-limited binding interactions revealed that the technique and the chosen parameters enable the determination of binding rate constants in the reaction-limited regime. Overall, the applicability of the switchSENSE technique to virus-receptor binding interactions could be demonstrated on multiple examples. While there are challenges that remain, the setup enables the determination of affinities between viruses and receptors in their native environment. Especially the possibilities regarding the quantification of oligo- and multivalent binding interactions could be presented. N2 - In dieser Arbeit wurden Bindungsinteraktionen zwischen biologischen Molekülen mit Hilfe von elektrisch kontrollierbaren DNA-Nanohebeln untersucht. Die Technologie wurde zum ersten Mal auf Virus-Rezeptor Interaktionen angewendet. Als Rezeptoren wurden überwiegend Peptide und Antikörper untersucht. Die Peptide wurden auf vierarmigen DNA-Nanohebeln angeordnet. Ihre geometrische Anordnung entsprach der Anordnung der Rezeptorbindungsstellen der Proteine auf der Virusoberfläche. An Influenza A Viren wurde die Machbarkeit der Bindungsmessung zuerst demonstriert. Dabei konnte die Anwendbarkeit und Sensitivität der Technologie durch Variation der Peptide, der Ligandendichte auf der Sensoroberfläche, der Messtemperatur und der Virussubtypen gezeigt werden. Weiterhin wurde Virusmaterial auf der Sensoroberfläche immobilisiert und anschließend wurden quantitative Bindungsmessungen mit den oligovalenten DNA-Peptid-Strukturen durchgeführt. Dieser Versuchsaufbau ermöglichte die Messung der Bindungsstärke in Abhängigkeit der Anzahl der pro DNA-Struktur gekoppelten Peptide. Im Zuge des Ausbruchs der Coronavirus-Pandemie im Jahr 2020 wurden Bindungsinteraktionsmessungen zwischen einem Peptid aus dem hACE2-Rezeptor und SARS-CoV-2 Spike Proteinen durchgeführt. Auch hier konnten oligovalente Bindungseffekte quantifiziert werden. Außerdem wurde festgestellt, dass Veränderungen an der Aminosäuresequenz des SARS-CoV-2 Proteins starke Auswirkungen auf das Bindungsverhalten hatten. Auch Interaktionen zwischen dem Peptid und sowohl inaktiviertem Virusmaterial als auch Pseudoviruspartikeln wurden gemessen. Für die Entwicklung eines Antigenschnelltests wurden die Affinitäten von sechs Antikörpern an das Nucleocapsidprotein des SARS-CoV-2 bestimmt. Weiterhin konnte gezeigt werden, dass mit der Technologie auch die Bindung von unbehüllten Viren (am Beispiel von Adenoviren) und Virus-ähnlichen Partikeln (am Beispiel von Norovirus-ähnlichen Partikeln) an Antikörper vermessen werden kann. Neben Bindungsinteraktionen, wurden auch Größenbestimmungen mit Hilfe von DNA Origamis durchgeführt. Die Hebellänge von ca. 50 nm ermöglichte die elektrische Bewegung ("switching") von Virusmaterial. Es konnte so gezeigt werden, dass die Technologie es ermöglicht, Objekte mit einem hydrodynamischen Durchmesser von mehr als 14 nm zu bewegen. In einer theoretischen Betrachtung der Experimente konnte gezeigt werden, dass der Sensoraufbau und die verwendeten Parameter die Messung von Bindungsratenkonstanten in einem Reaktions-limitierten Bereich ermöglichen. Insgesamt konnte die Arbeit an vielen Beispielen zeigen, dass die switch-SENSE Technologie für die Messung von Virus-Rezeptor Interaktionen geeignet ist. Während es weiterhin Herausforderungen gibt, so ermöglicht der Aufbau doch die Bestimmung von Affinitäten zwischen Viren und Rezeptoren. Insbesondere die Möglichkeiten zur Quantifizierung von oligo- und multivalenten Bindungsinteraktionen konnten aufgezeigt werden. T2 - Charakterisierung von Biomolekülen und deren Interaktionen mittels elektrisch kontrollierbarer DNA Nanohebel KW - biomolecule KW - binding interactions KW - switchSENSE KW - virus KW - receptor KW - Biomoleküle KW - Bindungsinteraktion KW - switchSENSE Technologie KW - Virus KW - Rezeptor Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577384 ER - TY - THES A1 - Drobyshev, Evgenii T1 - Toxic or beneficial? What is the role of food-relevant selenium species selenoneine? T1 - Giftig oder nützlich? Welche Rolle spielt die lebensmittelrelevante Selenspezies Selenonein? N2 - Selenium (Se) is an essential trace element that is ubiquitously present in the environment in small concentrations. Essential functions of Se in the human body are manifested through the wide range of proteins, containing selenocysteine as their active center. Such proteins are called selenoproteins which are found in multiple physiological processes like antioxidative defense and the regulation of thyroid hormone functions. Therefore, Se deficiency is known to cause a broad spectrum of physiological impairments, especially in endemic regions with low Se content. Nevertheless, being an essential trace element, Se could exhibit toxic effects, if its intake exceeds tolerable levels. Accordingly, this range between deficiency and overexposure represents optimal Se supply. However, this range was found to be narrower than for any other essential trace element. Together with significantly varying Se concentrations in soil and the presence of specific bioaccumulation factors, this represents a noticeable difficulty in the assessment of Se epidemiological status. While Se is acting in the body through multiple selenoproteins, its intake occurs mainly in form of small organic or inorganic molecular mass species. Thus, Se exposure not only depends on daily intake but also on the respective chemical form, in which it is present. The essential functions of selenium have been known for a long time and its primary forms in different food sources have been described. Nevertheless, analytical capabilities for a comprehensive investigation of Se species and their derivatives have been introduced only in the last decades. A new Se compound was identified in 2010 in the blood and tissues of bluefin tuna. It was called selenoneine (SeN) since it is an isologue of naturally occurring antioxidant ergothioneine (ET), where Se replaces sulfur. In the following years, SeN was identified in a number of edible fish species and attracted attention as a new dietary Se source and potentially strong antioxidant. Studies in populations whose diet largely relies on fish revealed that SeN represents the main non-protein bound Se pool in their blood. First studies, conducted with enriched fish extracts, already demonstrated the high antioxidative potential of SeN and its possible function in the detoxification of methylmercury in fish. Cell culture studies demonstrated, that SeN can utilize the same transporter as ergothioneine, and SeN metabolite was found in human urine. Until recently, studies on SeN properties were severely limited due to the lack of ways to obtain the pure compound. As a predisposition to this work was firstly a successful approach to SeN synthesis in the University of Graz, utilizing genetically modified yeasts. In the current study, by use of HepG2 liver carcinoma cells, it was demonstrated, that SeN does not cause toxic effectsup to 100 μM concentration in hepatocytes. Uptake experiments showed that SeN is not bioavailable to the used liver cells. In the next part a blood-brain barrier (BBB) model, based on capillary endothelial cells from the porcine brain, was used to describe the possible transfer of SeN into the central nervous system (CNS). The assessment of toxicity markers in these endothelial cells and monitoring of barrier conditions during transfer experiments demonstrated the absence of toxic effects from SeN on the BBB endothelium up to 100 μM concentration. Transfer data for SeN showed slow but substantial transfer. A statistically significant increase was observed after 48 hours following SeN incubation from the blood-facing side of the barrier. However, an increase in Se content was clearly visible already after 6 hours of incubation with 1 μM of SeN. While the transfer rate of SeN after application of 0.1 μM dose was very close to that for 1 μM, incubation with 10 μM of SeN resulted in a significantly decreased transfer rate. Double-sided application of SeN caused no side-specific transfer of SeN, thus suggesting a passive diffusion mechanism of SeN across the BBB. This data is in accordance with animal studies, where ET accumulation was observed in the rat brain, even though rat BBB does not have the primary ET transporter – OCTN1. Investigation of capillary endothelial cell monolayers after incubation with SeN and reference selenium compounds showed no significant increase of intracellular selenium concentration. Speciesspecific Se measurements in medium samples from apical and basolateral compartments, as good as in cell lysates, showed no SeN metabolization. Therefore, it can be concluded that SeN may reach the brain without significant transformation. As the third part of this work, the assessment of SeN antioxidant properties was performed in Caco-2 human colorectal adenocarcinoma cells. Previous studies demonstrated that the intestinal epithelium is able to actively transport SeN from the intestinal lumen to the blood side and accumulate SeN. Further investigation within current work showed a much higher antioxidant potential of SeN compared to ET. The radical scavenging activity after incubation with SeN was close to the one observed for selenite and selenomethionine. However, the SeN effect on the viability of intestinal cells under oxidative conditions was close to the one caused by ET. To answer the question if SeN is able to be used as a dietary Se source and induce the activity of selenoproteins, the activity of glutathione peroxidase (GPx) and the secretion of selenoprotein P (SelenoP) were measured in Caco-2 cells, additionally. As expected, reference selenium compounds selenite and selenomethionine caused efficient induction of GPx activity. In contrast to those SeN had no effect on GPx activity. To examine the possibility of SeN being embedded into the selenoproteome, SelenoP was measured in a culture medium. Even though Caco-2 cells effectively take up SeN in quantities much higher than selenite or selenomethionine, no secretion of SelenoP was observed after SeN incubation. Summarizing, we can conclude that SeN can hardly serve as a Se source for selenoprotein synthesis. However, SeN exhibit strong antioxidative properties, which appear when sulfur in ET is exchanged by Se. Therefore, SeN is of particular interest for research not as part of Se metabolism, but important endemic dietary antioxidant. N2 - Selen (Se) ist ein essentielles Spurenelement, das in geringen Konzentrationen ubiquitär in der Umwelt vorkommt. Essentielle Funktionen von Se im menschlichen Körper manifestieren sich in einer Vielzahl von Proteinen, die Selenocystein als aktives Zentrum enthalten. Solche Proteine werden Selenoproteine genannt, die in zahlreichen physiologischen Prozessen wie der antioxidativen Abwehr und der Regulierung der Schilddrüsenhormonfunktionen vorkommen. Daher ist bekannt, dass ein Se-Mangel ein breites Spektrum physiologischer Beeinträchtigungen verursacht, insbesondere in solchen Regionen mit niedrigem Se-Bodengahlten. Dennoch kann Se als essentielles Spurenelement auch toxische Wirkungen entfalten, wenn seine Aufnahme das tolerierbare Maß überschreitet. Dementsprechend stellt dieser Bereich zwischen Mangel und Überbelichtung eine optimale Se-Versorgung dar. Dieser Bereich erwies sich jedoch als enger als bei jedem anderen essentiellen Spurenelement. Zusammen mit stark schwankenden SeKonzentrationen im Boden und dem Vorliegen spezifischer Bioakkumulationsfaktoren stellt dies eine deutliche Schwierigkeit bei der Beurteilung des epidemiologischen Selenstatus dar. Während im Körper mehrere Selenoproteine vorliegen, erfolgt seine Aufnahme hauptsächlich in Form kleiner organischer oder anorganischer Moleküle. Somit hängt die Se-Exposition nicht nur von der täglichen Aufnahme ab, sondern auch von der jeweiligen chemischen Form, in der es vorliegt. Die essentiellen Funktionen von Selen sind seit langem bekannt und seine Primärformen in verschiedenen Nahrungsquellen dominierenden Formen wurden bereits gut beschrieben. Dennoch wurden erst in den letzten Jahrzehnten neue analytische Möglichkeiten für eine umfassendere Untersuchung von Se-Spezies und ihren Derivaten entwickelt. Beispielsweise wurde 2010 eine neue Se-Verbindung im Blut und im Gewebe von Rotem Thunfisch identifiziert. Es wurde Selenonein (SeN) genannt, da es ein Isolog des natürlich vorkommenden Antioxidans Ergothionein (ET) ist, bei dem Se durch Schwefel ersetzt ist. In den folgenden Jahren wurde SeN in einer Reihe von essbaren Fischarten identifiziert und erregte einerseits als neue Nahrungsquelle für Se und andererseits als potenziell starkes Antioxidans Aufmerksamkeit. Studien an Probanden, deren Ernährung hauptsächlich von Fisch geprägt ist, haben gezeigt, dass SeN den hauptsächlichen nicht-proteingebundenen Se-Pool in ihrem Blut darstellt. Erste Studien mit angereicherten Fischextrakten zeigten bereits das hohe antioxidative Potenzial von SeN und seine mögliche Funktion bei der Entgiftung von Methylquecksilber im Fisch. Zellkulturstudien zeigten, dass SeN den gleichen Transporter wie Ergothionein nutzen kann und ein weiterer SeN-Metabolit wurde im menschlichen Urin gefunden. Bis vor kurzem waren Studien zu den Eigenschaften von SeN aufgrund fehlender Möglichkeiten, die reine Verbindung zu erwerben, stark eingeschränkt. Als wichtige Grundlage für die vorliegende Arbeit diente zunächst die erfolgreiche Synthese des SeN, welche an der Universität Graz unter Verwendung gentechnisch veränderter Hefen erfolgte. In der aktuellen Studie wurde unter Verwendung von HepG2-Leberkarzinomzellen gezeigt, dass SeN in physiologisch relevanten Konzentrationen keine toxischen Effekte in diesen Hepatozyten induziert. Bioverfügbarkeitsexperimente zeigten, dass SeN für die verwendeten Leberzellen nicht bioverfügbar ist. Im nächsten Teil wurde ein Modell der Blut-Hirn-Schranke (BHS) verwendet, das auf kapillaren Endothelzellen aus dem Schweinehirn basiert, um den möglichen Transfer von SeN in das zentrale Nervensystem (ZNS) zu untersuchen. Die Bewertung von Toxizitätsmarkern in diesen Endothelzellen und die online Überwachung der Barriere-Bedingungen während der Transferexperimente zeigten, dass bei physiologisch relevanten Konzentrationen keine toxischen Wirkungen von SeN auf das BHS-Endothel auftreten. Daten bezüglich des Übergangs der Selenspezies SeN zeigten zwar eine langsame, jedoch eine nicht zu vernachlässigenden Menge, die die Barriere passieren kann. Die gleichzeitige Inkubation von SeN auf beiden Barriere-Seiten verursachte keinen seitenspezifischen Transfer von SeN, was auf einen passiven Diffusionsmechanismus von SeN über die BHS hindeutet. Diese Daten stimmen mit Tierstudien überein, in denen eine ET-Akkumulation im Rattengehirn beobachtet wurde, obwohl die BHS der Ratte nicht über den primären ET-Transporter – OCTN1 – verfügt. Die Untersuchung von Monolayern aus kapillaren Endothelzellen nach Inkubation mit SeN und Referenzselenverbindungen zeigte keinen signifikanten Anstieg der intrazellulären Selenkonzentration. Speziesspezifische Se-Messungen in Mediumproben aus den apikalen und basolateralen Kompartimenten, sowie in den Zelllysaten zeigten keine SeN-Metabolisierung. Daraus kann geschlossen werden, dass SeN das Gehirn ohne signifikante Transformation erreichen kann. Als dritter Teil dieser Arbeit wurde die Bewertung der antioxidativen Eigenschaften von SeN in menschlichen Caco-2, also kolorektale Adenokarzinomzellen, durchgeführt. Frühere Studien zeigten, dass das Darmepithel in der Lage ist, SeN aktiv vom Darmlumen zur Blutseite zu transportieren und dort SeN anzureichern. Weitere Untersuchungen im Rahmen der aktuellen Arbeiten zeigten ein viel höheres antioxidatives Potenzial von SeN im Vergleich zu ET. Die Aktivität als Radikalfänger nach Inkubation mit SeN war ähnlich wie bei Selenit und Selenomethionin. Wobei die Wirkung von SeN auf die Lebensfähigkeit von Darmzellen unter oxidativen Bedingungen jedoch ähnlich der durch ET verursachten war. Um die Frage zu beantworten, ob SeN als diätetische Se-Quelle verwendet werden kann um die Aktivität von Selenoproteinen zu induzieren, wurden zusätzlich die Aktivität der Glutathionperoxidase (GPx) und die Sekretion von Selenoprotein P (SelenoP) in Caco-2-Zellen gemessen. Wie erwartet, bewirkten die Referenz-Selenverbindungen Selenit und Selenomethionin eine effiziente Induktion der GPx-Aktivität, im Gegensatz zu diesen hatte SeN keinen Einfluss auf die GPx-Aktivität. Um die Möglichkeit einer Einbettung von SeN in das Selenoproteom zu untersuchen, wurde SelenoP im Kulturmedium gemessen. Obwohl Caco-2-Zellen SeN effektiv in viel höherenMengen als Selenit oder Selenomethionin aufnehmen, wurde nach der SeN-Inkubation keine Sekretion von SelenoP beobachtet. Zusammenfassend können wir schlussfolgern, dass SeN kaum als Se-Quelle für die Selenoproteinsynthese dienen kann. SeN weist jedoch starke antioxidative Eigenschaften auf, die auftreten, wenn Schwefel in ET durch Se ausgetauscht wird. Daher ist SeN von besonderem Interesse für die Forschung, nicht als Teil des Se-Stoffwechsels, sondern als wichtiges endemisches diätetisches Antioxidans. KW - selenium KW - selenoneine KW - HepG2 KW - Caco-2 KW - PBCEC KW - Caco-2 KW - HepG2 KW - PBCEC KW - Selen KW - Selenonein Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573794 ER - TY - THES A1 - Schmitz, Seán T1 - Using low-cost sensors to gather high resolution measurements of air quality in urban environments and inform mobility policy N2 - Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality. In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations. With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments. To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results. As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research. N2 - Luftverschmutzung ist seit hundert Jahren ein anhaltendes globales Problem. Während sich die Luftqualität in einigen Industrieländern durch strengere Vorschriften verbessert hat, hat sie sich in anderen Ländern im Zuge der schnell fortschreitenden Industrialisierung verschlechtert. Die Aktualisierung der von der WHO für das Jahr 2021 empfohlenen Grenzwerte für die Luftverschmutzung spiegelt die erheblichen Aus-wirkungen von Schadstoffen wie Stickstoffdioxid (NO2) und Ozon (O3) auf die menschliche Gesundheit wider, da neuere epidemiologische Erkenntnisse darauf hindeuten, dass Luft-verschmutzung selbst bei niedrigen Konzentrationen erhebliche langfristige gesundheitliche Auswirkungen hat. Parallel zu den Entwicklungen in unserem Verständnis der gesundheitlichen Auswirkungen von Luftverschmutzung wurde die neue Technologie der Low-Cost-Sensoren (LCS) sowohl von der Wissenschaft als auch von der Industrie als neue Methode zur Messung der Luftverschmutzung aufgegriffen. Vor allem aufgrund ihrer geringeren Kosten und kleineren Größe können sie in einer Vielzahl von Anwendungen eingesetzt werden, u. a. bei der Entwicklung von Messnetzen mit höherer räumlicher Auf-lösung, bei der Identifizierung von Quellen und bei der Messung der Luftverschmutzung. Es wurden zwar erhebliche Anstrengungen unternommen, um LCS mit Hilfe von Referenzinstrumenten und verschiedenen statistischen Modellen genau zu kalibrieren, aber die Genauigkeit und Präzision bleiben durch die variable Sensorempfindlichkeit begrenzt. Darüber hinaus gibt es immer noch keine Standardverfahren für die Kalibrierung, und die meisten proprietären Kalibrierungsalgorithmen sind Blackboxen, die für die Öffentlichkeit nicht zugänglich sind. Mit dieser Arbeit soll die Wissensbasis über LCS auf verschiedene Weise erweitert werden: 1) durch die Entwicklung einer Open-Source-Kalibrierungsmethodik; 2) durch den Einsatz von LCS mit hoher räumlicher Auflösung in städtischen Umgebungen, um ihre Fähigkeit zur Messung kleinräumlicher Veränderungen der städtischen Luftverschmutzung zu testen; 3) durch die Verknüpfung von LCS-Einsätzen mit der Umsetzung lokaler Verkehrsmaßnahmen, um politische Empfehlungen zu den daraus resultierenden Veränderungen der Luftqualität geben zu können. In einem ersten Schritt wurde festgestellt, dass LCS mit Hilfe von sieben allgemeinen Schritten konsistent und mit guter Leistung gegenüber Referenzinstrumenten kalibriert werden können: 1) Bewertung der Rohdatenverteilung, 2) Datenbereinigung, 3) Kenn-zeichnung von Daten, 4) Modellauswahl und -abstimmung, 5) Modellvalidierung, 6) Export der endgültigen Vorhersagen und 7) Berechnung der damit verbundenen Unsicherheit. Durch die Betonung der Notwendigkeit einer konsistenten Berichterstattung über Details bei jedem Schritt, insbesondere bei der Modellauswahl, -validierung und -leistung, hat diese Arbeit die Bemühungen um eine Standardisierung der Kalibrierungs-methoden vorangetrieben. Darüber hinaus wurden mit der Open-Source-Veröffentlichung von Code und Daten für die siebenstufige Methodik Fortschritte bei der Reformierung der weitgehenden Blackbox-Natur von LCS-Kalibrierungen erzielt. Nach der Einführung einer transparenten und zuverlässigen Kalibrierungsmethode wurden die LCS zwischen 2017 und 2020 an verschiedenen Straßen eingesetzt. Unter Ver-wendung von zwei Arten von LCS, Metalloxid (MOS) und elektrochemisch (EC), wurde ihre Leistung bei der Erfassung der erwarteten Muster der NO2- und O3-Belastung in Städten bewertet. Die Ergebnisse zeigten, dass die kalibrierten Konzentrationen der MOS- und EC-Sensoren mit den allgemeinen Tagesmustern der NO2- und O3-Belastung überein-stimmten, die mit Referenzgeräten gemessen wurden. Während sich MOS als unzuverlässig erwies, wenn es darum ging, Unterschiede zwischen den gemessenen Orten inner-halb der städtischen Umgebung zu erkennen, entsprachen die mit kalibrierten EC-Sensoren gemessenen Konzentrationen den Erwartungen aus Modellierungsstudien zur Verteilung der NO2- und O3-Belastung in Straßenschluchten. Daraus wurde der Schluss gezogen, dass LCS für die Messung der Luftqualität in Städten geeignet sind, auch zur Unterstützung der Entwicklung von Luftverschmutzungsmodellen auf städtischer Ebene, und dass sie neue Erkenntnisse über die Luftverschmutzung in städtischen Umgebungen liefern können. Um das letzte Ziel dieser Arbeit zu erreichen, wurden zwei Messkampagnen im Zusammenhang mit der Umsetzung von drei verkehrspolitischen Maßnahmen in Berlin durchgeführt. Bei der ersten handelte es sich um den Bau einer Pop-up-Radweg auf dem Kottbusser Damm als Reaktion auf die COVID-19-Pandemie, bei der zweiten um die vorübergehende Einrichtung eines Gemeinschaftsraums in der Böckhstraße und bei der letzten um die Sperrung eines Teils der Friedrichstraße für den gesamten motorisierten Verkehr. In allen Fällen wurden NO2-Messungen vor und nach der Durchführung der Maßnahme durchgeführt, um die Veränderungen der Luftqualität infolge dieser Maßnahmen zu bewerten. Die Ergebnisse des Experiments am Kottbusser Damm zeigten, dass die NO2-Konzentrationen, denen die Radfahrer ausgesetzt waren, durch den Radweg um 22 ± 19 % gesenkt wurden. In der Friedrichstraße sank die NO2-Konzentration durch die Straßensperrung auf das Niveau des städtischen Hintergrunds, ohne dass sich die Luft-qualität in den Seitenstraßen verschlechterte. Diese wertvollen Ergebnisse wurden den verantwortlichen Ansprechpersonen in der Stadtverwaltung, die für die Bewertung des Erfolgs und der Zukunft der Maßnahmen verantwortlich sind, schnell mitgeteilt, was die Fähigkeit von LCS unterstreicht, politisch relevante Ergebnisse zu liefern. Da es sich um eine neue Technologie handelt, muss noch viel über LCS und ihren Wert für die akademische Forschung im Bereich der Atmosphärenwissenschaften gelernt werden. Dennoch hat diese Arbeit den Stand der Technik in mehrfacher Hinsicht verbessert. Erstens wurde eine neuartige Open-Source-Kalibrierungsmethode entwickelt, die von LCS-Anwender*innen für verschiedene Luftschadstoffe verwendet werden kann. Zweitens wurde die Beweisgrundlage für die Zuverlässigkeit von LCS zur Messung der Luftqualität in Städten gestärkt, indem durch neuartige Einsätze in Straßenschluchten festgestellt wurde, dass LCS mit hoher räumlicher Auflösung zum Verständnis der Dynamik der Luftverschmutzung auf kleinräumlicher Ebene eingesetzt werden kann. Schließlich ist es die erste Studie dieser Art, die LCS-Messungen direkt mit verkehrspolitischen Maßnahmen verknüpft, um deren Einfluss auf die lokale Luftqualität zu verstehen, was zu politisch relevanten Erkenntnissen führt, die für Entscheidungsträger*innen wertvoll sind. Die Studie ist ein Beispiel für das Potenzial von LCS, unser Verständnis von Luftverschmutzung in verschiedenen Maßstäben zu erweitern, sowie für ihre Fähigkeit, als wert-volle Werkzeuge in der transdisziplinären Forschung zu dienen. T2 - Verwendung kostengünstiger Sensoren zur Erfassung hochauflösender Messungen der Luftqualität in städtischen Umgebungen und zur Information über die Mobilitätspolitik KW - air pollution KW - urban KW - low-cost sensor KW - transdisciplinary KW - sustainability KW - mobility KW - policy KW - Luftverschmutzung KW - Mobilität KW - Politik KW - Nachhaltigkeit KW - Transdisziplinarität KW - Städte Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601053 ER - TY - THES A1 - Pätzel, Jonas T1 - Seismic site characterization using broadband and DAS ambient vibration measurements on Mt Etna, Italy N2 - Both horizontal-to-vertical (H/V) spectral ratios and the spatial autocorrelation method (SPAC) have proven to be valuable tools to gain insight into local site effects by ambient noise measurements. Here, the two methods are employed to assess the subsurface velocity structure at the Piano delle Concazze area on Mt Etna. Volcanic tremor records from an array of 26 broadband seismometers is processed and a strong variability of H/V ratios during periods of increased volcanic activity is found. From the spatial distribution of H/V peak frequencies, a geologic structure in the north-east of Piano delle Concazze is imaged which is interpreted as the Ellittico caldera rim. The method is extended to include both velocity data from the broadband stations and distributed acoustic sensing data from a co-located 1.5 km long fibre optic cable. High maximum amplitude values of the resulting ratios along the trajectory of the cable coincide with known faults. The outcome also indicates previously unmapped parts of a fault. The geologic interpretation is in good agreement with inversion results from magnetic survey data. Using the neighborhood algorithm, spatial autocorrelation curves obtained from the modified SPAC are inverted alone and jointly with the H/V peak frequencies for 1D shear wave velocity profiles. The obtained models are largely consistent with published models and were able to validate the results from the fibre optic cable. N2 - Sowohl die räumliche Autokorrelations-Methode (SPAC) als auch die Methode der horizontal-vertikal Spektralverhältnisse (H/V) sind wichtige Instrumente bei der seismischen Charakterisierung des Untergrundes mittels Bodenunruhe. In der vorliegenden Arbeit werden beide Techniken angewandt, um die Geschwindigkeitsstruktur der Piano delle Concazze Ebene auf dem Ätna zu untersuchen. Die Aufzeichnungen vulkanischen Tremors auf einem Array aus 26 Breitband-Seismometern werden prozessiert und starke Schwankungen des H/V Verhältnisses, insbesondere während Zeiten erhöhter vulkanischer Aktivität werden festgestellt. Die räumliche Verteilung der H/V Frequenzpeaks bildet eine geologische Struktur im nordöstlichen Bereichs des Untersuchungsgebietes ab. Diese wird als der alte Rand der Ellittico Caldera interpretiert. Die H/V-Methode wird um die kombinierte Verarbeitung von Geschwindigkeitsaufzeichnungen des Breitband-Arrays und faseroptischen Dehnungmessungen (distributed acoustic sensing, DAS) erweitert. Hierfür werden die Daten eines 1,5 km langen Glasfaserkabels, mit welchem das Seismometer-Array zusammen installiert wurde, genutzt. Erhöhte Werte der maximalen Amplitude der berechneten Spektralverhältnisse, stimmen mit der Lage bekannter Verwerfungen im Gebiet überein. Das Ergebnis deutet auf einen bisher nicht aufgezeichneten Verlauf einer der Verwerfungszonen hin. Die Interpretaion der Strukturen stimmt überein mit den Ergebnissen einer Geomagnetik-Studie der Piano delle Concazze. Mithilfe des Neighborhood-Algorithmus werden die räumlichen Autokorrelationskurven der modifizierten SPAC, sowohl einfach als auch in Kombination mit den H/V Frequenzpeaks, invertiert. So werden schließlich 1D Modelle der S-Wellengeschwindigkeit abgeleitet. Diese stimmen weitgehend überein mit den Resultaten anderer Studien und bestätigen darüberhinaus die Ergebnisse der DAS-Aufzeichnungen. KW - site characterization KW - Etna KW - DAS KW - ambient vibration KW - seismic noise KW - H/V KW - HVSR KW - velocity model KW - SPAC KW - MSPAC KW - spatial autocorrelation KW - Piano delle Concazze KW - site effects KW - microzonation KW - volcanic tremor KW - joint inversion KW - ortsverteile faseroptische Dehnungsmessung KW - Ätna KW - H/V KW - horizontal-vertikales Spektralverhältnis KW - räumliche Autkorrelationsmethode KW - modifizierte räumliche Autkorrelationsmethode KW - Bodenunruhe KW - gemeinsame Inversion KW - Mikrozonierung KW - seismisches Rauschen KW - Ortscharakterisierung KW - Ortseffekte KW - räumliche Autokorrelation KW - Geschwindigkeitsmodell KW - vulkanischer Tremor KW - Piano delle Concazze Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613793 ER - TY - THES A1 - Kunkel, Stefanie T1 - Green industry through industry 4.0? Expected and observed effects of digitalisation in industry for environmental sustainability T1 - Grüne Industrie durch Industrie 4.0? Erwartete und beobachtete Auswirkungen der Digitalisierung in der Industrie auf ökologische Nachhaltigkeit N2 - Digitalisation in industry – also called “Industry 4.0” – is seen by numerous actors as an opportunity to reduce the environmental impact of the industrial sector. The scientific assessments of the effects of digitalisation in industry on environmental sustainability, however, are ambivalent. This cumulative dissertation uses three empirical studies to examine the expected and observed effects of digitalisation in industry on environmental sustainability. The aim of this dissertation is to identify opportunities and risks of digitalisation at different system levels and to derive options for action in politics and industry for a more sustainable design of digitalisation in industry. I use an interdisciplinary, socio-technical approach and look at selected countries of the Global South (Study 1) and the example of China (all studies). In the first study (section 2, joint work with Marcel Matthess), I use qualitative content analysis to examine digital and industrial policies from seven different countries in Africa and Asia for expectations regarding the impact of digitalisation on sustainability and compare these with the potentials of digitalisation for sustainability in the respective country contexts. The analysis reveals that the documents express a wide range of vague expectations that relate more to positive indirect impacts of information and communication technology (ICT) use, such as improved energy efficiency and resource management, and less to negative direct impacts of ICT, such as electricity consumption through ICT. In the second study (section 3, joint work with Marcel Matthess, Grischa Beier and Bing Xue), I conduct and analyse interviews with 18 industry representatives of the electronics industry from Europe, Japan and China on digitalisation measures in supply chains using qualitative content analysis. I find that while there are positive expectations regarding the effects of digital technologies on supply chain sustainability, their actual use and observable effects are still limited. Interview partners can only provide few examples from their own companies which show that sustainability goals have already been pursued through digitalisation of the supply chain or where sustainability effects, such as resource savings, have been demonstrably achieved. In the third study (section 4, joint work with Peter Neuhäusler, Melissa Dachrodt and Marcel Matthess), I conduct an econometric panel data analysis. I examine the relationship between the degree of Industry 4.0, energy consumption and energy intensity in ten manufacturing sectors in China between 2006 and 2019. The results suggest that overall, there is no significant relationship between the degree of Industry 4.0 and energy consumption or energy intensity in manufacturing sectors in China. However, differences can be found in subgroups of sectors. I find a negative correlation of Industry 4.0 and energy intensity in highly digitalised sectors, indicating an efficiency-enhancing effect of Industry 4.0 in these sectors. On the other hand, there is a positive correlation of Industry 4.0 and energy consumption for sectors with low energy consumption, which could be explained by the fact that digitalisation, such as the automation of previously mainly labour-intensive sectors, requires energy and also induces growth effects. In the discussion section (section 6) of this dissertation, I use the classification scheme of the three levels macro, meso and micro, as well as of direct and indirect environmental effects to classify the empirical observations into opportunities and risks, for example, with regard to the probability of rebound effects of digitalisation at the three levels. I link the investigated actor perspectives (policy makers, industry representatives), statistical data and additional literature across the system levels and consider political economy aspects to suggest fields of action for more sustainable (digitalised) industries. The dissertation thus makes two overarching contributions to the academic and societal discourse. First, my three empirical studies expand the limited state of research at the interface between digitalisation in industry and sustainability, especially by considering selected countries in the Global South and the example of China. Secondly, exploring the topic through data and methods from different disciplinary contexts and taking a socio-technical point of view, enables an analysis of (path) dependencies, uncertainties, and interactions in the socio-technical system across different system levels, which have often not been sufficiently considered in previous studies. The dissertation thus aims to create a scientifically and practically relevant knowledge basis for a value-guided, sustainability-oriented design of digitalisation in industry. N2 - Die Digitalisierung der Industrie, auch „Industrie 4.0“ genannt, wird von zahlreichen Akteuren als Chance zur Reduktion der Umweltauswirkungen des industriellen Sektors betrachtet. Die wissenschaftlichen Bewertungen der Effekte der Digitalisierung der Industrie auf ökologische Nachhaltigkeit sind hingegen ambivalent. Diese kumulative Dissertation untersucht anhand von drei empirischen Studien die erwarteten und beobachteten Auswirkungen der Digitalisierung der Industrie auf ökologische Nachhaltigkeit. Ziel der Dissertation ist es, Chancen und Risiken der Digitalisierung auf verschiedenen System-Ebenen zu identifizieren und Handlungsoptionen in Politik und Industrie für eine nachhaltigere Gestaltung der Digitalisierung der Industrie abzuleiten. Ich nutze einen interdisziplinären, soziotechnischen Zugang und betrachte ausgewählte Länder des Globalen Südens (Studie 1) und das Beispiel Chinas (alle Studien). In der ersten Studie (Kapitel 2, gemeinsame Arbeit mit Marcel Matthess) untersuche ich mittels qualitativer Inhaltsanalyse Digital- und Industriestrategien aus sieben verschiedenen Ländern in Afrika und Asien auf politische Erwartungen hinsichtlich der Auswirkungen von Digitalisierung auf Nachhaltigkeit und vergleiche diese mit den erwartbaren Potenzialen der Digitalisierung für Nachhaltigkeit in den jeweiligen Länderkontexten. Die Analyse ergibt, dass die Dokumente ein breites Spektrum vager Erwartungen zum Ausdruck bringen, die sich eher auf positive indirekte Auswirkungen der Nutzung von Informations- und Kommunikationstechnologie (IKT), wie etwa auf höhere Energieeffizienz und ein verbessertes Ressourcenmanagement, und weniger auf negative direkte Auswirkungen der IKT, wie etwa auf den Stromverbrauch durch IKT, beziehen. In der zweiten Studie (Kapitel 3, gemeinsame Arbeit mit Marcel Matthess, Grischa Beier und Bing Xue) führe und analysiere ich mittels qualitativer Inhaltsanalyse Interviews mit 18 Industrie-Vertreter*innen der Elektronikindustrie aus Europa, Japan und China zu Maßnahmen der Digitalisierung in Lieferketten. Wir stellen fest, dass zwar positive Erwartungen hinsichtlich der Effekte digitaler Technologien für Nachhaltigkeit der Lieferkette bestehen, deren tatsächlicher Einsatz und beobachtete Effekte jedoch noch begrenzt sind. Interviewpartner*innen können nur wenige Beispiele aus den eigenen Unternehmen nennen, die zeigen, dass durch die Digitalisierung der Lieferkette bereits Nachhaltigkeitsziele verfolgt oder Nachhaltigkeits-Effekte, wie Ressourceneinsparungen, nachweisbar erzielt wurden. In der dritten Studie (Kapitel 4, gemeinsame Arbeit mit Peter Neuhäusler, Marcel Matthess und Melissa Dachrodt) führe ich eine ökonometrische Panel-Daten-Analyse durch. Ich untersuche den Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch sowie der Energieintensität in zehn Fertigungssektoren in China im Zeitraum zwischen 2006 und 2019. Die Ergebnisse deuten darauf hin, dass es insgesamt keinen signifikanten Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch bzw. der Energieintensität in Fertigungs-Sektoren in China gibt. Es können jedoch Unterschiede in Sub-Gruppen von Sektoren festgestellt werden. Ich stelle eine negative Korrelation von Industrie 4.0 und Energieintensität in hoch digitalisierten Sektoren fest, was auf einen Effizienz-steigernden Effekt von Industrie 4.0 hindeutet. Andererseits besteht eine positive Korrelation von Industrie 4.0 und Energieverbrauch für Sektoren mit niedrigem Energieverbrauch, was dadurch erklärt werden könnte, dass Digitalisierung, etwa die Automatisierung zuvor hauptsächlich arbeitsintensiver Sektoren, Energie erfordert und außerdem Wachstumseffekte hervorruft. Im Diskussionsteil (Kapitel 6) dieser Dissertation nutze ich das Ordnungsschema der drei Ebenen Makro, Meso und Mikro, sowie von direkten und indirekten Umwelteffekten für die Einordnung der empirischen Beobachtungen in Chancen und Risiken, etwa hinsichtlich der Wahrscheinlichkeit von Rebound-Effekten der Digitalisierung auf Mikro-, Meso- und Makro-Ebene. Ich verknüpfe die untersuchten Akteurs-Perspektiven (Politiker*innen, Industrievertreter*innen), statistischen Daten und zusätzliche Literatur über die System-Ebenen hinweg und berücksichtige dabei auch Gedanken der politischen Ökonomik, um Handlungsfelder für nachhaltige(re) digitalisierte Industrien abzuleiten. Die Dissertation leistet damit zwei übergeordnete Beiträge zum wissenschaftlichen und gesellschaftlichen Diskurs. Erstens erweitern meine drei empirischen Studien den begrenzten Forschungsstand an der Schnittstelle zwischen Digitalisierung in der Industrie und Nachhaltigkeit, insbesondere durch Berücksichtigung ausgewählter Länder im Globalen Süden und des Beispiels Chinas. Zweitens ermöglicht die Erforschung des Themas durch Daten und Methoden aus unterschiedlichen disziplinären Kontexten und unter Einnahme eines soziotechnischen Standpunkts, eine Analyse von (Pfad-)Abhängigkeiten und Unsicherheiten im soziotechnischen System über verschiedene System-Ebenen hinweg, die in bisherigen Studien häufig nicht ausreichend berücksichtigt wurden. Die Dissertation soll so eine wissenschaftlich und praktisch relevante Wissensbasis für eine werte-gleitete, auf Nachhaltigkeit ausgerichtete Gestaltung der Digitalisierung der Industrie schaffen. KW - digitalization KW - sustainable industrial development KW - Industry 4.0 KW - information and communication technologies KW - sustainable supply chain management KW - Global Value Chains KW - environmental upgrading KW - Artificial Intelligence KW - Big Data Analytics KW - Digital Rebound KW - China KW - patent KW - robot KW - sustainability KW - Künstliche Intelligenz KW - Big Data Analytics KW - China KW - Digital Rebound KW - Globale Wertschöpfungsketten KW - Industrie 4.0 KW - Digitalisierung KW - ökologisches Upgrading KW - Informations- und Kommunikationstechnologien KW - Patent KW - Roboter KW - Nachhaltigkeit KW - nachhaltige industrielle Entwicklung KW - nachhaltiges Lieferkettenmanagement KW - Industrial Internet of Things KW - Industrielles Internet der Dinge Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613954 ER - TY - THES A1 - Ilić Petković, Nikoleta T1 - Stars under influence: evidence of tidal interactions between stars and substellar companions T1 - Sterne unter Einfluss: Beweise für Gezeitenwechselwirkungen zwischen Sternen und substellaren Begleitern N2 - Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit? Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age. In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star. N2 - Gezeitenwechselwirkungen treten zwischen gravitativ gebundenen astrophysikalischen Körpern auf. Wenn ihr räumlicher Abstand hinreichend gering ist, können die Körper gegenseitig Gezeiten hervorrufen, die eine Drehimpulsübertragung bewirken und den Entwicklungsweg der Körper verändern, den sie als Einzelobjekte einschlagen würden. Die Gezeitenprozesse sind in den Planet-Mond-Systemen des Sonnensystems und in engen Doppelsternsystemen gut bekannt. Wie verhalten sich jedoch Sterne, die von einem substellaren Begleiter (z. B. einem Planeten oder einem Braunen Zwerg) auf einer engen Bahn umkreist werden? In der Regel wandert ein substellarer Begleiter innerhalb des Korotationsradius eines Sterns in Richtung des Sterns, da er an Bahndrehimpuls verliert. Auf der anderen Seite gewinnt der Stern an Drehimpuls, was seine Rotationsrate erhöhen kann. Dieser Effekt dürfte umso ausgeprägter sein, je massereicher der substellare Begleiter ist. Da die Rotationsrate des Sterns und das Niveau der magnetischen Aktivität gekoppelt sind, sollte der Stern unter dem Gezeiteneinfluss des ihn umkreisenden substellaren Begleiters magnetisch aktiver erscheinen. Die Schwierigkeit beim Nachweis, dass ein Stern aufgrund von Gezeitenwechselwirkungen eine höhere magnetische Aktivität aufweist, liegt jedoch darin, dass (I) substellare Begleiter um aktive Sterne leichter aufzuspüren sind, wenn sie massereicher sind, wodurch eine Tendenz zu massereichen Begleitern um aktive Sterne entsteht und der Effekt der Gezeitenwechselwirkung nachgeahmt wird, und dass (II) das Alter eines Hauptreihensterns nicht leicht bestimmt werden kann, so dass die Möglichkeit besteht, dass ein Stern aufgrund seines jungen Alters aktiver ist. In unserer Arbeit überwinden wir diese Hindernisse, indem wir weiträumige Doppelsternsysteme verwenden, in denen ein Stern einen substellaren Begleiter beherbergt und in denen der andere Stern den Referenzwert für die magnetische Aktivität des Wirtssterns liefert im Fall das Gezeitenwechselwirkungen keinen Einfluss auf ihn haben, wobei wir davon ausgehen, dass die Sterne sich gemeinsam entwickelt haben. Erstens stellen wir fest, dass extrasolare Planeten die Röntgenleuchtkraft des Wirtssterns merklich erhöhen können und dass der Effekt ausgeprägter ist, wenn der Exoplanet mindestens eine jupiterähnliche Masse hat und sich nahe am Stern befindet. Darüber hinaus stellen wir fest, dass ein Brauner Zwerg erwartungsgemäß einen noch stärkeren Einfluss hat und dass der Unterschied im Röntgenflächenfluss zwischen dem Wirtsstern und dem weiträumigen stellaren Begleiter ein signifikanter Ausreißer im Vergleich zu einer großen Stichprobe ähnlicher weiträumiger Doppelsternsysteme ohne bekannte substellare Begleiter ist. Dieses Ergebnis beweist, dass weiträumige Doppelsternsysteme mit substellaren Begleitern ein gutes Werkzeug sein können, um den Gezeiteneffekt auf Wirtssterne aufzudecken, und zeigt auch, dass die typischen stellaren Altersindikatoren wie Aktivität oder Rotation für diese Sterne nicht verwendet werden können. Mit dem Wissen, dass der Aktivitätsunterschied ein guter Indikator für den Gezeiteneinfluss des substellaren Begleiters ist, entwickeln wir schließlich eine analytische Methode zur Berechnung des modifizierten Gezeitenqualitätsfaktors Q' für einzelne Wirtssterne, der die Effizienz der Gezeitendissipation in der konvektiven Hülle eines gegebenen Hauptreihensterns definiert. KW - stellar evolution KW - tidal interactions KW - star-planet systems KW - star-brown dwarf systems KW - Stern-Brauner Zwerg Systeme KW - Stern-Planet Systeme KW - Sternentwicklung KW - Gezeitenwechselwirkungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615972 ER - TY - THES A1 - Stanke, Sandra T1 - AC electrokinetic immobilization of influenza viruses and antibodies on nanoelectrode arrays for on-chip immunoassays T1 - AC elektrokinetische Immobilisierung von Influenzaviren und Antikörpern auf Nanoelektrodenarrays für on-Chip Immunoassays N2 - In the present thesis, AC electrokinetic forces, like dielectrophoresis and AC electroosmosis, were demonstrated as a simple and fast method to functionalize the surface of nanoelectrodes with submicrometer sized biological objects. These nanoelectrodes have a cylindrical shape with a diameter of 500 nm arranged in an array of 6256 electrodes. Due to its medical relevance influenza virus as well as anti-influenza antibodies were chosen as a model organism. Common methods to bring antibodies or proteins to biosensor surfaces are complex and time-consuming. In the present work, it was demonstrated that by applying AC electric fields influenza viruses and antibodies can be immobilized onto the nanoelectrodes within seconds without any prior chemical modification of neither the surface nor the immobilized biological object. The distribution of these immobilized objects is not uniform over the entire array, it exhibits a decreasing gradient from the outer row to the inner ones. Different causes for this gradient have been discussed, such as the vortex-shaped fluid motion above the nanoelectrodes generated by, among others, electrothermal fluid flow. It was demonstrated that parts of the accumulated material are permanently immobilized to the electrodes. This is a unique characteristic of the presented system since in the literature the AC electrokinetic immobilization is almost entirely presented as a method just for temporary immobilization. The spatial distribution of the immobilized viral material or the anti-influenza antibodies at the electrodes was observed by either the combination of fluorescence microscopy and deconvolution or by super-resolution microscopy (STED). On-chip immunoassays were performed to examine the suitability of the functionalized electrodes as a potential affinity-based biosensor. Two approaches were pursued: A) the influenza virus as the bio-receptor or B) the influenza virus as the analyte. Different sources of error were eliminated by ELISA and passivation experiments. Hence, the activity of the immobilized object was inspected by incubation with the analyte. This resulted in the successful detection of anti-influenza antibodies by the immobilized viral material. On the other hand, a detection of influenza virus particles by the immobilized anti-influenza antibodies was not possible. The latter might be due to lost activity or wrong orientation of the antibodies. Thus, further examinations on the activity of by AC electric fields immobilized antibodies should follow. When combined with microfluidics and an electrical read-out system, the functionalized chips possess the potential to serve as a rapid, portable, and cost-effective point-of-care (POC) device. This device can be utilized as a basis for diverse applications in diagnosing and treating influenza, as well as various other pathogens. N2 - In der vorliegenden Arbeit wurden AC elektrokinetische Kräfte, wie die Dielektrophorese und die AC Elektroosmose, als einfache und schnelle Methode zur Funktionalisierung der Oberfläche von Nanoelektroden mit biologischen Objekten in Submikrometergröße demonstriert. Diese Nanoelektroden haben eine zylindrische Form mit einem Durchmesser von 500 nm und sind in einem Array aus 6256 Elektroden angeordnet. Aufgrund ihrer medizinischen Relevanz wurden Influenzaviren sowie anti-Influenza Antikörper als Modellorganismus ausgewählt. Gängige Methoden, um Antikörper oder Proteine auf Biosensoroberflächen zu bringen, sind komplex und zeitaufwändig. In der vorliegenden Arbeit wurde gezeigt, dass durch die Anwendung elektrischer Wechselfelder Influenzaviren und Antikörper innerhalb von Sekunden auf den Nanoelektroden immobilisiert werden können, ohne dass zuvor eine chemische Modifikation der Oberfläche noch des immobilisierten biologischen Objekts erforderlich ist. Die Verteilung dieser immobilisierten Objekte ist über das gesamte Array ungleichmäßig. Es kommt zur Ausbildung eines Gradienten, welcher von der äußeren zur den inneren Reihen hin abnimmt. Verschiedene Ursachen für diesen Gradienten wurden diskutiert, beispielsweise der Vortex-förmige Flüssigkeitsstrom über den Nanoelektroden, der unter anderem durch elektrothermische Flüssigkeitsbewegung erzeugt wird. Es wurde gezeigt, dass Teile des akkumulierten Materials dauerhaft an den Elektroden immobilisiert sind. Dies ist ein Alleinstellungsmerkmal des vorgestellten Systems, da in der Literatur die AC elektrokinetische Immobilisierung fast ausschließlich als Methode nur zur temporären Immobilisierung dargestellt wird. Die räumliche Verteilung des immobilisierten Virusmaterials bzw. der anti-Influenza Antikörper an den Elektroden wurde entweder durch die Kombination aus Fluoreszenzmikroskopie und Dekonvolution oder durch super-resolution Mikroskopie (STED) betrachtet. Es wurden On-Chip-Immunoassays durchgeführt, um die Eignung der funktionalisierten Elektroden für einen potenziellen affinitätsbasierten Biosensor zu untersuchen. Dabei wurden zwei Ansätze verfolgt: A) Influenzaviren als Biorezeptor oder B) Influenzavirus als Analyt. Verschiedene Fehlerquellen wurden mittels ELISA und Passivierungsexperimente eliminiert. Infolgedessen wurde die Aktivität der immobilisierten Objekte durch Inkubation mit dem Analyten überprüft. Dies führte zum erfolgreichen Nachweis von anti-Influenza Antikörpern mittels immobilisiertem Virusmaterial. Andererseits war ein Nachweis von Influenzaviruspartikeln durch die immobilisierten anti-Influenza Antikörper nicht möglich. Letzteres könnte auf einen Aktivitätsverlust oder eine falsche Ausrichtung der Antikörper zurückzuführen sein. Daher sollten weitere Untersuchungen zur Aktivität von durch elektrische Wechselfelder immobilisierte Antikörper folgen. In Kombination mit Mikrofluidik und einem elektrischen Auslesesystem besitzen die funktionalisierten Chips das Potenzial, als schnelle, tragbare und kostengünstige Point-of-Care-Einheit (POC) zu dienen. Dieses Einheit kann als Grundlage für vielfältige Anwendungen bei der Diagnose und Behandlung von Influenza und verschiedenen anderen Krankheitserregern genutzt werden. KW - AC electrokinetics KW - AC Elektrokinetik KW - AC electroosmosis KW - AC Elektroosmosis KW - dielectrophoresis KW - Dielektrophorese KW - virus KW - Virus KW - influenza KW - Influenza KW - antibody KW - Antikörper KW - nanoelectrodes KW - Nanoelektroden KW - lab-on-chip KW - lab-on-chip KW - LOC KW - LOC KW - point-of-care KW - point-of-care KW - POC KW - POC KW - immunoassay KW - Immunoassay Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617165 ER - TY - THES A1 - Leins, Johannes A. T1 - Combining model detail with large scales T1 - Die Verbindung von Modelldetails und großen Skalen BT - a simulation framework for population viability analyses in changing and disturbed environments BT - ein Simulationswerkzeug zur Analyse der Überlebensfähigkeit von Populationen in einer sich verändernden und gestörten Umwelt N2 - The global climate crisis is significantly contributing to changing ecosystems, loss of biodiversity and is putting numerous species on the verge of extinction. In principle, many species are able to adapt to changing conditions or shift their habitats to more suitable regions. However, change is progressing faster than some species can adjust, or potential adaptation is blocked and disrupted by direct and indirect human action. Unsustainable anthropogenic land use in particular is one of the driving factors, besides global heating, for these ecologically critical developments. Precisely because land use is anthropogenic, it is also a factor that could be quickly and immediately corrected by human action. In this thesis, I therefore assess the impact of three climate change scenarios of increasing intensity in combination with differently scheduled mowing regimes on the long-term development and dispersal success of insects in Northwest German grasslands. The large marsh grasshopper (LMG, Stethophyma grossum, Linné 1758) is used as a species of reference for the analyses. It inhabits wet meadows and marshes and has a limited, yet fairly good ability to disperse. Mowing and climate conditions affect the development and mortality of the LMG differently depending on its life stage. The specifically developed simulation model HiLEG (High-resolution Large Environmental Gradient) serves as a tool for investigating and projecting viability and dispersal success under different climate conditions and land use scenarios. It is a spatially explicit, stage- and cohort-based model that can be individually configured to represent the life cycle and characteristics of terrestrial insect species, as well as high-resolution environmental data and the occurrence of external disturbances. HiLEG is a freely available and adjustable software that can be used to support conservation planning in cultivated grasslands. In the three case studies of this thesis, I explore various aspects related to the structure of simulation models per se, their importance in conservation planning in general, and insights regarding the LMG in particular. It became apparent that the detailed resolution of model processes and components is crucial to project the long-term effect of spatially and temporally confined events. Taking into account conservation measures at the regional level has further proven relevant, especially in light of the climate crisis. I found that the LMG is benefiting from global warming in principle, but continues to be constrained by harmful mowing regimes. Land use measures could, however, be adapted in such a way that they allow the expansion and establishment of the LMG without overly affecting agricultural yields. Overall, simulation models like HiLEG can make an important contribution and add value to conservation planning and policy-making. Properly used, simulation results shed light on aspects that might be overlooked by subjective judgment and the experience of individual stakeholders. Even though it is in the nature of models that they are subject to limitations and only represent fragments of reality, this should not keep stakeholders from using them, as long as these limitations are clearly communicated. Similar to HiLEG, models could further be designed in such a way that not only the parameterization can be adjusted as required, but also the implementation itself can be improved and changed as desired. This openness and flexibility should become more widespread in the development of simulation models. N2 - Die globale Klimakrise trägt maßgeblich dazu bei, dass sich Ökosysteme verändern, die Artenvielfalt sinkt und zahlreiche Spezies vom Aussterben bedroht sind. Viele Arten sind prinzipiell in der Lage, sich wandelnden Bedingungen anzugleichen oder ihre Habitate in geeignetere Regionen zu verlagern. Allerdings schreitet der Wandel schneller voran als sich einige Spezies anpassen können oder die mögliche Anpassung wird durch direkte und indirekte menschliche Eingriffe blockiert und gestört. Gerade die nicht-nachhaltige Landnutzung durch den Menschen ist neben der Klimaerhitzung einer der treibenden Faktoren für diese ökologisch kritischen Entwicklungen. Gleichzeitig ist sie durch ihre unmittelbare menschliche Ursache ein Faktor, der sich kurzfristig und schnell korrigieren ließe. Zu diesem Zweck untersuche ich in dieser Dissertation, wie sich drei Klimawandelszenarien ansteigender Intensität im Zusammenspiel mit unterschiedlich terminierten Mahdregimen im Nordwestdeutschen Grünland auf die langfristige Entwicklung und Ausbreitung von Insekten auswirken. In der Untersuchung fungiert die Sumpfschrecke (Stethophyma grossum, Linné 1758) als Bezugsspezies. Sie ist in Feucht- und Nasswiesen zu Hause und zu räumlicher Ausbreitung fähig, auch wenn sie nur eingeschränkt mobil ist. Mahd und Klimabedingungen wirken sich je nach Lebensstadium unterschiedlich stark auf die Entwicklung und Mortalität der Sumpfschrecke aus. Das eigens entwickelte Simulationsmodell HiLEG (High-resolution Large Environmental Gradient) dient als Werkzeug zur Untersuchung und Projektion der Überlebens- und Ausbreitungswahrscheinlichkeit unter verschiedenen Klima- und Landnutzungsszenarien. Es ist ein räumlich explizites, stadien- und kohortenbasiertes Modell, das individuell konfiguriert werden kann, um den Lebenszyklus und die Charakteristiken terrestrischer Insektenarten sowie hochaufgelöste Umweltdaten und das zeitlich variierende Auftreten externer Störfaktoren abzubilden. HiLEG ist eine frei verfügbare Software und kann zur Unterstützung bei der Planung von Umweltschutzmaßnahmen in kultiviertem Grünland verwendet werden. In den drei Fallstudien dieser Arbeit habe ich verschiedene Aspekte in Bezug auf die Struktur von Simulationsmodellen an sich, deren Bedeutung im Naturschutz im Allgemeinen und Erkenntnisse für die Sumpfschrecke im Speziellen untersucht. Es zeigte sich, dass die detaillierte Auflösung der Modellprozesse und -komponenten entscheidend ist, um den langfristigen Effekt räumlich und zeitlich begrenzter Ereignisse projizieren zu können. Insbesondere in Anbetracht der Klimakrise hat sich die gesteigerte Relevanz von Naturschutzmaßnahmen auf regionaler Ebene herausgestellt. Ich konnte außerdem bestätigen, dass die Sumpfschrecke zwar im Prinzip von der Klimaerwärmung profitiert, aber weiterhin durch ungeeignete Mahdregime beschränkt wird. Bewirtschaftungspläne könnten allerdings in dem Sinne angepasst werden, dass sie die Ausbreitung und Etablierung der Sumpfschrecke erlauben, ohne sich über die Maßen auf den Ertrag der Landwirtschaft auszuwirken. Insgesamt können Simulationsmodelle wie HiLEG einen wichtigen Beitrag und Mehrwert für die Planung von Naturschutzmaßnahmen und Politikinstrument leisten. Richtig eingesetzt beleuchten die Simulationsergebnisse Aspekte, die durch subjektive Bewertung und Erfahrung einzelner Akteure möglicherweise übersehen würden. Auch wenn es in der Natur von Modellen liegt, dass sie Einschränkungen unterworfen sind und nur Ausschnitte der Realität abbilden, sollte dies kein Hindernis für ihren Einsatz sein, solange diese Limitierungen klar kommuniziert werden. Analog zu HiLEG könnten Modelle so konzipiert werden, dass nicht nur ihre Parametrisierung nach Bedarf angepasst, sondern auch die Implementierung selbst beliebig verbessert und verändert werden kann. Diese Offenheit und Flexibilität sollte sich bei der Entwicklung von Simulationsmodelle stärker durchsetzen. KW - spatially explicit model KW - large marsh grasshopper KW - simulation framework KW - climate change KW - land use KW - Open Source KW - Open Access KW - dispersal KW - PVA (population viability analysis) KW - high resolution KW - scaling KW - grassland KW - disturbance timing KW - Klimawandel KW - Ausbreitung KW - Zeitpunkt von Störungen KW - Grünland KW - hohe Auflösung KW - Landnutzung KW - Sumpfschrecke KW - Open Access KW - Open Source KW - Populationsgefährdungsanalyse KW - Skalierung KW - Simulationsframework KW - räumlich explizites Modell KW - Stethophyma grossum Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582837 ER - TY - THES A1 - Eggers, Nele T1 - Properties of Arctic aerosol in the transition between Arctic haze to summer season derived by lidar N2 - During the Arctic haze period, the Arctic troposphere consists of larger, yet fewer, aerosol particles than during the summer (Tunved et al., 2013; Quinn et al., 2007). Interannual variability (Graßl and Ritter, 2019; Rinke et al., 2004), as well as unknown origins (Stock et al., 2014) and properties of aerosol complicate modeling these annual aerosol cycles. This thesis investigates the modification of the microphysical properties of Arctic aerosols in the transition from Arctic haze to the summer season. Therefore, lidar measurements of Ny-Ålesund from April 2021 to the end of July 2021 are evaluated based on the aerosols’ optical properties. An overview of those properties will be provided. Furthermore, parallel radiosonde data is considered for indication of hygroscopic growth. The annual aerosol cycle in 2021 differs from expectations based on previous studies from Tunved et al. (2013) and Quinn et al. (2007). Developments of backscatter, extinction, aerosol depolarisation, lidar ratio and color ratio show a return of the Arctic haze in May. The haze had already reduced in April, but regrew afterwards. The average Arctic aerosol displays hygroscopic behaviour, meaning growth due to water uptake. To determine such a behaviour is generally laborious because various meteorological circumstances need to be considered. Two case studies provide further information on these possible events. In particular, a day with a rare ice cloud and with highly variable water cloud layers is observed. N2 - Während der Arctic haze Periode sind größere, jedoch auch weniger, Aerosole in der arktischen Troposphäre vorhanden als im Sommer (Tunved et al., 2013; Quinn et al., 2007). Interannuale Variabilität (Graßl and Ritter, 2019; Rinke et al., 2004), sowie unbekannte Herkunft (Stock et al., 2014) und Eigenschaften der Aerosole erschweren die Modellierung der Aerosol-Jahresgänge. Diese Arbeit untersucht, wie sich die mikrophysikalischen Eigenschaften der Aerosole beim Übergang vom Arctic haze zur Sommerzeit ändern. Dafür werden Lidar Messungen aus Ny-Ålesund von April 2021 bis Ende Juli 2021 hinsichtlich der optischen Eigenschaften der Aerosole untersucht. Ein Überblick über diese Eigenschaften wird gegeben. Zusätzlich werden parallele Radiosondendaten mit einbezogen, um Hinweise auf hygroskopisches Wachstum zu erhalten. Der Jahresgang der Aerosole in 2021 unterscheidet sich von Erwartungen, gebildet aus früheren Studien von Tunved et al. (2013) und Quinn et al. (2007). Die zeitliche Entwicklung des Rückstreuungskoeffizienten, Extinktionskoeffizienten, der Aerosol Depolarisation, des Lidarverhältnisses und des Farbverhältnisses zeigen, dass der Arctic haze im Mai zurückkehrt. Im April hatte der haze bereits abgenommen, stieg in Mai jedoch wieder an. In der Arktis zeigt ein Aerosol typischerweise hygroskopisches Verhalten - mit anderen Worten, es wächst durch Aufnahme von Wasser. Ein solches alleine aus Fernerkundungsdaten zu bestimmen ist jedoch in der Regel aufwendig, weil unterschiedliche meteorologische Bedingungen zu berücksichtigen sind. Zwei Fallstudien geben mehr Informationen über die möglichen hygroskopischen Verhaltensweisen der Aerosole. Insbesondere wird auch ein Tag mit einer Eiswolke und stark fluktuierenden Wasserwolken beobachtet. KW - remote sensing KW - Lidar KW - Arctic aerosol KW - aerosol: optical properties KW - aerosol: hygroscopic growth KW - Arctic haze KW - arktischer Dunst KW - aerosol: hygroskopisches Wachstum KW - aerosol: optische Eigenschaften KW - arktisches Aerosol KW - Fernerkundung KW - Lidar Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-619438 ER - TY - THES A1 - Pons, Michaël T1 - The Nature of the tectonic shortening in Central Andes T1 - Die Beschaffenheit der tektonischen Verkürzung in den Zentralanden N2 - The Andean Cordillera is a mountain range located at the western South American margin and is part of the Eastern- Circum-Pacific orogenic Belt. The ~7000 km long mountain range is one of the longest on Earth and hosts the second largest orogenic plateau in the world, the Altiplano-Puna plateau. The Andes are known as a non-collisional subduction-type orogen which developed as a result of the interaction between the subducted oceanic Nazca plate and the South American continental plate. The different Andean segments exhibit along-strike variations of morphotectonic provinces characterized by different elevations, volcanic activity, deformation styles, crustal thickness, shortening magnitude and oceanic plate geometry. Most of the present-day elevation can be explained by crustal shortening in the last ~50 Ma, with the shortening magnitude decreasing from ~300 km in the central (15°S-30°S) segment to less than half that in the southern part (30°S-40°S). Several factors were proposed that might control the magnitude and acceleration of shortening of the Central Andes in the last 15 Ma. One important factor is likely the slab geometry. At 27-33°S, the slab dips horizontally at ~100 km depth due to the subduction of the buoyant Juan Fernandez Ridge, forming the Pampean flat-slab. This horizontal subduction is thought to influence the thermo-mechanical state of the Sierras Pampeanas foreland, for instance, by strengthening the lithosphere and promoting the thick-skinned propagation of deformation to the east, resulting in the uplift of the Sierras Pampeanas basement blocks. The flat-slab has migrated southwards from the Altiplano latitude at ~30 Ma to its present-day position and the processes and consequences associated to its passage on the contemporaneous acceleration of the shortening rate in Central Andes remain unclear. Although the passage of the flat-slab could offer an explanation to the acceleration of the shortening, the timing does not explain the two pulses of shortening at about 15 Ma and 4 Ma that are suggested from geological observations. I hypothesize that deformation in the Central Andes is controlled by a complex interaction between the subduction dynamics of the Nazca plate and the dynamic strengthening and weakening of the South American plate due to several upper plate processes. To test this hypothesis, a detailed investigation into the role of the flat-slab, the structural inheritance of the continental plate, and the subduction dynamics in the Andes is needed. Therefore, I have built two classes of numerical thermo-mechanical models: (i) The first class of models are a series of generic E-W-oriented high-resolution 2D subduction models thatinclude flat subduction in order to investigate the role of the subduction dynamics on the temporal variability of the shortening rate in the Central Andes at Altiplano latitudes (~21°S). The shortening rate from the models was then validated with the observed tectonic shortening rate in the Central Andes. (ii) The second class of models are a series of 3D data-driven models of the present-day Pampean flat-slab configuration and the Sierras Pampeanas (26-42°S). The models aim to investigate the relative contribution of the present-day flat subduction and inherited structures in the continental lithosphere on the strain localization. Both model classes were built using the advanced finite element geodynamic code ASPECT. The first main finding of this work is to suggest that the temporal variability of shortening in the Central Andes is primarily controlled by the subduction dynamics of the Nazca plate while it penetrates into the mantle transition zone. These dynamics depends on the westward velocity of the South American plate that provides the main crustal shortening force to the Andes and forces the trench to retreat. When the subducting plate reaches the lower mantle, it buckles on it-self until the forced trench retreat causes the slab to steepen in the upper mantle in contrast with the classical slab-anchoring model. The steepening of the slab hinders the trench causing it to resist the advancing South American plate, resulting in the pulsatile shortening. This buckling and steepening subduction regime could have been initiated because of the overall decrease in the westwards velocity of the South American plate. In addition, the passage of the flat-slab is required to promote the shortening of the continental plate because flat subduction scrapes the mantle lithosphere, thus weakening the continental plate. This process contributes to the efficient shortening when the trench is hindered, followed by mantle lithosphere delamination at ~20 Ma. Finally, the underthrusting of the Brazilian cratonic shield beneath the orogen occurs at ~11 Ma due to the mechanical weakening of the thick sediments covered the shield margin, and due to the decreasing resistance of the weakened lithosphere of the orogen. The second main finding of this work is to suggest that the cold flat-slab strengthens the overriding continental lithosphere and prevents strain localization. Therefore, the deformation is transmitted to the eastern front of the flat-slab segment by the shear stress operating at the subduction interface, thus the flat-slab acts like an indenter that “bulldozes” the mantle-keel of the continental lithosphere. The offset in the propagation of deformation to the east between the flat and steeper slab segments in the south causes the formation of a transpressive dextral shear zone. Here, inherited faults of past tectonic events are reactivated and further localize the deformation in an en-echelon strike-slip shear zone, through a mechanism that I refer to as “flat-slab conveyor”. Specifically, the shallowing of the flat-slab causes the lateral deformation, which explains the timing of multiple geological events preceding the arrival of the flat-slab at 33°S. These include the onset of the compression and of the transition between thin to thick-skinned deformation styles resulting from the crustal contraction of the crust in the Sierras Pampeanas some 10 and 6 Myr before the Juan Fernandez Ridge collision at that latitude, respectively. N2 - Die Andenkordillere ist ein Gebirgszug am westlichen Rand Südamerikas und Teil des östlichen zirkumpazifischen Gebirgsgürtels. Der ~7000 km lange Gebirgszug ist einer der längsten der Erde und beherbergt mit dem Altiplano-Puna-Plateau das zweitgrößte orogenetische Plateau der Welt. Die Anden sind als nicht-kollisionsbedingtes Subduktionsgebirge bekannt, das durch die Wechselwirkung zwischen der subduzierten ozeanischen Nazca-Platte und der südamerikanischen Kontinentalplatte entstanden ist. Entlang des Höhenzugs der Anden lassen sich Segmente unterschiedlicher morphotektonischer Provinzen ausmachen, die durch Variationen in topographischer Höhe, vulkanischer Aktivität, Deformationsform, Krustendicke, Krustenverkürzung und ozeanischer Plattengeometrie gekennzeichnet sind. Der größte Teil der heutigen Hebung lässt sich durch die Krustenverkürzung der letzten 50 Mio. Jahre erklären, wobei das Ausmaß der Verkürzung von ca. 300 km im zentralen Segment (15°S-30°S) auf weniger als die Hälfte im südlichen Teil (30°S-40°S) abnimmt. Es wurden mehrere Faktoren vorgeschlagen, die das Ausmaß und die Beschleunigung der Verkürzung der zentralen Anden in den letzten 15 Mio. Jahren beeinflusst haben könnten. Ein wichtiger Faktor ist wahrscheinlich die Plattengeometrie. Durch die Subduktion des Juan-Fernandez-Rückens und dessen hohe Auftriebskraft fällt die Platte bei 27-33°S in ~100 km Tiefe horizontal ein und bildet den pampeanischen flat-slab. Es wird angenommen, dass die horizontale Subduktion den thermomechanischen Zustand des Sierras-Pampeanas-Vorlandes beeinflusst, indem sie beispielsweise die Lithosphäre stärkt und die dickschalige Verlagerung der Deformation nach Osten sowie die Hebung der kristallinen Basis der Sierras-Pampeanas fördert. Vor etwa 30 Mio. Jahren verschob sich der flat-slab von der geographischen Breite des Altiplano zu seiner heutigen Position nach Süden. Die mit der Positionsverlagerung verbundenen Prozesse und Folgen für die gleichzeitige Beschleunigung der Verkürzungsraten in den zentralen Anden sind noch immer unklar. Obwohl die Passage des flat-slab eine Erklärung für dafür sein könnte, erklärt ihr Zeitpunkt nicht die beiden aus der Geologie abgeleiteten Verkürzungsimpulse vor etwa 15 und 4 Mio. Jahren. Ich stelle die Hypothese auf, dass die Deformation in den zentralen Anden durch eine komplexe Wechselwirkung zwischen der Subduktionsdynamik der Nazca-Platte und der dynamischen Materialschwächung der südamerikanischen Platte aufgrund einer Reihe von Prozessen in der oberen Platte gesteuert wird. Um diese Hypothese zu prüfen, ist eine detaillierte Untersuchung der Rolle des flat-slab, sowie der strukturellen Vererbung der Kontinentalplatte und der Subduktionsdynamik in den Anden erforderlich. Daher habe ich zwei Klassen von numerischen thermomechanischen Modellen erstellt: (i) Die erste Klasse von Modellen umfasst eine Reihe von generischen E-W-orientierten 2D-Subduktionsmodellen mit hoher Auflösung. Diese beinhalten subhorizontalen Subduktion um die Rolle der Subduktionsdynamik auf die zeitliche Variabilität der Verkürzungsrate in den zentralen Anden auf dem Altiplano (~21°S) zu untersuchen. Die modellierte Verkürzungsrate wurde mit der beobachteten tektonischen Verkürzungsrate in den zentralen Anden validiert. (ii) Die zweite Klasse von Modellen besteht aus einer Reihe von datengesteuerten 3D-Modellen der heutigen pampeanischen flat-slab-Konfiguration und der Sierras Pampeanas (26-42°S). Diese Modelle zielen darauf ab, den relativen Beitrag der heutigen subhorizontalen Subduktion und der ererbten Strukturen in der kontinentalen Lithosphäre zur Dehnungslokalisierung zu untersuchen. Beide Modellklassen wurden mit Hilfe des fortschrittlichen geodynamischen Finite-Elemente-Codes ASPECT erstellt. Das erste Hauptergebnis dieser Arbeit ist die Vermutung, dass zeitliche Änderungen der Verkürzung in den Zentralanden in erster Linie durch die Subduktionsdynamik der Nazca-Platte gesteuert werden, während diese in die Mantelübergangszone eindringt. Die Dynamik hängt von der westwärts gerichteten Geschwindigkeit der südamerikanischen Platte ab, die die Hauptantriebskraft für die Krustenverkürzung in den Anden darstellt und den Subduktionsgraben zum Zurückziehen zwingt. Wenn die subduzierende Platte den unteren Erdmantel erreicht, wölbt sie sich auf, bis der erzwungene Rückzug des Grabens dazu führt, dass auch die Platte im oberen Erdmantel steiler wird. Die aufgesteilte Platte behindert wiederum den Graben, der sich der vorrückenden südamerikanischen Platte widersetzt, was eine pulsierende Verkürzung zur Folge hat. Dieses Subduktionsregime, bestehend aus Aufwölbung und Aufsteilung, könnte durch die allgemeine westwärts gerichtete Geschwindigkeitsabnahme der südamerikanischen Platte ausgelöst worden sein. Der Durchgang des flat-slab ist zudem eine notwendige Bedingung, um die Verkürzung der Kontinentalplatte voran zu treiben, da subhorizontale Subduktion Teile der Mantellithosphäre abträgt und so die Kontinentalplatte schwächt. Dieser Prozess trägt somit zur effizienten Verkürzung bei während der Graben behindert wird und ist gefolgt von der Ablösung der Mantellithosphäre vor etwa 20 Mio. Jahren. Das Subduzieren des brasilianischen kratonischen Schildes unter das Orogen erfolgte schließlich vor etwa 11 Mio. Jahren aufgrund der mechanischen Schwächung der dicken Sedimentschicht, die den Schildrand bedeckte, sowie wegen des abnehmenden Widerstands der geschwächten Gebirgslithosphäre. Das zweite Hauptergebnis dieser Arbeit ist die Vermutung, dass der kalte flat-slab die darüber liegende kontinentale Lithosphäre stärkt und damit verhindert, dass sich Verformungen lokalisieren können. Daher wird die Deformation durch die an der Subduktionsfläche wirkende Scherspannung auf die östliche Front des flat-slab-Segments übertragen. Der flat-slab wirkt wie ein Eindringling, der die unter mantle-keel bekannte Anhäufung von abgelöstem Mantelmaterial beiseite schiebt. Der Versatz in der ostwärts gerichteten Deformationsausbreitung der flachen und der steileren Plattensegmenten im Süden führt zur Bildung einer transpressiven dextralen Scherungszone. Hier werden ererbte Verwerfungen vergangener tektonischer Ereignisse reaktiviert und helfen bei der Lokalisierung neuer Deformation in einer en-echelon-artigen Scherungszone. Dies geschieht durch einen Mechanismus, den ich als "flat-slab-Conveyor" bezeichne. Das laterale Zusammenschieben wird besonders durch das Flacherwerden des flat-slab beeinflusst, welches den Zeitpunkt mehrerer geologischer Ereignisse erklärt, die der Ankunft des flat-slab bei 33°S vorangehen. Dazu gehören der Beginn der Kompression und der Übergang von dünn- zu dickschaliger Deformation, die sich aus der Krustenkontraktion in den Sierras Pampeanas etwa 10 bzw. 6 Mio. Jahre vor der Kollision mit dem Juan-Fernandez-Rücken auf diesem Breitengrad ergaben. KW - Andes KW - Orogen KW - tectonics KW - Subduction KW - Deformation KW - Shortening KW - Flat subduction KW - Geodynamics KW - Altiplano KW - Puna KW - Sierras Pampeanas KW - Foreland KW - Altiplano KW - Anden KW - Deformation KW - Flache Subduktion KW - Vorland KW - Geodynamik KW - Orogen KW - Puna KW - Verkürzung KW - Sierras Pampeanas KW - Subduktion KW - Tektonik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-600892 ER - TY - JOUR A1 - Pandey, Yogesh T1 - Enriched cell-free and cell-based native membrane derived vesicles (nMV) enabling rapid in-vitro electrophysiological analysis of the voltage-gated sodium channel 1.5. JF - Biochimica et Biophysica Acta (BBA) - Biomembranes N2 - Here, we demonstrate the utility of native membrane derived vesicles (nMVs) as tools for expeditious electrophysiological analysis of membrane proteins. We used a cell-free (CF) and a cell-based (CB) approach for preparing protein-enriched nMVs. We utilized the Chinese Hamster Ovary (CHO) lysate-based cell-free protein synthesis (CFPS) system to enrich ER-derived microsomes in the lysate with the primary human cardiac voltage-gated sodium channel 1.5 (hNaV1.5; SCN5A) in 3 h. Subsequently, CB-nMVs were isolated from fractions of nitrogen-cavitated CHO cells overexpressing the hNaV1.5. In an integrative approach, nMVs were micro-transplanted into Xenopus laevis oocytes. CB-nMVs expressed native lidocaine-sensitive hNaV1.5 currents within 24 h; CF-nMVs did not elicit any response. Both the CB- and CF-nMV preparations evoked single-channel activity on the planar lipid bilayer while retaining sensitivity to lidocaine application. Our findings suggest a high usability of the quick-synthesis CF-nMVs and maintenance-free CB-nMVs as ready-to-use tools for in-vitro analysis of electrogenic membrane proteins and large, voltage-gated ion channels. KW - Cell-free protein synthesis KW - Electrophysiology KW - Membrane proteins KW - Micro-translantation KW - Protein expression Y1 - 2023 U6 - https://doi.org/10.1016/j.bbamem.2023.184144 SN - 1879-2642 SN - 0005-2736 VL - 1865 IS - 5 PB - Elsevier CY - Amsterdam ER - TY - THES A1 - Gruner, David T1 - New frontiers in gyrochronology T1 - Neue Horizonte in Gyrochronologie BT - exploring the evolution of stellar rotation in open clusters and wide binaries BT - eine Untersuchung der Entwicklung von Sternrotation in offenen Sternhaufen und weiten Doppelsternsystemen N2 - Late-type stars are by far the most frequent stars in the universe and of fundamental interest to various fields of astronomy – most notably to Galactic archaeology and exoplanet research. However, such stars barely change during their main sequence lifetime; their temperature, luminosity, or chemical composition evolve only very slowly over the course of billions of years. As such, it is difficult to obtain the age of such a star, especially when it is isolated and no other indications (like cluster association) can be used. Gyrochronology offers a way to overcome this problem. Stars, just like all other objects in the universe, rotate and the rate at which stars rotate impacts many aspects of their appearance and evolution. Gyrochronology leverages the observed rotation rate of a late-type main sequence star and its systematic evolution to estimate their ages. Unlike the above-mentioned parameters, the rotation rate of a main sequence star changes drastically throughout its main sequence lifetime; stars spin down. The youngest stars rotate every few hours, whereas much older stars rotate only about once a month, or – in the case of some late M-stars – once in a hundred days. Given that this spindown is systematic (with an additional mass dependence), it gave rise to the idea of using the observed rotation rate of a star (and its mass or a suitable proxy thereof) to estimate a star’s age. This has been explored widely in young stellar open clusters but remains essentially unconstrained for stars older than the sun, and K and M stars older than 1 Gyr. This thesis focuses on the continued exploration of the spindown behavior to assess, whether gyrochronology remains applicable for stars of old ages, whether it is universal for late-type main sequence stars (including field stars), and to provide calibration mileposts for spindown models. To accomplish this, I have analyzed data from Kepler space telescope for the open clusters Ruprecht 147 (2.7 Gyr old) and M 67 (4 Gyr). Time series photometry data (light curves) were obtained for both clusters during Kepler’s K2 mission. However, due to technical limitations and telescope malfunctions, extracting usable data from the K2 mission to identify (especially long) rotation periods requires extensive data preparation. For Ruprecht 147, I have compiled a list of about 300 cluster members from the literature and adopted preprocessed light curves from the Kepler archive where available. They have been cleaned of the gravest of data artifacts but still contained systematics. After correcting them for said artifacts, I was able to identify rotation periods in 31 of them. For M 67 more effort was taken. My work on Ruprecht 147 has shown the limitations imposed by the preselection of Kepler targets. Therefore, I adopted the time series full frame image directly and performed photometry on a much higher spatial resolution to be able to obtain data for as many stars as possible. This also means that I had to deal with the ubiquitous artifacts in Kepler data. For that, I devised a method that correlates the artificial flux variations with the ongoing drift of the telescope pointing in order to remove it. This process was a large success and I was able to create light curves whose quality match and even exceede those that were created by the Kepler mission – all while operating on higher spatial resolution and processing fainter stars. Ultimately, I was able to identify signs of periodic variability in the (created) light curves for 31 and 47 stars in Ruprecht 147 and M 67, respectively. My data connect well to bluer stars of cluster of the same age and extend for the first time to stars redder than early-K and older than 1 Gyr. The cluster data show a clear flattening in the distribution of Ruprecht 147 and even a downturn for M 67, resulting in a somewhat sinusoidal shape. With that, I have shown that the systematic spindown of stars continues at least until 4 Gyr and stars continue to live on a single surface in age-rotation periods-mass space which allows gyrochronology to be used at least up to that age. However, the shape of the spindown – as exemplified by the newly discovered sinusoidal shape of the cluster sequence – deviates strongly from the expectations. I then compiled an extensive sample of rotation data in open clusters – very much including my own work – and used the resulting cluster skeleton (with each cluster forming a rip in color-rotation period-mass space) to investigate if field stars follow the same spindown as cluster stars. For the field stars, I used wide binaries, which – with their shared origin and coevality – are in a sense the smallest possible open clusters. I devised an empirical method to evaluate the consistency between the rotation rates of the wide binary components and found that the vast majority of them are in fact consistent with what is observed in open clusters. This leads me to conclude that gyrochronology – calibrated on open clusters – can be applied to determine the ages of field stars. N2 - Sterne mit späten Spektraltypen sind mit Abstand die Häufigsten im Universum und von großem Interesse für verschiedene Bereiche der Astronomie. Dabei sind insbesondere galaktische Archäologie und die Erforschung von Exoplanten zu nennen. Das Problem ist jedoch, dass sich diese Sterne nur sehr langsam entwickeln; ihre Temperatur, Helligkeit und chemische Zusammensetzung ändern kaum während ihrer langen Hauptreihenphase. Daher ist es schwierig für solche Sterne ein Alter zu bestimmen – vorallem wenn sie isoliert sind und es keine anderne Indikatoren (z.B. die Zugehörigkeit zu einem Sternhaufen) gibt. Eine Möglichkeit dieses Problem zu umgehen ist Gyrochronologie. Sterne, wie alle anderen Objekte im Universum, rotieren und die Rate, mit der sie rotieren, beeinflusst viele Aspekte ihrer Evolution. Gyrochronologie nutzt die beobachtete Rotation und ihre Änderung mit der Zeit als ein Mittel zur Altersbestimmung. Anders als zuvor genannte Parameter ändert sich die Rate, mit der Sterne rotieren, deutlich im Laufe ihrer Hauptreihenentwicklung. Sie verlangsamt sich. Junge Sterne rotieren in wenigen Stunden einmal um sich selbst – ältere brauchen dafür schon einen Monat oder gar bis zu über hundert Tage. Die Tatsache, dass das Abbremsen systematischen Gesetzmäßigkeiten unterliegt, gebar die Idee dies zu nutzen um das Alter eines Sternes zu bestimmen. Das Verhalten junger Sterne wurde ausführlich erfoscht, jedoch für die meisten Sterne älter als 1 Gyr nicht bekannt, wie sich die Rotationsraten entwickeln. Diese Arbeit fokussiert sich auf die fortgesetzte Erforschung des Abbremsens; insbesondere ob Gyrochronologie auch für ältere Sterne nutzbar ist, ob es universell für alle Sterne (inklusive Feldsterne) ist und darauf weitere Kalibrationspunkte für Abbrems-Modelle bereitzustellen. Dafür habe ich, basierend auf photometrischen Zeitserien (Lichtkurven) von Keplers K2 Programm, die offenen Sternhaufen Ruprecht 147 (2.7 Gyr alt) and M 67 (4 Gyr) untersucht. Es sind jedoch umfangreiche Schritte in der Datenverarbeitung notwendig um Fehlfunktionen und technischen Limitationen des Teleskops zu begegnen. Für Ruprecht 147 habe ich aus Literaturdaten eine Liste von 300 Haufen-zugehörigen Sternen erstellt und mit fertigreduzierte Lichtkurven aus dem Kepler Archiv kombiniert. Die gröbsten Datensystematiken wurden in diesen bereinigt, denoch sind problematische Artefakte weiterhin vorhanden. Die Arbeit an Ruprecht 147 hat die Limitationen von archivierten Kepler Daten gezeigt. Daher wurde für M 67 mehr Aufwand betrieben. Direkt basierend auf den photometrischen Auffnahmen habe ich eigene Lichtkurven erzeugt, was eine deutlich höhere räumliche Auflösung erlaubt hat. Das hieß jedoch auch, dass ich mich mit all Systematiken in Kepler Daten befassen musste. Dafür habe ich eine Methodik konzipiert, die die künstlichen Variation im aufgezeichneten Fluss mit der Position eines Sterns auf dem Detektor korreliert und daraus eine Korrektur bestimmt. Dieser Prozess war so erfolgreich, dass ich Lichtkurven kreiert habe, die in ihrer Qualität an die archivierten Daten heran kommen oder sie gar übersteigen. Nach entsprechender Korrektur der Artefakte konnte ich Rotationsperioden für 31 (in Ruprecht 147) und 47 (in M 67) Sterne identifizieren. Genau wie zuvor in jüngeren Sternhaufen gesehen, folgen auch die äelteren Sternhaufen einer klaren Sequenz im Farb-Rotations-Raum. Meine Daten schließen direkt an Ergebnisse gleichaltriger Haufen an und erweitern diese zum ersten Mal zu Sternen älter als 1 Gyr und röter als frühe K-Sterne. Meine Ergebnisse zeigen eine deutliche Abweichung von der erwarteten Entwicklung, verkörpert durch eine klare Abflachung der Sequenz für Ruprecht 147, die für M 67 eine sinusförmige Struktur annimmt. Dennoch konnte ich damit zeigen, dass sich das systematische Abbremsen der Rotation von Sterne auch bis 4 Gyr fortsetzt und Sterne sich weiterhin auf eine wohldefinierten Ebene im Farb-Rotations-Alters-Raum befinden. Das heißt auch, Gyrochronologie kann mindestens für bis zu 4 Gyr alte Sterne genutzt werden. Basierend auf meinen eigenen Ergebnissen und Literaturdaten für jüngere Sternhaufen habe ich einen Vergleich mit Feldsternen durchgeführt. Die Feldsterne für diesen Vergleich entstammen weiten Doppelsternsystemen. Deren gemeinsamer Ursprung erlaubt eine Evaluierung der inneren Konsistenz beider Sterne. Mein Vergleich hat gezeigt, dass Doppelsternsysteme mit sich selbst aber auch mit den Sternhaufen konsistent sind. Ich habe damit erstmalig gezeigt, dass sich die Rotation von Feldsternen und Haufensternen gleich entwickelt. In Konsequenz bedeutet dies auch, dass Gyrochronologie angewandt werden kann, um das Alter von Feldsternen zu bestimmen. KW - Gyrochronologie KW - gyrochronology KW - spindown KW - rotation KW - Rotation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615268 ER - TY - CHAP A1 - Desel, Jörg A1 - Opel, Simone A1 - Siegeris, Juliane A1 - Draude, Claude A1 - Weber, Gerhard A1 - Schell, Timon A1 - Schwill, Andreas A1 - Thorbrügge, Carsten A1 - Schäfer, Len Ole A1 - Netzer, Cajus Marian A1 - Gerstenberger, Dietrich A1 - Winkelnkemper, Felix A1 - Schulte, Carsten A1 - Böttcher, Axel A1 - Thurner, Veronika A1 - Häfner, Tanja A1 - Ottinger, Sarah A1 - Große-Bölting, Gregor A1 - Scheppach, Lukas A1 - Mühling, Andreas A1 - Baberowski, David A1 - Leonhardt, Thiemo A1 - Rentsch, Susanne A1 - Bergner, Nadine A1 - Bonorden, Leif A1 - Stemme, Jonas A1 - Hoppe, Uwe A1 - Weicker, Karsten A1 - Bender, Esther A1 - Barbas, Helena A1 - Hamann, Fabian A1 - Soll, Marcus A1 - Sitzmann, Daniel ED - Desel, Jörg ED - Opel, Simone ED - Siegeris, Juliane T1 - Hochschuldidaktik Informatik HDI 2021 BT - 9. Fachtagung des GI-Fachbereichs Informatik und Ausbildung/Didaktik der Informatik 15.–16. September 2021 in Dortmund T2 - Commentarii informaticae didacticae N2 - Die Fachtagungen HDI (Hochschuldidaktik Informatik) beschäftigen sich mit den unterschiedlichen Aspekten informatischer Bildung im Hochschulbereich. Neben den allgemeinen Themen wie verschiedenen Lehr- und Lernformen, dem Einsatz von Informatiksystemen in der Hochschullehre oder Fragen der Gewinnung von geeigneten Studierenden, deren Kompetenzerwerb oder auch der Betreuung der Studierenden widmet sich die HDI immer auch einem Schwerpunktthema. Im Jahr 2021 war dies die Berücksichtigung von Diversität in der Lehre. Diskutiert wurden beispielsweise die Einbeziehung von besonderen fachlichen und überfachlichen Kompetenzen Studierender, der Unterstützung von Durchlässigkeit aus nichtakademischen Berufen, aber auch die Gestaltung inklusiver Lehr- und Lernszenarios, Aspekte des Lebenslangen Lernens oder sich an die Diversität von Studierenden adaptierte oder adaptierende Lehrsysteme. Dieser Band enthält ausgewählte Beiträge der 9. Fachtagung 2021, die in besonderer Weise die Konferenz und die dort diskutierten Themen repräsentieren. T3 - Commentarii informaticae didacticae (CID) - 13 KW - Hochschuldidaktik KW - Informatikdidaktik KW - HDI KW - Hochschullehre KW - digitale Hochschullehre KW - Diversität KW - Heterogenität KW - Lebenslanges Lernen KW - Informatikstudium KW - Didaktische Konzepte KW - Assessment Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565070 SN - 978-3-86956-548-4 SN - 1868-0844 SN - 2191-1940 IS - 13 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Tan, Sarah A1 - Düring, Sarah A1 - Wilde, Alina A1 - Hamburger, Lara A1 - Fritzsche, Tom A1 - Felsing, Ulrike A1 - Lauer, Norina A1 - Corsten, Sabine A1 - Ostermann, Frank A1 - Nonn, Kerstin A1 - Nerz, Verena A1 - Neumann, Sandra A1 - Zauke, Svenja A1 - Sandrieser, Patricia A1 - Steinberg, Romy Simone A1 - Thurmann, Anika A1 - Dörr, Fiona A1 - Bilda, Kerstin A1 - Kluth, Alicia A1 - Lemire-Tremblay, Marilyne A1 - Jamey, Kevin A1 - Dalla Bella, Simone A1 - Falk, Simone A1 - Kleingünther, Constanze A1 - Gabler, Katrin A1 - Elligsen, Chiara A1 - Weiland, Katharina A1 - Wiehe, Lea A1 - Wahl, Michael A1 - Binczyk, Sarah A1 - Staebel, Cornelia A1 - Jung, Stefanie A1 - Eikerling, Maren A1 - Czok, Clara A1 - Sallat, Stephan A1 - Collasius, Valerie A1 - Grahovac, Tena ED - Tan, Sarah ED - Düring, Sarah ED - Wilde, Alina ED - Hamburger, Lara ED - Fritzsche, Tom T1 - Spektrum Patholinguistik Band 16. Schwerpunktthema: Schnittstelle Alltag: Transfer und Teilhabe in der Sprachtherapie N2 - Das 16. Herbsttreffen Patholinguistik mit dem Schwerpunktthema »Schnittstelle Alltag: Transfer und Teilhabe in der Sprachtherapie« fand am 19.11.2022 als Online-Veranstaltung statt. Das Herbsttreffen wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl), seit 2021 vom Deutschen Bundesverband für akademische Sprachtherapie und Logopädie (dbs) in Kooperation mit der Universität Potsdam durchgeführt. Der vorliegende Tagungsband beinhaltet die Vorträge zum Schwerpunktthema sowie die Posterpräsentationen zu weiteren Themen aus der sprachtherapeutischen Forschung und Praxis. N2 - The Sixteenth Autumn Meeting Patholinguistics with its main topic »Interface everyday life: Transfer and participation in speech/language therapy« took place online on the 19th of November 2022. This annual meeting has been organised since 2007 by the Association for Patholinguistics (vpl), since 2021 by the German Federal Association for Academic Speech/Language Therapy and Logopaedics (dbs) in cooperation with the University of Potsdam. The present proceedings feature the presentations on the main topic as well as articles from the poster session covering a broad range of areas in research and practice of speech/language therapy. T3 - Spektrum Patholinguistik - 16 KW - Patholinguistik KW - Sprachtherapie KW - Transfer KW - Teilhabe KW - patholinguistics KW - speech/language therapy KW - transfer KW - participation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590433 SN - 978-3-86956-559-0 SN - 1866-9433 SN - 1869-3822 IS - 16 PB - Universitätsverlag Potsdam CY - Potsdam ER -