TY - THES A1 - Gostkowska-Lekner, Natalia Katarzyna T1 - Organic-inorganic hybrids based on P3HT and mesoporous silicon for thermoelectric applications T1 - Organisch-anorganische Hybride basierend auf P3HT und porösem Silizium für thermoelektrische Anwendungen N2 - This thesis presents a comprehensive study on synthesis, structure and thermoelectric transport properties of organic-inorganic hybrids based on P3HT and porous silicon. The effect of embedding polymer in silicon pores on the electrical and thermal transport is studied. Morphological studies confirm successful polymer infiltration and diffusion doping with roughly 50% of the pore space occupied by conjugated polymer. Synchrotron diffraction experiments reveal no specific ordering of the polymer inside the pores. P3HT-pSi hybrids show improved electrical transport by five orders of magnitude compared to porous silicon and power factor values comparable or exceeding other P3HT-inorganic hybrids. The analysis suggests different transport mechanisms in both materials. In pSi, the transport mechanism relates to a Meyer-Neldel compansation rule. The analysis of hybrids' data using the power law in Kang-Snyder model suggests that a doped polymer mainly provides charge carriers to the pSi matrix, similar to the behavior of a doped semiconductor. Heavily suppressed thermal transport in porous silicon is treated with a modified Landauer/Lundstrom model and effective medium theories, which reveal that pSi agrees well with the Kirkpatrick model with a 68% percolation threshold. Thermal conductivities of hybrids show an increase compared to the empty pSi but the overall thermoelectric figure of merit ZT of P3HT-pSi hybrid exceeds both pSi and P3HT as well as bulk Si. N2 - Diese Arbeit präsentiert eine umfassende Studie über Synthese, Struktur und thermoelektrische Transporteigenschaften von organisch-anorganischen Hybriden basierend auf P3HT und porösem Silizium. Es wird die Auswirkung der Einbettung von Polymerin Siliziumporen auf den elektrischen und thermischen Transport untersucht. Morphologische Studien bestätigen eine erfolgreiche Polymerinfiltration und Diffusionsdotierung, wobei etwa 50% des Porenraums mit konjugiertem Polymer gefüllt sind. Synchrotronexperimente zeigen keine spezifische Ordnung des Polymers innerhalb der Poren. P3HT-pSi-Hybride zeigen einen um fünf Größenordnungen verbesserten elektrischen Transport im Vergleich zu porösem Silizium und sogenannte Powerfaktoren, die mit anderen P3HT-anorganischen Hybriden vergleichbar sind oder diese übertreffen. Die Analyse lässt auf unterschiedliche Transportmechanismen in beiden Materialien schließen. In pSi bezieht sich der Transportmechanismus auf eine Meyer-Neldel-{Kompensa\-tionsregel}. Die Analyse der Hybriddaten unter Verwendung des Potenzgesetzes im Kang-Snyder-Modell legt nahe, dass ein dotiertes Polymer hauptsächlich Ladungsträger für die pSi-Matrix bereitstellt, ähnlich dem Verhalten eines {dotier\-ten} Halbleiters. Der stark unterdrückte Wärmetransport in porösem Silizium wird mit einem modifizierten Landauer/Lundstrom-Modell und Effektivmediumtheorien behandelt, die zeigen, dass pSi mit einem Perkolationsschwellenwert von 68% gut mit dem Kirkpatrick-Modell übereinstimmt. Die {Wärmeleitfähigkei\-ten} von Hybriden zeigen einen Anstieg im Vergleich zum leeren pSi, aber der gesamte thermoelektrische Gütefaktor ZT des P3HT-pSi-Hybrids übertrifft sowohl pSi und P3HT als auch den von Bulk-Si. KW - physics KW - energy KW - thermoelectricity KW - organic-inorganic hybrids KW - Energie KW - organisch-anorganische Hybride KW - Physik KW - Thermoelektrizität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620475 ER - TY - RPRT A1 - Bruttel, Lisa Verena A1 - Eisenkopf, Gerald A1 - Nithammer, Juri T1 - Pre-election communication in public good games with endogenous leaders T2 - CEPA Discussion Papers N2 - Leadership plays an important role for the efficient and fair solution of social dilemmas but the effectiveness of a leader can vary substantially. Two main factors of leadership impact are the ability to induce high contributions by all group members and the (expected) fair use of power. Participants in our experiment decide about contributions to a public good. After all contributions are made, the leader can choose how much of the joint earnings to assign to herself; the remainder is distributed equally among the followers. Using machine learning techniques, we study whether the content of initial open statements by the group members predicts their behavior as a leader and whether groups are able to identify such clues and endogenously appoint a “good” leader to solve the dilemma. We find that leaders who promise fairness are more likely to behave fairly, and that followers appoint as leaders those who write more explicitly about fairness and efficiency. However, in their contribution decision, followers focus on the leader’s first-move contribution and place less importance on the content of the leader’s statements. T3 - CEPA Discussion Papers - 73 KW - leadership KW - public good KW - voting KW - experiment KW - promises Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-623952 SN - 2628-653X IS - 73 ER - TY - RPRT A1 - Estrin, Saul A1 - Khavul, Susanna A1 - Kritikos, Alexander A1 - Löher, Jonas T1 - Access to digital finance BT - equity crowdfunding across countries and platforms T2 - CEPA Discussion Papers N2 - Financing entrepreneurship spurs innovation and economic growth. Digital financial platforms that crowdfund equity for entrepreneurs have emerged globally, yet they remain poorly understood. We model equity crowdfunding in terms of the relationship between the number of investors and the amount of money raised per pitch. We examine heterogeneity in the average amount raised per pitch that is associated with differences across three countries and seven platforms. Using a novel dataset of successful fundraising on the most prominent platforms in the UK, Germany, and the USA, we find the underlying relationship between the number of investors and the amount of money raised for entrepreneurs is loglinear, with a coefficient less than one and concave to the origin. We identify significant variation in the average amount invested in each pitch across countries and platforms. Our findings have implications for market actors as well as regulators who set competitive frameworks. T3 - CEPA Discussion Papers - 72 KW - equity crowdfunding KW - soft information KW - entrepreneurship KW - finance KW - financial access and inclusion Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-623261 SN - 2628-653X IS - 72 ER - TY - THES A1 - Littmann, Daniela-Christin T1 - Large eddy simulations of the Arctic boundary layer around the MOSAiC drift track T1 - Large-Eddy-Simulationen der arktischen Grenzschicht um die MOSAiC-Driftroute N2 - The icosahedral non-hydrostatic large eddy model (ICON-LEM) was applied around the drift track of the Multidisciplinary Observatory Study of the Arctic (MOSAiC) in 2019 and 2020. The model was set up with horizontal grid-scales between 100m and 800m on areas with radii of 17.5km and 140 km. At its lateral boundaries, the model was driven by analysis data from the German Weather Service (DWD), downscaled by ICON in limited area mode (ICON-LAM) with horizontal grid-scale of 3 km. The aim of this thesis was the investigation of the atmospheric boundary layer near the surface in the central Arctic during polar winter with a high-resolution mesoscale model. The default settings in ICON-LEM prevent the model from representing the exchange processes in the Arctic boundary layer in accordance to the MOSAiC observations. The implemented sea-ice scheme in ICON does not include a snow layer on sea-ice, which causes a too slow response of the sea-ice surface temperature to atmospheric changes. To allow the sea-ice surface to respond faster to changes in the atmosphere, the implemented sea-ice parameterization in ICON was extended with an adapted heat capacity term. The adapted sea-ice parameterization resulted in better agreement with the MOSAiC observations. However, the sea-ice surface temperature in the model is generally lower than observed due to biases in the downwelling long-wave radiation and the lack of complex surface structures, like leads. The large eddy resolving turbulence closure yielded a better representation of the lower boundary layer under strongly stable stratification than the non-eddy-resolving turbulence closure. Furthermore, the integration of leads into the sea-ice surface reduced the overestimation of the sensible heat flux for different weather conditions. The results of this work help to better understand boundary layer processes in the central Arctic during the polar night. High-resolving mesoscale simulations are able to represent temporally and spatially small interactions and help to further develop parameterizations also for the application in regional and global models. N2 - Das icosahedral non-hydrostatische large eddy model (ICON-LEM) wurde entlang des Driftweges des Multidisciplinary Observatory Study of the Arctic (MOSAiC) in 2019 und 20 angewendet. Das Modell nutzte horizontale Gitterauflösungen zwischen 100m und 800m auf Gebieten mit Durchmessern von 17.5km und 140 km. An den seitlichen Rändern wurde das Modell mit Analysedaten des Deutschen Wetterdienstes (DWD) angetrieben, welche mit ICON im limited area mode (ICON-LAM) mit einer horizontalen Auflösung von 3km herunterskaliert wurden. Ziel dieser Arbeit war es, die flache atmosphärische Grenzschicht in der zentralen Arktis während des polaren Winters mit einem hochauflösenden mesoskaligen Modell zu untersuchen. Die standardmäßigen Einstellungen in ICON-LEM machen es dem Modell unmöglich, die wechselwirkenden Austauschprozesse in der arktischen Grenzschicht gemäß der MOSAiC Beobachtungen abzubilden. Das implementierte Meereis-Schema in ICON beinhaltet keine Schneeschicht auf dem Meereis, was eine zu große Verzögerung der Meereisoberflächentemperatur auf atmosphärische Veränderungen bewirkt. Um die Meereisfläche schneller auf Änderungen in der Atmosphäre reagieren lassen zu können, wurde die bestehende Meereisparameterisierung in ICON um einen angepasstenWärmekapazitätsterm erweitert. Die angepasste Meereis-Parameterisierung stimmte besser mit den MOSAiC Beobachtungen überein. Allerdings ist die Meereisoberflächentemperatur im Modell aufgrund der fehlerbehafteten einfallenden, langwelligen Strahlung und dem Fehlen komplexer Oberflächenstrukturen im Meereis generell niedriger als beobachtet. Die groß-wirbellige Turbulenz-Schliessung wird der Darstellung der unteren Grenschicht während starker stabiler Schichtung besser gerecht als die Nicht-Wirbel-auflösende Turbulenz-Schließung. Desweiteren reduzierte die Integration der Risse in der Meereisoberfläche die Abweichung der sensiblen Wärme für verschiedene Wetterzustände. Die Ergebnisse dieser Arbeit helfen die Grenzschicht-Prozesse in der zentralen Arktis während der polaren Nacht besser zu verstehen. Hochauflösende mesoskalige Simulationen ermöglichen die Repräsentation zeitlicher und räumlicher klein-skaliger Wechselwirkungen und bestehende Parametrisierungen auch für regionale und globale Modelle weiterzuentwickeln. KW - Arctic KW - atmosphere KW - atmospheric science KW - high resolution KW - boundary layer KW - stable stratification KW - heat flux KW - heat capacity KW - Arktis KW - Atmosphäre KW - Atmosphärenforschung KW - hohe Auflösung KW - Grenzschicht KW - stabile Schichtung KW - Wärmefluss KW - Wärmekapazität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624374 ER - TY - THES A1 - Schäfer, Marjänn Helena T1 - Untersuchungen zur Evolution der 15-Lipoxygenase (ALOX15) bei Säugetieren und funktionelle Charakterisierung von Knock-in-Mäusen mit humanisierter Reaktionsspezifität der 15-Lipoxygenase-2 (Alox15b) T1 - Studies on the evolution of 15-lipoxygenase (ALOX15) in mammals and functional characterization of Knock-in mice with humanized reaction specificity of 15-lipoxygenase-2 (Alox15b) N2 - Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht: 1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein. 2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept. 3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung. 4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet. N2 - Arachidonic acid lipoxygenases (ALOX-isoforms) are lipid peroxidizing enzymes that have been implicated in cell differentiation and in the pathogenesis of different diseases. In the human genome six different ALOX genes have been identified and all of them occur as single copy genes. For each human ALOX gene an ortholog exists in the mouse genome. Although human and mouse ALOX orthologs share a high degree of structural similarity ALOX15 and ALOX15B orthologs exhibit distinct functional characteristics. In the present study addressed four different questions on the occurrence, the biological role and enzyme evolution of mammalian ALOX15 and ALOX15B orthologs. 1) Tupaiidae are more closely related to humans than rodents and therefore these mammals have frequently been suggested as better animal models than mice for investigations into patho-physiological basis of human diseases. This work explored for the first time the arachidonic acid metabolism of a Tupaiidae representative (Tupaia belangeri) and found that this mammal carries four distinct ALOX15 genes in its genome. The enzymes encoded by these four genes share a high degree of functional similarity but the observed genomic multiplicity, which is neither present in mice nor in humans, makes studies into the biological role of ALOX15 orthologs more complex. Thus, Tupaia belangeri is not more suitable than mice for investigations into the biological role of mammalian ALOX15 orthologs since loss-of-function studies on one ALOX15 ortholog may easily be compensated by upregulation of an orthologous gene. 2) According to the Evolutionary Hypothesis mammalian ALOX15 orthologs can be subdivided into arachidonic acid 12-lipoxygenating and arachidonic acid 15-lipoxygenating enzymes. Mammalian species, which are ranked above gibbons express arachidonic acid 15 lipoxygenating ALOX15 orthologs. In contrast mammals ranked below gibbons express arachidonic acid 12-lipoxygenating enzymes. In this study the ALOX15 orthologs of eleven different mammals expressed as recombinant proteins and characterized their functional properties. The results of these experiments were consistent with the Evolutionary Hypothesis and put this theory on a broader experimental basis. Moreover, the obtained in vitro mutagenesis data indicate that the novel enzymes follow Triad Concept. 3) Since human and mouse ALOX15B orthologs exhibit different functional properties, conclusion drawn in mouse models of human diseases may be misleading. To make human and mouse ALOX15B orthologs more like each other were generated Alox15b knock-in mice, which express the humanized Tyr603Asp+His604Val double mutant of mouse Alox15b instead of the endogenous wildtype enzyme employing the CRISPR/Cas9 in vivo mutagenesis strategy. These Alox15b-KI mice are viable, reproduce normally but exhibit gender-specific differences to outbred wildtype control animals when the bodyweight kinetics during adolescence and early adulthood were followed. 4) In previous studies an anti-inflammatory role of ALOX15B in the pathogenesis of inflammation has been suggested. Here we explored whether functional humanization of mouse Alox15b impacts the severity of inflammatory symptoms in two mouse inflammation models. In the dextran-sodium sulfate colitis model humanization of mouse Alox15b induced more severe inflammatory symptoms. In contrast, humanization of this enzyme protected mice in the Freund’s complete adjuvants induced paw edema model. Taken together, these data suggest that the patho-physiological roles of Alox15b may vary depending on the type of the animal inflammation model used. KW - Lipoxygenase KW - ALOX15B KW - Knock in Mäuse KW - enzymatische Reaktionsspezifität KW - Tupaia belangeri KW - DSS-Colitis KW - Pfotenödem Mausmodell KW - mammalian ALOX15 orthologs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620340 ER - TY - THES A1 - Shaw, Vasundhara T1 - Cosmic-ray transport and signatures in their local environment N2 - The origin and structure of magnetic fields in the Galaxy are largely unknown. What is known is that they are essential for several astrophysical processes, in particular the propagation of cosmic rays. Our ability to describe the propagation of cosmic rays through the Galaxy is severely limited by the lack of observational data needed to probe the structure of the Galactic magnetic field on many different length scales. This is particularly true for modelling the propagation of cosmic rays into the Galactic halo, where our knowledge of the magnetic field is particularly poor. In the last decade, observations of the Galactic halo in different frequency regimes have revealed the existence of out-of-plane bubble emission in the Galactic halo. In gamma rays these bubbles have been termed Fermi bubbles with a radial extent of ≈ 3 kpc and an azimuthal height of ≈ 6 kpc. The radio counterparts of the Fermi bubbles were seen by both the S-PASS telescopes and the Planck satellite, and showed a clear spatial overlap. The X-ray counterparts of the Fermi bubbles were named eROSITA bubbles after the eROSITA satellite, with a radial width of ≈ 7 kpc and an azimuthal height of ≈ 14 kpc. Taken together, these observations suggest the presence of large extended Galactic Halo Bubbles (GHB) and have stimulated interest in exploring the less explored Galactic halo. In this thesis, a new toy model (GHB model) for the magnetic field and non-thermal electron distribution in the Galactic halo has been proposed. The new toy model has been used to produce polarised synchrotron emission sky maps. Chi-square analysis was used to compare the synthetic skymaps with the Planck 30 GHz polarised skymaps. The obtained constraints on the strength and azimuthal height were found to be in agreement with the S-PASS radio observations. The upper, lower and best-fit values obtained from the above chi-squared analysis were used to generate three separate toy models. These three models were used to propagate ultra-high energy cosmic rays. This study was carried out for two potential sources, Centaurus A and NGC 253, to produce magnification maps and arrival direction skymaps. The simulated arrival direction skymaps were found to be consistent with the hotspots of Centaurus A and NGC 253 as seen in the observed arrival direction skymaps provided by the Pierre Auger Observatory (PAO). The turbulent magnetic field component of the GHB model was also used to investigate the extragalactic dipole suppression seen by PAO. UHECRs with an extragalactic dipole were forward-tracked through the turbulent GHB model at different field strengths. The suppression in the dipole due to the varying diffusion coefficient from the simulations was noted. The results could also be compared with an analytical analogy of electrostatics. The simulations of the extragalactic dipole suppression were in agreement with similar studies carried out for galactic cosmic rays. N2 - Unsere Galaxie wird ständig von hochenergetischen geladenen Teilchen unterschiedlicher Energie bombardiert, die als kosmische Strahlung bezeichnet werden und deren Ursprung nicht bekannt ist. Satelliten- und erdgestützte Messungen haben bisher ergeben, dass es in unserer Galaxie Beschleuniger für kosmische Strahlung gibt, z. B. die Überreste explodierender Sterne (Supernova-Überreste), aber bei den höchsten kosmischen Strahlungsenergien bleiben die Quellen ein Rätsel. Fortschritte zu erzielen ist eine Herausforderung, auch weil die kosmische Strahlung durch Magnetfelder abgelenkt wird, was bedeutet, dass die beobachtete Richtung mit der Richtung der Quelle übereinstimmen kann oder auch nicht. Unsere Galaxie weist starke Magnetfelder auf, deren Beschaffenheit noch nicht gut verstanden ist, insbesondere in der Komponente außerhalb der Scheibe (dem galaktischen Halo). Darüber hinaus haben Beobachtungen in den letzten zehn Jahren blasenartige Strukturen im galaktischen Halo mit enormen Gesamtenergien aufgedeckt, die auch als galaktische Halo-Blasen bezeichnet werden. All dies motiviert uns, den galaktischen Halo zu untersuchen. In meiner Doktorarbeit schlagen wir ein neues, vereinfachtes Magnetfeldmodell für galaktische Halo-Blasen vor. Das Modell umfasst sowohl strukturierte als auch turbulente Komponenten des Magnetfelds. Das vereinfachte Modell wurde mit Beobachtungsdaten verglichen, um den am besten passenden Parametersatz zusammen mit den Unsicherheiten zu erhalten. Ich untersuchte die Propagation der ultrahochenergetischen kosmischen Strahlung durch das vereinfachte Modell und untersuchte dessen Auswirkungen auf die Ankunftsrichtungen der ultrahochenergetischen kosmischen Strahlung für zwei potenzielle Quellen, Centaurus~A und NGC~253. Außerdem habe ich sowohl numerisch als auch analytisch abgeschätzt, wie stark ein Dipol der extragalaktischen kosmischen Strahlung durch verschiedene Konfigurationen der turbulenten Magnetfelder des vereinfachten Modells unterdrückt wird. Die Ergebnisse all dieser Arbeiten werden in dieser Arbeit im Detail vorgestellt. KW - galactic magnetic fields KW - synchrotron radiation KW - non-thermal radiation KW - ultra-high energy cosmic rays KW - cosmic ray propagation KW - Ausbreitung der kosmischen Strahlung KW - galaktische Magnetfelder KW - nicht-thermische Strahlung KW - Synchrotronstrahlung KW - ultrahochenergetische kosmische Strahlung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620198 ER - TY - RPRT A1 - Hertel, Kyra A1 - Kennecke, Andreas A1 - Reiche, Michael A1 - Schmidt-Kopplin, Diana A1 - Tillmann, Diana A1 - Winkler, Marco T1 - Bericht zum Auftaktworkshop des Forschungsprojektes "Workflow-Management-Systeme für Open-Access-Hochschulverlage (OA-WFMS)" N2 - Das Forschungsprojekt „Workflow-Management-Systeme für Open-Access-Hochschulverlage (OA-WFMS)” ist eine Kooperation zwischen der HTWK Leipzig und der Universität Potsdam. Ziel ist es, die Bedarfe von Universitäts- und Hochschulverlagen und Anforderungen an ein Workflow-Management-Systeme (WFMS) zu analysieren, um daraus ein generisches Lastenheft zu erstellen. Das WFMS soll den Publikationsprozess in OA-Verlagen erleichtern, beschleunigen sowie die Verbreitung von Open Access und das nachhaltige, digitale wissenschaftliche Publizieren fördern. Das Projekt baut auf den Ergebnissen der Projekte „Open-Access-Hochschulverlag (OA-HVerlag)“ und „Open-Access-Strukturierte-Kommunikation (OA-STRUKTKOMM)“ auf. Der diesem Bericht zugrunde liegende Auftaktworkshop fand 2024 in Leipzig mit Vertreter:innen von zehn Institutionen statt. Der Workshop diente dazu, Herausforderungen und Anforderungen an ein WFMS zu ermitteln sowie bestehende Lösungsansätze und Tools zu diskutieren. Im Workshop wurden folgende Fragen behandelt: a. Wie kann die Organisation und Überwachung von Publikationsprozessen in wissenschaftlichen Verlagen durch ein WFMS effizient gestaltet werden? b. Welche Anforderungen muss ein WFMS erfüllen, um Publikationsprozesse optimal zu unterstützen? c. Welche Schnittstellen müssen berücksichtigt werden, um die Interoperabilität der Systeme zu garantieren? d. Welche bestehenden Lösungsansätze und Tools sind bereits im Einsatz und welche Vor- und Nachteile haben diese? Der Workshop gliederte sich in zwei Teile : Teil 1 behandelte Herausforderungen und Anforderungen (Fragen a. bis c.), Teil 2 bestehende Lösungen und Tools (Frage d.). Die Ergebnisse des Workshops fließen in die Bedarfsanalyse des Forschungsprojekts ein. Die im Bericht dokumentierten Ergebnisse zeigen die Vielzahl der Herausforderungen der bestehenden Ansätze bezüglich des OA-Publikationsmanagements . Die Herausforderungen zeigen sich insbesondere bei der Systemheterogenität, den individuellen Anpassungsbedarfen und der Notwendigkeit der systematischen Dokumentation. Die eingesetzten Unterstützungssysteme und Tools wie Dateiablagen, Projektmanagement- und Kommunikationstools können insgesamt den Anforderungen nicht genügen, für Teillösungen sind sie jedoch nutzbar. Deshalb muss die Integration bestehender Systeme in ein zu entwickelndes OA-WFMS in Betracht gezogen und die Interoperabilität der miteinander interagierenden Systeme gewährleistet werden. Die Beteiligten des Workshops waren sich einig, dass das OA-WFMS flexibel und modular aufgebaut werden soll. Einer konsortialen Softwareentwicklung und einem gemeinsamen Betrieb im Verbund wurde der Vorrang gegeben. Der Workshop lieferte wertvolle Einblicke in die Arbeit der Hochschulverlage und bildet somit eine solide Grundlage für die in Folge zu erarbeitende weitere Bedarfsanalyse und die Erstellung des generischen Lastenheftes. N2 - The research project „Workflow Management Systems for Open Access University Presses (OA-WFMS)“ is a collaboration between HTWK Leipzig and the University of Potsdam. The aim is to analyze the needs of university presses and the requirements for a Workflow Management System (WFMS) to create a catalog of generic specifications. The WFMS is intended to facilitate and accelerate the publication process in OA presses, as well as to promote the spread of open access and sustainable, digital scientific publishing. The project builds on the results of the project „Open Access University Press (OA-HVerlag)“ and „Open Access Structured Communication (OA-STRUKTKOMM)“. The kickoff workshop for this report took place in 2024 in Leipzig with representatives from ten institutions. The workshop aimed to identify challenges and requirements for a WFMS, as well as discuss existing solutions and tools. The workshop addressed the following questions: a. How can the organization and monitoring of publication processes in scientific presses be efficiently designed using a WFMS? b. What requirements must a WFMS meet to optimally support publication processes? c. Which interfaces need to be considered to ensure the interoperability of the systems? d. Which existing solutions and tools are already in use, and what are their advantages and disadvantages? The workshop was divided into two parts: Part 1 addressed challenges and requirements (questions a. to c.), and Part 2 focused on existing solutions and tools (question d.). The results of the workshop will be incorporated into the needs analysis of the research project. The results documented in the report highlight the variety of challenges of the existing approaches regarding OA publication management. The challenges are particularly evident in system heterogeneity, the need for individual customization, and the necessity of systematic documentation. The support systems and tools in use, such as file storage, project management, and communication tools, do not fully meet the requirements but can be used for partial solutions. Therefore, the integration of existing systems into a new OA-WFMS must be considered, and the interoperability of interacting systems must be ensured. The workshop participants agreed that the OA-WFMS should be flexible and modular. Priority was given to consortial software development and joint operation within the association. The workshop provided valuable insights into the work of university presses and forms a solid foundation for the subsequent further needs analysis and the creation of the catalog of generic specifications. T2 - Report on the kick-off workshop of the research project "Workflow Management Systems for Open Access University Publishers (OA-WFMS)" KW - Workflow-Management-System KW - Open Access KW - Hochschulverlage KW - Publikationsprozesse KW - Interoperalität KW - Auftaktworkshop KW - Bedarfsanalyse KW - Workflow Management System KW - University Presses KW - Publication Processes KW - Interoperability KW - Kickoff Workshop KW - Open Access KW - Needs Analysis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-638057 ER - TY - RPRT A1 - Borck, Rainald A1 - Mulder, Peter T1 - Energy policies and pollution in two developing country cities BT - A quantitative model T2 - CEPA Discussion Papers N2 - We study the effect of energy and transport policies on pollution in two developing country cities. We use a quantitative equilibrium model with choice of housing, energy use, residential location, transport mode, and energy technology. Pollution comes from commuting and residential energy use. The model parameters are calibrated to replicate key variables for two developing country cities, Maputo, Mozambique, and Yogyakarta, Indonesia. In the counterfactual simulations, we study how various transport and energy policies affect equilibrium pollution. Policies may be induce rebound effects from increasing residential energy use or switching to high emission modes or locations. In general, these rebound effects tend to be largest for subsidies to public transport or modern residential energy technology. T3 - CEPA Discussion Papers - 78 KW - pollution KW - energy policy KW - discrete choice KW - developing country cities Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-638472 SN - 2628-653X IS - 78 ER - TY - THES A1 - Aue, Lars T1 - Cyclone impacts on sea ice in the Atlantic Arctic Ocean T1 - Auswirkungen von Zyklonen auf das Meereis im Atlantischen Arktischen Ozean N2 - The Arctic is the hot spot of the ongoing, global climate change. Over the last decades, near-surface temperatures in the Arctic have been rising almost four times faster than on global average. This amplified warming of the Arctic and the associated rapid changes of its environment are largely influenced by interactions between individual components of the Arctic climate system. On daily to weekly time scales, storms can have major impacts on the Arctic sea-ice cover and are thus an important part of these interactions within the Arctic climate. The sea-ice impacts of storms are related to high wind speeds, which enhance the drift and deformation of sea ice, as well as to changes in the surface energy budget in association with air mass advection, which impact the seasonal sea-ice growth and melt. The occurrence of storms in the Arctic is typically associated with the passage of transient cyclones. Even though the above described mechanisms how storms/cyclones impact the Arctic sea ice are in principal known, there is a lack of statistical quantification of these effects. In accordance with that, the overarching objective of this thesis is to statistically quantify cyclone impacts on sea-ice concentration (SIC) in the Atlantic Arctic Ocean over the last four decades. In order to further advance the understanding of the related mechanisms, an additional objective is to separate dynamic and thermodynamic cyclone impacts on sea ice and assess their relative importance. Finally, this thesis aims to quantify recent changes in cyclone impacts on SIC. These research objectives are tackled utilizing various data sets, including atmospheric and oceanic reanalysis data as well as a coupled model simulation and a cyclone tracking algorithm. Results from this thesis demonstrate that cyclones are significantly impacting SIC in the Atlantic Arctic Ocean from autumn to spring, while there are mostly no significant impacts in summer. The strength and the sign (SIC decreasing or SIC increasing) of the cyclone impacts strongly depends on the considered daily time scale and the region of the Atlantic Arctic Ocean. Specifically, an initial decrease in SIC (day -3 to day 0 relative to the cyclone) is found in the Greenland, Barents and Kara Seas, while SIC increases following cyclones (day 0 to day 5 relative to the cyclone) are mostly limited to the Barents and Kara Seas. For the cold season, this results in a pronounced regional difference between overall (day -3 to day 5 relative to the cyclone) SIC-decreasing cyclone impacts in the Greenland Sea and overall SIC-increasing cyclone impacts in the Barents and Kara Seas. A cyclone case study based on a coupled model simulation indicates that both dynamic and thermodynamic mechanisms contribute to cyclone impacts on sea ice in winter. A typical pattern consisting of an initial dominance of dynamic sea-ice changes followed by enhanced thermodynamic ice growth after the cyclone passage was found. This enhanced ice growth after the cyclone passage most likely also explains the (statistical) overall SIC-increasing effects of cyclones in the Barents and Kara Seas in the cold season. Significant changes in cyclone impacts on SIC over the last four decades have emerged throughout the year. These recent changes are strongly varying from region to region and month to month. The strongest trends in cyclone impacts on SIC are found in autumn in the Barents and Kara Seas. Here, the magnitude of destructive cyclone impacts on SIC has approximately doubled over the last four decades. The SIC-increasing effects following the cyclone passage have particularly weakened in the Barents Sea in autumn. As a consequence, previously existing overall SIC-increasing cyclone impacts in this region in autumn have recently disappeared. Generally, results from this thesis show that changes in the state of the sea-ice cover (decrease in mean sea-ice concentration and thickness) and near-surface air temperature are most important for changed cyclone impacts on SIC, while changes in cyclone properties (i.e. intensity) do not play a significant role. N2 - Die Arktis ist der Hotspot des globalen Klimawandels. In den letzten Jahrzehnten sind die oberflächennahen Temperaturen in der Arktis fast viermal so schnell gestiegen wie im globalen Durchschnitt. Diese verstärkte Erwärmung der Arktis und die damit verbundenen raschen Umweltveränderungen werden u.a. durch Wechselwirkungen zwischen den einzelnen Komponenten des arktischen Klimasystems angetrieben. Auf täglichen bis wöchentlichen Zeitskalen können Stürme große Einflüsse auf das arktische Meereis haben und sind somit ein wichtiger Teil dieser Wechselwirkungen innerhalb des arktischen Klimas. Der Einfluss der Stürme auf das Meereis resultiert aus den hohen Windgeschwindigkeiten, welche die Drift und Verformung des Meereises verstärken, sowie aus Änderungen in der Oberflächenenergiebilanz im Zusammenhang mit der Advektion von Luftmassen, was das Wachstum und Schmelzen des Meereises beeinflusst. Das Auftreten von Stürmen in der Arktis ist oft mit dem Durchzug von Zyklonen verbunden. Obwohl die oben beschriebenen Mechanismen, wie sich Stürme/Zyklone auf das arktische Meereis auswirken, im Prinzip bekannt sind, fehlt es an einer statistischen Quantifizierung dieser Effekte. Dementsprechend ist das übergeordnete Ziel dieser Arbeit eine statistische Quantifizierung der Auswirkungen von Zyklonen auf die Meereiskonzentration (engl. Sea Ice Concentration, SIC) im atlantischen Arktischen Ozeans über die letzten vier Jahrzehnte. Um ein Verständnis für die zugrunde liegenden Mechanismen zu erlangen, besteht ein weiteres Ziel darin, die dynamischen und thermodynamischen Auswirkungen von Zyklonen auf das Meereis zu trennen und ihre relative Bedeutung zu analysieren. Zuletzt zielt diese Arbeit darauf ab, aktuelle Veränderungen der Zykloneneinflüsse auf das Meereis zu quantifizieren. Zum Erreichen dieser Forschungsziele werden verschiedene Datensätze genutzt, darunter atmosphärische und ozeanische Reanalysedaten sowie eine gekoppelte Modellsimulation und ein Algorithmus zur automatischen Identifikation von Zyklonen. Die Ergebnisse dieser Arbeit zeigen, dass Zyklone die SIC im atlantischen Arktischen Ozean von Herbst bis Frühjahr signifikant beeinflussen, während es im Sommer meist keine signifikanten Auswirkungen gibt. Die Stärke und das Vorzeichen (abnehmende oder zunehmende SIC) der Auswirkungen der Zyklone hängt stark von der betrachteten täglichen Zeitskala und der Region des Arktischen Ozeans ab. So ist ein anfänglicher Rückgang der SIC (Tag -3 bis Tag 0 relativ zum Zyklonendurchgang) in der Grönland-, der Barents- und der Karasee festzustellen, während ein SIC-Anstieg nach dem Zyklonendurchgang (Tag 0 bis Tag 5 relativ zum Zyklonendurchgang) hauptsächlich auf die Barents- und die Karasee beschränkt ist. Für die kalte Jahreszeit ergibt sich daraus ein ausgeprägter regionaler Unterschied zwischen insgesamt (Tag -3 bis Tag 5 relativ zum Zyklon) SIC-verringernden Zyklonenauswirkungen in der Grönlandsee und insgesamt SIC-erhöhenden Zyklonenauswirkungen in der Barents- und Karasee. Die Analyse spezifischer Zyklonenfälle basierend auf einer gekoppelten Modellsimulation zeigt, dass sowohl dynamische als auch thermodynamische Mechanismen zu den Auswirkungen von Zyklonen auf das Meereis im Winter beitragen. Hierbei wurde ein typisches Muster bestehend aus einer anfänglichen Dominanz dynamischer Meereisveränderungen gefolgt von verstärktem thermodynamischem Eiswachstum nach der Zyklonenpassage gefunden. Dieses verstärkte Eiswachstum nach der Zyklonenpassage erklärt u.a. auch die (statistischen) insgesamt SIC-erhöhenden Effekte von Zyklonen in der Barents- und Karasee im Winter. Signifikante Änderungen in den Auswirkungen von Zyklonen auf die SIC über die letzten vier Dekaden sind das ganze Jahr über zu finden. Diese Veränderungen variieren stark von Region zu Region und von Monat zu Monat. Die stärksten Trends in den Auswirkungen von Zyklonen auf die SIC sind im Herbst in der Barents- und Karasee zu beobachten. Hier hat sich die Stärke der zerstörerischen Auswirkungen von Zyklonen auf die SIC in den letzten vier Jahrzehnten ungefähr verdoppelt. Die SIC-erhöhenden Effekte nach der Zyklonenpassage haben sich in der Barentssee im Herbst besonders abgeschwächt. Dadurch sind zuvor existierende, insgesamt SIC-erhöhende Zyklonenauswirkungen in dieser Region und Jahreszeit zuletzt verschwunden. Generell zeigen die Ergebnisse dieser Arbeit, dass Änderungen im Zustand des Meereises (Abnahme der mittleren Meereiskonzentration und -dicke) sowie in der Lufttemperatur die veränderten Auswirkungen der Zyklonen auf die SIC antreiben, während Veränderungen in den Eigenschaften der Zyklonen (z.B. ihre Intensität) keine wesentliche Rolle spielen. KW - Arctic KW - atmosphere KW - sea ice KW - cyclones KW - meteorology KW - Arktis KW - Atmosphäre KW - Meereis KW - Zyklone KW - Meteorologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634458 SP - VIII, 131 ER - TY - RPRT A1 - Kritikos, Alexander A1 - Maliranta, Mika A1 - Nippala, Veera A1 - Nurmi, Satu T1 - Does gender of firm ownership matter? BT - Female entrepreneurs and the gender pay gap T2 - CEPA Discussion Papers N2 - We examine how the gender of business-owners is related to the wages paid to female relative to male employees working in their firms. Using Finnish register data and employing firm fixed effects, we find that the gender pay gap is – starting from a gender pay gap of 11 to 12 percent - two to three percentage-points lower for hourly wages in female-owned firms than in male-owned firms. Results are robust to how the wage is measured, as well as to various further robustness checks. More importantly, we find substantial differences between industries. While, for instance, in the manufacturing sector, the gender of the owner plays no role for the gender pay gap, in several service sector industries, like ICT or business services, no or a negligible gender pay gap can be found, but only when firms are led by female business owners. Businesses in male ownership maintain a gender pay gap of around 10 percent also in the latter industries. With increasing firm size, the influence of the gender of the owner, however, fades. In large firms, it seems that others – firm managers – determine wages and no differences in the pay gap are observed between male- and female-owned firms. T3 - CEPA Discussion Papers - 76 KW - entrepreneurship KW - gender pay gap KW - discrimination KW - linked employer-employee data Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636194 SN - 2628-653X IS - 76 SP - 1 EP - 39 ER - TY - THES A1 - Ketzer, Laura T1 - The impact of stellar activity evolution on atmospheric mass loss of young exoplanets T1 - Der Einfluss der stellaren Aktivitätsentwicklung auf den atmosphärischen Massenverlust von jungen Exoplaneten N2 - The increasing number of known exoplanets raises questions about their demographics and the mechanisms that shape planets into how we observe them today. Young planets in close-in orbits are exposed to harsh environments due to the host star being magnetically highly active, which results in high X-ray and extreme UV fluxes impinging on the planet. Prolonged exposure to this intense photoionizing radiation can cause planetary atmospheres to heat up, expand and escape into space via a hydrodynamic escape process known as photoevaporation. For super-Earth and sub-Neptune-type planets, this can even lead to the complete erosion of their primordial gaseous atmospheres. A factor of interest for this particular mass-loss process is the activity evolution of the host star. Stellar rotation, which drives the dynamo and with it the magnetic activity of a star, changes significantly over the stellar lifetime. This strongly affects the amount of high-energy radiation received by a planet as stars age. At a young age, planets still host warm and extended envelopes, making them particularly susceptible to atmospheric evaporation. Especially in the first gigayear, when X-ray and UV levels can be 100 - 10,000 times higher than for the present-day sun, the characteristics of the host star and the detailed evolution of its high-energy emission are of importance. In this thesis, I study the impact of stellar activity evolution on the high-energy-induced atmospheric mass loss of young exoplanets. The PLATYPOS code was developed as part of this thesis to calculate photoevaporative mass-loss rates over time. The code, which couples parameterized planetary mass-radius relations with an analytical hydrodynamic escape model, was used, together with Chandra and eROSITA X-ray observations, to investigate the future mass loss of the two young multiplanet systems V1298 Tau and K2-198. Further, in a numerical ensemble study, the effect of a realistic spread of activity tracks on the small-planet radius gap was investigated for the first time. The works in this thesis show that for individual systems, in particular if planetary masses are unconstrained, the difference between a young host star following a low-activity track vs. a high-activity one can have major implications: the exact shape of the activity evolution can determine whether a planet can hold on to some of its atmosphere, or completely loses its envelope, leaving only the bare rocky core behind. For an ensemble of simulated planets, an observationally-motivated distribution of activity tracks does not substantially change the final radius distribution at ages of several gigayears. My simulations indicate that the overall shape and slope of the resulting small-planet radius gap is not significantly affected by the spread in stellar activity tracks. However, it can account for a certain scattering or fuzziness observed in and around the radius gap of the observed exoplanet population. N2 - Die steigende Anzahl bekannter Exoplaneten wirft Fragen zu ihrer Demografie und den Mechanismen auf, die Planeten in ihre heutige beobachtete Form bringen. Junge Planeten, die sehr nah um ihren Wirtsstern kreisen, sind extremen Umgebungen ausgesetzt, da der Stern eine hohe magnetische Aktivität aufweist. Das führt wiederum dazu, dass der Planet einer enormen Röntgen- und Extrem-UV-Strahlung ausgesetzt ist. Ist der Planet über einen längeren Zeitraum dieser intensiven photoionisierenden Strahlung ausgesetzt, kann dies dazu führen, dass Planetenatmosphären sich aufheizen, ausdehnen und durch einen hydrodynamischen Entweichungsprozess namens Photoevaporation ins All entweichen, sozusagen verdampfen. Bei Planeten, in der Größenordnung von Super-Erden und Sub-Neptunen, kann dies sogar zur vollständigen Erosion ihrer Ur-Atmosphären führen. Ein interessanter Faktor, der für diesen Massenverlustprozess eine Rolle spielt, ist die Aktivitätsentwicklung des Wirtssterns. Die Rotation eines Sterns, die den Dynamo und damit die magnetische Aktivität antreibt, ändert sich im Laufe der Lebensdauer eines Sterns erheblich. Dies hat einen starken Einfluss auf die Menge der hochenergetischen Strahlung, den ein Planet mit zunehmendem Alter des Sterns empfängt. In jungen Jahren besitzen Planeten noch warme und ausgedehnte Hüllen, was sie besonders anfällig für atmosphärische Verdunstung macht. Insbesondere in den ersten Gigajahren, wenn die Röntgen- und UV-Strahlung 100 - 10,000 Mal höher sein kann als bei der heutigen Sonne, sind die Eigenschaften des Wirtssterns und die detaillierte Entwicklung seiner hochenergetischen Emission von Bedeutung. In dieser Arbeit untersuche ich die Auswirkungen der Entwicklung der stellaren Aktivität auf den durch hochenergetische Strahlung verursachten atmosphärischen Massenverlust junger Exoplaneten. Der PLATYPOS-Code wurde im Rahmen dieser Arbeit entwickelt, um die photoevaporativen Massenverlustraten für verschiedene stellare Alter zu berechnen. Der Code verknüpft parametrisierte Planetenmasse-Radius-Beziehungen mit einem analytischen Modell für den hydrodynamischen Massenverlust. Er wurde zusammen mit Chandra- und eROSITA-Röntgenbeobachtungen dazu verwendet, den zukünftigen Massenverlust der beiden jungen Mehrplanetensysteme V1298 Tau und K2-198 zu untersuchen. Darüber hinaus wurde in einer numerischen Ensemblestudie erstmals der Effekt einer realistischen Verteilung von stellaren Aktivitäts-Tracks auf das sogenannte Radius-Tal bei kleinen Planeten untersucht. Die Arbeiten in dieser Dissertation zeigen, dass für einzelne Systeme, insbesondere wenn die Planetenmassen unbestimmt sind, der Unterschied zwischen einem jungen Wirtsstern, der einem Track mit niedriger Aktivität gegenüber einem solchen mit hoher Aktivität folgt, gravierende Auswirkungen haben kann: Die genaue Form der Aktivitätsentwicklung kann darüber entscheiden, ob ein Planet einen Teil seiner Atmosphäre behält oder seine Hülle vollständig verliert und nur den nackten Gesteinskern behält. Für ein Ensemble von simulierten Planeten ändert eine durch Beobachtungen motivierte Verteilung von Aktivitäts-Tracks die endgültige Radiusverteilung der Planeten nach mehreren Gigajahren nicht wesentlich. Meine Simulationen deuten darauf hin, dass die Form und Steigung des sich ergebenden Radius-Tals bei Kleinplaneten nicht wesentlich von der Streuung der stellaren Aktivitäts-Tracks beeinflusst wird. Eine gewisse Streuung oder Unschärfe im Radius-Tal der beobachteten Exoplanetenpopulation kann damit allerdings durchaus erklärt werden. KW - Exoplaneten KW - star-planet interaction KW - stellar physics KW - exoplanets KW - exoplanet atmospheres KW - Sternphysik KW - Stern-Planeten-Wechselwirkung KW - Exoplanetenatmosphären Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626819 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Kiss, Andrea T1 - Moss-associated bacterial and archaeal communities of northern peatlands: key taxa, environmental drivers and potential functions T1 - Moos-assoziierte bakterielle und archaelle Gemeinschaften nördlicher Moore: Schlüsselspezies, beeinflussende Umweltfaktoren und potentielle Funktionen N2 - Moss-microbe associations are often characterised by syntrophic interactions between the microorganisms and their hosts, but the structure of the microbial consortia and their role in peatland development remain unknown. In order to study microbial communities of dominant peatland mosses, Sphagnum and brown mosses, and the respective environmental drivers, four study sites representing different successional stages of natural northern peatlands were chosen on a large geographical scale: two brown moss-dominated, circumneutral peatlands from the Arctic and two Sphagnum-dominated, acidic peat bogs from subarctic and temperate zones. The family Acetobacteraceae represented the dominant bacterial taxon of Sphagnum mosses from various geographical origins and displayed an integral part of the moss core community. This core community was shared among all investigated bryophytes and consisted of few but highly abundant prokaryotes, of which many appear as endophytes of Sphagnum mosses. Moreover, brown mosses and Sphagnum mosses represent habitats for archaea which were not studied in association with peatland mosses so far. Euryarchaeota that are capable of methane production (methanogens) displayed the majority of the moss-associated archaeal communities. Moss-associated methanogenesis was detected for the first time, but it was mostly negligible under laboratory conditions. Contrarily, substantial moss-associated methane oxidation was measured on both, brown mosses and Sphagnum mosses, supporting that methanotrophic bacteria as part of the moss microbiome may contribute to the reduction of methane emissions from pristine and rewetted peatlands of the northern hemisphere. Among the investigated abiotic and biotic environmental parameters, the peatland type and the host moss taxon were identified to have a major impact on the structure of moss-associated bacterial communities, contrarily to archaeal communities whose structures were similar among the investigated bryophytes. For the first time it was shown that different bog development stages harbour distinct bacterial communities, while at the same time a small core community is shared among all investigated bryophytes independent of geography and peatland type. The present thesis displays the first large-scale, systematic assessment of bacterial and archaeal communities associated both with brown mosses and Sphagnum mosses. It suggests that some host-specific moss taxa have the potential to play a key role in host moss establishment and peatland development. N2 - Während die Beziehungen zwischen Moosen und den mit ihnen assoziierten Mikroorganismen oft durch syntrophische Wechselwirkungen charakterisiert sind, ist die Struktur der Moos-assoziierten mikrobiellen Gemeinschaften sowie deren Rolle bei der Entstehung von Mooren weitgehend unbekannt. Die vorliegende Arbeit befasst sich mit mikrobiellen Gemeinschaften, die mit Moosen nördlicher, naturnaher Moore assoziiert sind, sowie mit den Umweltfaktoren, die sie beeinflussen. Entlang eines groß angelegten geographischen Gradienten, der von der Hocharktis bis zur gemäßigten Klimazone reicht, wurden vier naturbelassene Moore als Probenstandorte ausgesucht, die stellvertretend für verschiedene Stadien der Moorentwicklung stehen: zwei Braunmoos-dominierte Niedermoore mit nahezu neutralem pH-Wert sowie zwei Sphagnum-dominierte Torfmoore mit saurem pH-Wert. Die Ergebnisse der vorliegenden Arbeit machen deutlich, dass die zu den Bakterien zählenden Acetobacteraceae das vorherrschende mikrobielle Taxon der Sphagnum-Moose gleich welchen geographischen Ursprungs darstellen und insbesondere innerhalb des Wirtsmoosgewebes dominieren. Gleichzeitig gehörten die Acetobacteraceae zum wesentlichen Bestandteil der mikrobiellen Kerngemeinschaft aller untersuchten Moose, die sich aus einigen wenigen Arten, dafür zahlreich vorkommenden Prokaryoten zusammensetzt. Die vorliegende Arbeit zeigt zudem erstmals, dass sowohl Braunmoose als auch Torfmoose ein Habitat für Archaeen darstellen. Die Mehrheit der Moos-assoziierten Archaeen gehörte dabei zu den methanbildenden Gruppen, wenngleich die metabolischen Aktivitätsraten unter Laborbedingungen meistens kaum messbar waren. Im Gegensatz hierzu konnte die Bakterien-vermittelte Methanoxidation sowohl an Braunmoosen als auch an Sphagnum-Moosen gemessen werden. Dies zeigt eindrucksvoll, dass Moos-assoziierte Bakterien potenziell zur Minderung von Methanemissionen aus nördlichen, aber auch wiedervernässten Mooren beitragen können. Ein weiteres wichtiges Resultat der vorliegenden Arbeit ist die Bedeutung des Moortyps (Niedermoor oder Torfmoor), aber auch der Wirtsmoosart selbst für die Struktur der Moos-assoziierten Bakteriengemeinschaften, während die archaeellen Gemeinschaftsstrukturen weder vom Moortyp noch von der Wirtsmoosart beeinflusst wurden und sich insgesamt deutlich ähnlicher waren als die der Bakterien. Darüber hinaus konnte erstmalig gezeigt werden, dass sich die bakteriellen Gemeinschaften innerhalb der unterschiedlichen Moorsukzessionsstadien zwar ganz erheblich voneinander unterscheiden, ein kleiner Teil der Bakterien dennoch Kerngemeinschaften bilden, die mit allen untersuchten Moosarten assoziiert waren. Bei der hier präsentierten Arbeit handelt es sich um die erste systematische Studie, die sich auf einer großen geographischen Skala mit den bakteriellen und archaeellen Gemeinschaften von Braunmoosen und Torfmoosen aus naturbelassenen nördlichen Mooren befasst. Die vorliegenden Ergebnisse machen deutlich, dass die untersuchten Moose ein ganz spezifisches mikrobielles Konsortium beherbergen, welches mutmaßlich eine Schlüsselrolle bei der Etablierung der Wirtspflanzen am Anfang der Moorentwicklung spielt und darüber hinaus das Potential hat, die charakteristischen Eigenschaften von Mooren sowie deren weitere Entwicklung zu prägen. KW - moss-microbe-interactions KW - moss-associated bacteria KW - moss-associated archaea KW - northern peatlands KW - peatland core microbiome KW - Acetobacteraceae KW - moss-associated methanotrophy KW - moss-associated methanogenesis KW - Sphagnum KW - Amblystegiaceae KW - endophytes KW - brown mosses KW - epiphytes KW - peatland development KW - bryophytes KW - host-specificity KW - large-scale study KW - methanotrophic bacteria KW - methanogenic archaea KW - Essigsäurebakterien KW - Amblystegiaceae KW - Torfmoose KW - Braunmoose KW - Bryophyten KW - Endophyten KW - Epiphyten KW - Wirtsspezifität KW - geographische Großstudie KW - methanproduzierende Archaeen KW - methanoxidierende Bakterien KW - Moos-assoziierte Methanproduktion KW - Moos-assoziierte Methanoxidation KW - Moos-Mikroben-Interaktion KW - nördliche Moore KW - mikrobielle Moor-Kerngemeinschaft KW - Moorsukzession Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630641 ER - TY - RPRT A1 - Lessmann, Kai A1 - Gruner, Friedemann A1 - Kalkuhl, Matthias A1 - Edenhofer, Ottmar T1 - Emissions Trading with Clean-up Certificates BT - Deterring Mitigation or Increasing Ambition? T2 - CEPA Discussion Papers N2 - We analyze how conventional emissions trading schemes (ETS) can be modified by introducing “clean-up certificates” to allow for a phase of net-negative emissions. Clean-up certificates bundle the permission to emit CO2 with the obligation for its removal. We show that demand for such certificates is determined by cost-saving technological progress, the discount rate and the length of the compliance period. Introducing extra clean-up certificates into an existing ETS reduces near-term carbon prices and mitigation efforts. In contrast, substituting ETS allowances with clean-up certificates reduces cumulative emissions without depressing carbon prices or mitigation in the near term. We calibrate our model to the EU ETS and identify reforms where simultaneously (i) ambition levels rise, (ii) climate damages fall, (iii) revenues from carbon prices rise and (iv) carbon prices and aggregate mitigation cost fall. For reducing climate damages, roughly half of the issued clean-up certificates should replace conventional ETS allowances. In the context of the EU ETS, a European Carbon Central Bank could manage the implementation of cleanup certificates and could serve as an enforcement mechanism. T3 - CEPA Discussion Papers - 79 KW - carbon removal KW - carbon pricing KW - net-negative emissions KW - carbon debt Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641368 SN - 2628-653X IS - 79 ER - TY - THES A1 - Schifferle, Lukas T1 - Optical properties of (Mg,Fe)O at high pressure T1 - Optische Eigenschaften von (Mg,Fe)O unter Hochdruck N2 - Large parts of the Earth’s interior are inaccessible to direct observation, yet global geodynamic processes are governed by the physical material properties under extreme pressure and temperature conditions. It is therefore essential to investigate the deep Earth’s physical properties through in-situ laboratory experiments. With this goal in mind, the optical properties of mantle minerals at high pressure offer a unique way to determine a variety of physical properties, in a straight-forward, reproducible, and time-effective manner, thus providing valuable insights into the physical processes of the deep Earth. This thesis focusses on the system Mg-Fe-O, specifically on the optical properties of periclase (MgO) and its iron-bearing variant ferropericlase ((Mg,Fe)O), forming a major planetary building block. The primary objective is to establish links between physical material properties and optical properties. In particular the spin transition in ferropericlase, the second-most abundant phase of the lower mantle, is known to change the physical material properties. Although the spin transition region likely extends down to the core-mantle boundary, the ef-fects of the mixed-spin state, where both high- and low-spin state are present, remains poorly constrained. In the studies presented herein, we show how optical properties are linked to physical properties such as electrical conductivity, radiative thermal conductivity and viscosity. We also show how the optical properties reveal changes in the chemical bonding. Furthermore, we unveil how the chemical bonding, the optical and other physical properties are affected by the iron spin transition. We find opposing trends in the pres-sure dependence of the refractive index of MgO and (Mg,Fe)O. From 1 atm to ~140 GPa, the refractive index of MgO decreases by ~2.4% from 1.737 to 1.696 (±0.017). In contrast, the refractive index of (Mg0.87Fe0.13)O (Fp13) and (Mg0.76Fe0.24)O (Fp24) ferropericlase increases with pressure, likely because Fe Fe interactions between adjacent iron sites hinder a strong decrease of polarizability, as it is observed with increasing density in the case of pure MgO. An analysis of the index dispersion in MgO (decreasing by ~23% from 1 atm to ~103 GPa) reflects a widening of the band gap from ~7.4 eV at 1 atm to ~8.5 (±0.6) eV at ~103 GPa. The index dispersion (between 550 and 870 nm) of Fp13 reveals a decrease by a factor of ~3 over the spin transition range (~44–100 GPa). We show that the electrical band gap of ferropericlase significantly widens up to ~4.7 eV in the mixed spin region, equivalent to an increase by a factor of ~1.7. We propose that this is due to a lower electron mobility between adjacent Fe2+ sites of opposite spin, explaining the previously observed low electrical conductivity in the mixed spin region. From the study of absorbance spectra in Fp13, we show an increasing covalency of the Fe-O bond with pressure for high-spin ferropericlase, whereas in the low-spin state a trend to a more ionic nature of the Fe-O bond is observed, indicating a bond weakening effect of the spin transition. We found that the spin transition is ultimately caused by both an increase of the ligand field-splitting energy and a decreasing spin-pairing energy of high-spin Fe2+. N2 - Geodynamische Prozesse werden von den physikalischen Materialeigenschaften unter den extremen Druck- und Temperaturbedingungen des Erdinneren gesteuert, gerade diese Areale sind aber faktisch nicht für direkte Beobachtungen zugänglich. Umso wichtiger ist es, die physikalischen Eigenschaften unter Bedingungen des Erdinneren zu untersuchen. Mit diesem Ziel vor Augen erlaubt das Studium der optischen Eigenschaften von Mineralen des Erdmantels, eine große Bandbreite an physikalischen Materialeigenschaften, in einer einfachen, reproduzierbaren und effizienten Art und Weise zu bestimmen. Dadurch bieten sich wichtige Einblicke in die physikalischen Prozessen des Erdinneren. Die vorliegende Arbeit konzentriert sich auf das System Mg-Fe-O, im Speziellen auf Periklas (MgO) und seine Eisen-haltige Variante Ferroperiklas ((Mg,Fe)O), ein wichtiger Baustein planetarer Körper. Das Hauptziel der Arbeit besteht darin Verbindungen zwischen optischen Eigenschaften und physikalischen Materialeigenschaften zu finden. Gerade der Spin-Übergang in Ferroperiklas, der zweithäufigsten Phase des unteren Erdmantels, ist dabei von Bedeutung, da damit Veränderungen in den physikalischen Materialeigenschaften einhergehen. Obwohl sich der Spinübergangsbereich vermutlich bis zur Kern-Mantel-Grenze erstreckt, sind die Auswirkungen des gemischten Spin-Zustandes, bei dem sowohl Hoch- als auch Tief-Spin präsent sind, nur unzureichend untersucht. Die hier vorgestellten Studien zeigen, wie optische Eigenschaften mit anderen wichtigen physikalischen Eigenschaften wie elektrischer und thermischer Leitfähigkeit, Viskosität oder auch mit der chemischen Bindung verbunden sind. Daraus lässt sich auch ableiten wie der Spin-Übergang in Ferroperiklas diese Eigenschaften beeinflusst. Von Raumbedingungen bis zu ~140 GPa sinkt der Brechungsindex von MgO um ~2.4 % von 1.737 auf 1.696 (±0.017). Im Gegensatz dazu steigt der Brechungsindex von (Mg0.87Fe0.13)O (Fp13) und (Mg0.76Fe0.24)O (Fp24) Ferroperiklas mit dem Druck an. Dies ist auf Fe-Fe Wechselwirkungen zwischen benachbarten Eisenpositionen zurückzuführen, die eine starke Verringerung der Polarisierbarkeit, wie im Falle von reinem MgO mit zunehmender Dichte, behindern. Eine Analyse der Dispersion des Brechungsindexes von MgO (Abnahme um ~23 % von 1 Atm zu ~103 GPa) offenbart eine Verbreiterung der Bandlücke von ~7.4 eV bei 1 Atm zu ~8.5 (±0.6) eV bei ~103 GPa. Die Messung der Dispersion (zwischen 550 und 870 nm) in Fp13 zeigt eine starke Abnahme über den Bereich des Spin-Überganges (~44–100 GPa) bis zu einem Faktor von ~3. Die Bandlücke nimmt in der Region des gemischten Spin-Zustandes signifikant auf bis zu ~4.7 eV zu (entspricht einer Zunahme um den Faktor ~1.7). Dies deutet auf eine Verringerung der Elektronen-Mobilität zwischen benachbarten Fe2+-Positionen mit unterschiedlichem Spin-Zustand hin, was die bereits in früheren Arbeiten beobachtete Abnahme der elektrischen Leitfähigkeit im Bereich des gemischten Spin-Zustandes erklärt. Absorptionsspektren an Fp13 zeigen eine Druck-bedingte Zunahme der Kovalenz der Fe-O Bindung für Ferroperiklas im Hoch-Spin Zustand, wohingegen Tief-Spin Ferroperiklas einen Trend zu einer mehr ionischen Fe-O Bindung auf-weist, was auf einen Bindungs-schwächenden Effekt des Spin-Wechsels hinweist. Der Übergang von Hoch- zu Tiefspin ist letztlich auf eine Zunahme der Ligandenfeldaufspaltungsenergie sowie eine abnehmende Spinpaarungsenergie von Hoch-Spin Fe2+ zurückzuführen. KW - optical properties KW - optische Eigenschaften KW - high pressure KW - Hochdruck KW - earth mantle KW - Erdmantel KW - diamond anvil cell KW - Diamantstempelzelle KW - ferropericlase KW - Ferroperiklas KW - spectroscopy KW - Spektroskopie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-622166 ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Martin, Johannes T1 - Synthesis of protein-polymer conjugates and block copolymers via sortase-mediated ligation N2 - In den vergangenen Jahrzehnten haben therapeutische Proteine in der pharmazeutischen Industrie mehr und mehr an Bedeutung gewonnen. Werden Proteine nichtmenschlichen Ursprungs verwendet, kann es jedoch zu einer Immunreaktion kommen, sodass das Protein sehr schnell aus dem Körper ausgeschieden oder abgebaut wird. Um die Zirkulationszeit im Blut signifikant zu verlängern, werden die Proteine mit synthetischen Polymeren modifiziert (Protein-Polymer-Konjugate). Die Proteine aller heute auf dem Markt erhältlichen Medikamente dieser Art tragen eine oder mehrere Polymerketten aus Poly(ethylenglycol) (PEG). Ein Nachteil der PEGylierung ist, dass viele Patienten bei regelmäßiger Einnahme dieser Medikamente Antikörper gegen PEG entwickeln, die den effizienzsteigernden Effekt der PEGylierung wieder aufheben. Ein weiterer Nachteil der PEGylierung ist die oftmals deutlich verringerte Aktivität der Konjugate im Vergleich zum nativen Protein. Der Grund dafür ist die Herstellungsmethode der Konjugate, bei der meist die primären Amine der Lysin-Seitenketten und der N-Terminus des Proteins genutzt werden. Da die meisten Proteine mehrere gut zugängliche Lysine aufweisen, werden oft unterschiedliche und teilweise mehrere Lysine mit PEG funktionalisiert, was zu einer Mischung an Regioisomeren führt. Je nach Position der PEG-Kette kann das aktive Zentrum abgeschirmt oder die 3D-Struktur des Proteins verändert werden, was zu einem teilweise drastischen Aktivitätsabfall führt. In dieser Arbeit wurde eine neuartige Methode zur Ligation von Makromolekülen untersucht. Die Verwendung eines Enzyms als Katalysator zur Verbindung zweier Makromoleküle ist bisher wenig untersucht und ineffizient. Als Enzym wurde Sortase A ausgewählt, eine gut untersuchte Ligase aus der Familie der Transpeptidasen, welche die Ligation zweier Peptide katalysieren kann. Ein Nachteil dieser Sortase-vermittelten Ligation ist, dass es sich um eine Gleichgewichtsreaktion handelt, wodurch hohe Ausbeuten schwierig zu erreichen sind. Im Rahmen dieser Dissertation wurden zwei zuvor entwickelte Methoden zur Verschiebung des Gleichgewichts ohne Einsatz eines großen Überschusses von einem Edukt für Makromoleküle überprüft. Zur Durchführung der Sortase-vermittelten Ligation werden zwei komplementäre Peptidsequenzen verwendet, die Erkennungssequenz und das Nukleophil. Um eine systematische Untersuchung durchführen zu können, wurden alle nötigen Bausteine (Protein-Erkennungssequenz zur Reaktion mit Nukleophil-Polymer und Polymer-Erkennungssequenz mit Nukleophil-Protein) hergestellt. Als Polymerisationstechnik wurde die radikalische Polymerisation mit reversibler Deaktivierung (im Detail, Atom Transfer Radical Polymerization, ATRP und Reversible Addition-Fragmentation Chain Transfer, RAFT polymerization) gewählt, um eine enge Molmassenverteilung zu erreichen. Die Herstellung der Bausteine begann mit der Synthese der Peptide via automatisierter Festphasen-Peptidsynthese, um eine einfache Änderung der Peptidsequenz zu gewährleisten und um eine Modifizierung der Polymerkette nach der Polymerisation zu umgehen. Um die benötigte unterschiedliche Funktionalität der zwei Peptidsequenzen (freier C-Terminus bei der Erkennungssequenz bzw. freier N-Terminus bei dem Nukleophil) zu erreichen, wurden verschiedene Linker zwischen Harz und Peptid verwendet. Danach wurde der Kettenüberträger (chain transfer agent, CTA) zur Kontrolle der Polymerisation mit dem auf dem Harz befindlichen Peptid gekoppelt. Die für die anschließende Polymerisation verwendeten Monomere basierten auf Acrylamiden und Acrylaten und wurden anhand ihrer Eignung als Alternativen zu PEG ausgewählt. Es wurde eine kürzlich entwickelte Technik basierend auf der RAFT-Polymerisation (xanthate-supported photo-iniferter RAFT, XPI-RAFT) verwendet um eine Reihe an Peptid-Polymeren mit unterschiedlichen Molekulargewichten und engen Molekulargewichtsverteilungen herzustellen. Nach Entfernung der Schutzgruppen der Peptid-Seitenketten wurden die Peptid-Polymere zunächst genutzt, um mittels Sortase-vermittelter Ligation zwei Polymerketten zu einem Blockcopolymer zu verbinden. Unter Verwendung von Ni2+-Ionen in Kombination mit einer Verlängerung der Erkennungssequenz um ein Histidin zur Unterdrückung der Rückreaktion konnte ein maximaler Umsatz von 70 % erreicht werden. Dabei zeigte sich ein oberes Limit von durchschnittlich 100 Wiederholungseinheiten; die Ligation von längeren Polymeren war nicht erfolgreich. Danach wurden ein Modellprotein und ein Nanobody mit vielversprechenden medizinischen Eigenschaften mit den für die enzymkatalysierte Ligation benötigten Peptidsequenzen für die Kopplung mit den zuvor hergestellten Peptid-Polymeren verwendet. Dabei konnte bei Verwendung des Modellproteins keine Bildung von Protein-Polymer-Konjugaten beobachtet werden. Der Nanobody konnte dagegen C-terminal mit einem Polymer funktionalisiert werden. Dabei wurde eine ähnliche Limitierung in der Polymer-Kettenlänge beobachtet wie zuvor. Die auf Ni-Ionen basierte Strategie zur Gleichgewichtsverschiebung hatte hier keinen ausschlaggebenden Effekt, während die Verwendung von einem Überschuss an Polymer zur vollständigen Umsetzung des Edukt-Nanobody führte. Die erhaltenen Daten aus diesem Projekt bilden eine gute Basis für weitere Forschung in dem vielversprechenden Feld der enzymkatalysierten Herstellung von Protein-Polymer-Konjugaten und Blockcopolymeren. Langfristig könnte diese Herangehensweise eine vielseitig einsetzbare Herstellungsmethode von ortsspezifischen therapeutischen Protein-Polymer Konjugaten darstellen, welche sowohl eine hohe Aktivität als auch eine lange Zirkulationszeit im Blut aufweisen. N2 - During the last decades, therapeutical proteins have risen to great significance in the pharmaceutical industry. As non-human proteins that are introduced into the human body cause a distinct immune system reaction that triggers their rapid clearance, most newly approved protein pharmaceuticals are shielded by modification with synthetic polymers to significantly improve their blood circulation time. All such clinically approved protein-polymer conjugates contain polyethylene glycol (PEG) and its conjugation is denoted as PEGylation. However, many patients develop anti-PEG antibodies which cause a rapid clearance of PEGylated molecules upon repeated administration. Therefore, the search for alternative polymers that can replace PEG in therapeutic applications has become important. In addition, although the blood circulation time is significantly prolonged, the therapeutic activity of some conjugates is decreased compared to the unmodified protein. The reason is that these conjugates are formed by the traditional conjugation method that addresses the protein's lysine side chains. As proteins have many solvent exposed lysines, this results in a somewhat uncontrolled attachment of polymer chains, leading to a mixture of regioisomers, with some of them eventually affecting the therapeutic performance. This thesis investigates a novel method for ligating macromolecules in a site-specific manner, using enzymatic catalysis. Sortase A is used as the enzyme: It is a well-studied transpeptidase which is able to catalyze the intermolecular ligation of two peptides. This process is commonly referred to as sortase-mediated ligation (SML). SML constitutes an equilibrium reaction, which limits product yield. Two previously reported methods to overcome this major limitation were tested with polymers without using an excessive amount of one reactant. Specific C- or N-terminal peptide sequences (recognition sequence and nucleophile) as part of the protein are required for SML. The complementary peptide was located at the polymer chain end. Grafting-to was used to avoid damaging the protein during polymerization. To be able to investigate all possible combinations (protein-recognition sequence and nucleophile-protein as well as polymer-recognition sequence and nucleophile-polymer) all necessary building blocks were synthesized. Polymerization via reversible deactivation radical polymerization (RDRP) was used to achieve a narrow molecular weight distribution of the polymers, which is required for therapeutic use. The synthesis of the polymeric building blocks was started by synthesizing the peptide via automated solid-phase peptide synthesis (SPPS) to avoid post-polymerization attachment and to enable easy adaptation of changes in the peptide sequence. To account for the different functionalities (free N- or C-terminus) required for SML, different linker molecules between resin and peptide were used. To facilitate purification, the chain transfer agent (CTA) for reversible addition-fragmentation chain-transfer (RAFT) polymerization was coupled to the resin-immobilized recognition sequence peptide. The acrylamide and acrylate-based monomers used in this thesis were chosen for their potential to replace PEG. Following that, surface-initiated (SI) ATRP and RAFT polymerization were attempted, but failed. As a result, the newly developed method of xanthate-supported photo-iniferter (XPI) RAFT polymerization in solution was used successfully to obtain a library of various peptide-polymer conjugates with different chain lengths and narrow molar mass distributions. After peptide side chain deprotection, these constructs were used first to ligate two polymers via SML, which was successful but revealed a limit in polymer chain length (max. 100 repeat units). When utilizing equimolar amounts of reactants, the use of Ni2+ ions in combination with a histidine after the recognition sequence to remove the cleaved peptide from the equilibrium maximized product formation with conversions of up to 70 %. Finally, a model protein and a nanobody with promising properties for therapeutical use were biotechnologically modified to contain the peptide sequences required for SML. Using the model protein for C- or N-terminal SML with various polymers did not result in protein-polymer conjugates. The reason is most likely the lack of accessibility of the protein termini to the enzyme. Using the nanobody for C-terminal SML, on the other hand, was successful. However, a similar polymer chain length limit was observed as in polymer-polymer SML. Furthermore, in case of the synthesis of protein-polymer conjugates, it was more effective to shift the SML equilibrium by using an excess of polymer than by employing the Ni2+ ion strategy. Overall, the experimental data from this work provides a good foundation for future research in this promising field; however, more research is required to fully understand the potential and limitations of using SML for protein-polymer synthesis. In future, the method explored in this dissertation could prove to be a very versatile pathway to obtain therapeutic protein-polymer conjugates that exhibit high activities and long blood circulation times. KW - biohybrid molecules KW - sortaseA KW - polymerization KW - RAFT KW - ATRP KW - peptide synthesis KW - enzymatic conjugation KW - sortagging Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645669 ER - TY - THES A1 - Windirsch-Woiwode, Torben T1 - Permafrost carbon stabilisation by recreating a herbivore-driven ecosystem T1 - Stabilisierung von Permafrostkohlenstoff durch die Wiedereinführung eines Herbivor-geprägten Ökosystems N2 - With Arctic ground as a huge and temperature-sensitive carbon reservoir, maintaining low ground temperatures and frozen conditions to prevent further carbon emissions that contrib-ute to global climate warming is a key element in humankind’s fight to maintain habitable con-ditions on earth. Former studies showed that during the late Pleistocene, Arctic ground condi-tions were generally colder and more stable as the result of an ecosystem dominated by large herbivorous mammals and vast extents of graminoid vegetation – the mammoth steppe. Characterised by high plant productivity (grassland) and low ground insulation due to animal-caused compression and removal of snow, this ecosystem enabled deep permafrost aggrad-ation. Now, with tundra and shrub vegetation common in the terrestrial Arctic, these effects are not in place anymore. However, it appears to be possible to recreate this ecosystem local-ly by artificially increasing animal numbers, and hence keep Arctic ground cold to reduce or-ganic matter decomposition and carbon release into the atmosphere. By measuring thaw depth, total organic carbon and total nitrogen content, stable carbon iso-tope ratio, radiocarbon age, n-alkane and alcohol characteristics and assessing dominant vegetation types along grazing intensity transects in two contrasting Arctic areas, it was found that recreating conditions locally, similar to the mammoth steppe, seems to be possible. For permafrost-affected soil, it was shown that intensive grazing in direct comparison to non-grazed areas reduces active layer depth and leads to higher TOC contents in the active layer soil. For soil only frozen on top in winter, an increase of TOC with grazing intensity could not be found, most likely because of confounding factors such as vertical water and carbon movement, which is not possible with an impermeable layer in permafrost. In both areas, high animal activity led to a vegetation transformation towards species-poor graminoid-dominated landscapes with less shrubs. Lipid biomarker analysis revealed that, even though the available organic material is different between the study areas, in both permafrost-affected and sea-sonally frozen soils the organic material in sites affected by high animal activity was less de-composed than under less intensive grazing pressure. In conclusion, high animal activity af-fects decomposition processes in Arctic soils and the ground thermal regime, visible from reduced active layer depth in permafrost areas. Therefore, grazing management might be utilised to locally stabilise permafrost and reduce Arctic carbon emissions in the future, but is likely not scalable to the entire permafrost region. N2 - Mit dem arktischen Boden als riesigem und temperatursensiblen Kohlenstoffspeicher ist die Aufrechterhaltung niedriger Bodentemperaturen und gefrorener Bedingungen zur Verhinde-rung weiterer Kohlenstoffemissionen, die zum globalen Klimawandel beitragen, ein Schlüs-selelement im Kampf der Menschheit, die Erde weiterhin bewohnbar zu halten. Vorangehen-de Studien ergaben, dass die Bodenbedingungen in der Arktis während des späten Pleisto-zäns im Allgemeinen kälter und dadurch stabiler waren, als Ergebnis eines Ökosystems, das von großen pflanzenfressenden Säugetieren und weiten Flächen grasartiger Vegetation do-miniert wurde - der Mammutsteppe. Gekennzeichnet durch hohe Pflanzenproduktivität (Gras-land) und geringe Bodenisolierung aufgrund von Kompression und Schneeräumung durch Tiere, ermöglichte dieses Ökosystem eine tiefreichende Entwicklung des Permafrosts. Heut-zutage, mit der vorherrschenden Tundra- und Strauchvegetation in der Arktis, sind diese Ef-fekte nicht mehr präsent. Es scheint aber möglich, dieses Ökosystem lokal durch künstliche Erhöhung der Tierbestände nachzubilden und somit den arktischen Boden kühl zu halten, um den Abbau von organischem Material und die Freisetzung von Kohlenstoff in die Atmosphäre zu verringern. Durch Messungen der Auftautiefe, des Gesamtgehalts des organischen Kohlenstoffs und Stickstoffs, des stabilen Kohlenstoff-Isotopenverhältnisses, des Radiocarbonalters, der n-Alkan- und Alkoholcharakteristika sowie durch Bestimmung der vorherrschenden Vegetati-onstypen entlang von Beweidungsgradienten in zwei unterschiedlichen arktischen Gebieten habe ich festgestellt, dass die Schaffung ähnlicher Bedingungen wie in der Mammutsteppe möglich sein könnte. Für durch Permafrost beeinflusste Böden konnte ich zeigen, dass eine intensive Beweidung im direkten Vergleich mit unbeweideten Gebieten die Tiefe der Auftau-schicht verringert und zu höheren Gehalten an organischem Kohlenstoff im oberen Bodenbe-reich führt. Für im Winter nur oberflächlich gefrorene Böden konnte kein Anstieg des organi-schen Kohlenstoffgehalts mit zunehmender Beweidungsintensität festgestellt werden, höchstwahrscheinlich aufgrund von Störfaktoren wie vertikalen Wasser- und Kohlenstoffbe-wegungen, die nicht durch eine undurchlässige Schicht wie beim Permafrost begrenzt sind. In beiden Gebieten führte eine hohe Tieraktivität zu einer Umwandlung der Vegetation hin zu artenarmen, von Gräsern dominierten Landschaften mit weniger Sträuchern. Die Analyse von Lipid-Biomarkern ergab, dass das verfügbare organische Material zwar zwischen den Unter-suchungsgebieten unterschiedlich war, aber sowohl in Permafrostgebieten als auch in saiso-nal gefrorenen Böden in Bereichen mit hoher Tieraktivität weniger stark zersetzt war als unter geringerer Beweidungsintensität. Zusammenfassend beeinflusst eine hohe Tieraktivität die Zersetzungsvorgänge in arktischen Böden und das thermische Regime des Bodens, was sich in einer reduzierten Tiefe der Auftauschicht in Permafrostgebieten widerspiegelt. Daher könn-te das Beweidungsmanagement in Zukunft aktiv eingesetzt werden, um den Permafrost lokal zu stabilisieren und gefroren zu halten sowie die Kohlenstoffemissionen in der Arktis zu ver-ringern. Aufgrund der Größe der Fläche, die in der terrestrischen Arktis von Permafrost be-einflusst ist, wird ein solches Beweidungsmanagement aber nicht als Maßnahme auf die ge-samte Permafrostregion ausgedehnt werden können. KW - permafrost KW - carbon KW - climate change KW - grazing KW - Arctic KW - Arktis KW - Kohlenstoff KW - Klimawandel KW - Beweidung KW - Permafrost Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624240 ER - TY - GEN ED - Bubeck, Marc ED - Haltaufderheide, Joschka ED - Sakowsky, Ruben Andreas ED - Ranisch, Robert T1 - Erklärung Potsdamer Bürgerinnen und Bürger zur Robotik in der Altenpflege N2 - Die bedarfsgerechte Versorgung im Alter zukünftig sicherzustellen, gehört zu den entscheidenden Aufgaben unserer Zeit. Der in Deutschland bestehende Fachkräftemangel sowie der demografische Wandel belasten das Pflegesystem in mehrfacher Hinsicht: In einer alternden Gesellschaft sind immer mehr Menschen auf eine anhaltende Unterstützung angewiesen. Niedrige Geburtenraten und damit verbunden ein sinkender Bevölkerungs-anteil von Menschen im erwerbsfähigen Alter bringen einen bereits heute spürbaren Mangel an beruflich Pflegenden mit sich. Um eine menschenwürdige Pflege anhaltend zu gewährleisten, müssen vorhandene Ressourcen gezielter eingesetzt und zusätzliche Reserven freigelegt werden. Viele Hoffnungen liegen hier auf technologischen Innovationen. Die Digitalisierung soll das Gesundheitswesen effizienter gestalten und beispielsweise durch Künstliche Intelligenz zeitraubende Prozesse vereinfachen oder sogar automatisieren. Im Kontext der Pflege wird der Einsatz von robotischen Assistenzsystemen diskutiert. Aus diesem Grund wurde die die Potsdamer Bürger:innenkonferenz „Robotik in der Altenpflege?“ initiiert. Um die Zukunft der Pflege gemeinsam zu gestalten, wurden 3.500 Potsdamer Bürgerinnen und Bürger kontaktiert und schließlich fünfundzwanzig Teilnehmende ausgewählt. Im Frühjahr 2024 kamen sie zusammen, um den verantwortlichen Einsatz von Robotik in der Pflege zu diskutieren. Die hier vorliegende Erklärung ist das Ergebnis der Bürger:innenkonferenz. Sie enthält die zentralen Positionen der Teilnehmenden. Die Bürger:innenkonferenz ist Teil des Projekts E-cARE („Ethics Guidelines for Socially Assistive Robots in Elderly Care: An Empirical-Participatory Approach“), welches die Juniorprofessur für Medizinische Ethik mit Schwerpunkt auf Digitalisierung der Fakultät für Gesundheitswissenschaften Brandenburg, Universität Potsdam, durchgeführt hat. KW - Medizinethik KW - Pflege KW - Ethik KW - Gesundheitswissenschaften KW - Partizipation KW - Roboter KW - Pflegerobotik KW - Technikfolgenabschätzung KW - Bürgerrat KW - Bürgerkonferenz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649589 ER - TY - JOUR A1 - Kern, Kristine A1 - Kochskämper, Elisa ED - Schmidt, Thorsten Ingo ED - Bickenbach, Christian ED - Gronewold, Ulfert ED - Kuhlmann, Sabine ED - Ulrich, Peter T1 - Wege zur urbanen Transformation BT - Herausforderungen und Lösungsansätze für die Landeshauptstadt Potsdam JF - Kommunalwissenschaften an der Universität Potsdam (KWI-Schriften ; 15) KW - Transformation KW - Stadt KW - Potsdam KW - Klimapolitik KW - Kommune Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647882 SN - 978-3-86956-581-1 SN - 1867-951X SN - 1867-9528 IS - 15 SP - 101 EP - 109 PB - Universitätsverlag Potsdam CY - Potsdam ER -