TY - THES A1 - Meinke, Anja T1 - Nikotineffekte auf räumliche Aufmerksamkeitsprozesse bei Nichtrauchern T1 - Effects of nicotine on visual attention in non-smokers N2 - Nikotin in den unterschiedlichsten Darreichungsformen verringert bei verschiedenen Spezies im räumlichen Hinweisreizparadigma die Kosten invalider Hinweisreize. Welcher Teilprozess genau durch Nikotin beeinflusst wird, ist bislang nicht untersucht worden. Die gängige Interpretation ist, daß Nikotin das Loslösen von Aufmerksamkeit von einem bisher beachteten Ort erleichtert. In fünf Studien, drei elektrophysiologischen und zwei behavioralen wurden drei mögliche Mechanismen der Nikotinwirkung an Nichtrauchern untersucht. Experiment 1 und 2 gingen der Frage nach, ob Nikotin eine Modulation sensorischer gain Kontrolle bewirkt. Dazu wurden ereigniskorrelierte Potentiale (EKP) im Posner-Paradigma erhoben und die Wirkung von Nikotin auf die aufmerksamkeitsassoziierten Komponenten P1 und N1 betrachtet. Nikotin verringerte die Kosten invalider Hinweisreize bei Aufmerksamkeitslenkung durch endogene Hinweisreize, nicht aber bei exogenen Hinweisreizen. Die P1 und N1 Komponenten zeigten sich unbeeinflusst von Nikotin, damit findet also die Annahme einer Wirkung auf sensorische Suppression keine Unterstützung. In Experiment 3 und 4 wurde untersucht, ob Nikotin einen Effekt auf kostenträchtige unwillkürliche Aufmerksamkeitsverschiebungen, Distraktionen, hat. In Experiment 3 wurden in einem räumlichen Daueraufmerksamkeitsparadigma Distraktionen durch deviante Stimulusmerkmale ausgelöst und die Wirkung von Nikotin auf eine distraktionsassoziierte Komponente des EKP, die P3a, betrachtet. In Experiment 4 wurde in einem Hinweisreizparadigma durch zusätzliche Stimuli eine Distraktion ausgelöst und die Nikotinwirkung auf die Reaktionszeitkosten untersucht. Nikotin zeigte keinen Einfluss auf Distraktionskosten in beiden Studien und auch keine Wirkung auf die P3a Komponente in Experiment 3. In Experiment 4 wurde zusätzlich die Wirkung von Nikotin auf das Loslösen von Aufmerksamkeit untersucht, indem die Schwierigkeit des Loslösens variiert wurde. Auch hier zeigte sich keine Nikotinwirkung. Allerdings konnte in beiden Studien weder die häufig berichtete generelle Reaktionszeitverkürzung noch die Verringerung der Kosten invalider Hinweisreize repliziert werden, so dass zum Einen keine Aussage über die Wirkung von Nikotin auf Distraktionen oder den Aufmerksamkeitsloslöseprozess gemacht werden können, zum Anderen sich die Frage stellte, unter welchen Bedingungen Nikotin einen differentiellen Effekt überhaupt zeigt. Im letzten Experiment wurde hierzu die Häufigkeit der Reaktionsanforderung einerseits und die zeitlichen Aspekte der Aufmerksamkeitslenkung andererseits variiert und der Effekt des Nikotins auf den Validitätseffekt, die Reaktionszeitdifferenz zwischen valide und invalide vorhergesagten Zielreizen, betrachtet. Nikotin verringerte bei Individuen, bei denen Aufmerksamkeitslenkung in allen Bedingungen evident war, in der Tendenz den Validitätseffekt in der ereignisärmsten Bedingung, wenn nur selten willentliche Aufmerksamkeitsausrichtung notwendig war. Dies könnte als Hinweis gedeutet werden, dass Nikotin unter Bedingungen, die große Anforderungen an die Vigilanz stellen, die top-down Zuweisung von Aufmerksamkeitsressourcen unterstützt. N2 - Nicotine has consistently been shown to improve performance on a range of attentional tasks. In spatial cueing (Posner-type) paradigms, where a cue indicates the likely location of a subsequent target stimulus, nicotine influences the ability to react to invalidly cued targets across different species and ways of administration. Previous research suggested that the cholinergic effect is due to a facilitated disengagemant of attention from the cued location. In five studies with nonsmoking subjects, three candidate mechanisms of nicotinic action were examined. Experiment 1 and experiment 2 investigated whether nicotine modulates attentional processes of sensory gain control. In a Posner-paradigm event-related potentials (ERP) were measured and the effect of nicotine on the attention-related components P1 and N1 was assessed. Behaviorally, nicotine reduced the costs of invalid cueing when cues were endogenous, but not with exogenous cues. Electrophysiologically, the P1 and N1 components were not affected by nicotine. These data provide therefore no support for the notion of a nicotine-modulated attentional suppression. In experiment 3 and 4 the effect of nicotine on involuntary distracting attention shifts was investigated. In experiment 3 ERPs were measured in a spatial sustained attention paradigm, where rare changes in a target stimulus attribute were used as distractors. The effect of nicotine on the distraction-associated P3a component was assessed. In experiment 4 the effect of nicotine on the reaction time costs of additional distracting stimuli was studied in a Posner paradigm. In both studies nicotine did not show an effect on distractions, neither in the reaction time costs nor in the parameters of the P3a component. Experiment 4 also investigated whether nicotine has an effect on the disengagement of attention by varying the difficulty of disengaging one's focus from the cued location. Again, nicotine did not show an effect. However, experiment 3 and 4 also neither replicated the commonly reported general nicotinic reduction of reaction times nor the differential reduction of the costs of invalid cueing. Therefore, regarding the effect of nicotine on distraction and on the disengagement of attention the data remain inconclusive. However, these data suggest that there are conditions and mechanisms moderating nicotinic action, that are still unknown. Accordingly, experiment 5 made the attempt to determine such conditions. Response frequency and temporal characteristics of attention orientation were varied. In individuals, who evidently had shifted their attention, nicotine reduced the validity effect under uneventful conditions, when attention was not to be shifted in each trial. This might suggest that nicotine facilitates the top-down allocation of attentional resources in vigilance-demanding situations. KW - Nicotin KW - Aufmerksamkeit KW - Kognition KW - Acetylcholin KW - Ereigniskorreliertes Potenzial KW - attention KW - nicotine KW - actylcholine KW - cognition KW - event-related potentials Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7659 ER - TY - THES A1 - Ketzer, Laura T1 - The impact of stellar activity evolution on atmospheric mass loss of young exoplanets T1 - Der Einfluss der stellaren Aktivitätsentwicklung auf den atmosphärischen Massenverlust von jungen Exoplaneten N2 - The increasing number of known exoplanets raises questions about their demographics and the mechanisms that shape planets into how we observe them today. Young planets in close-in orbits are exposed to harsh environments due to the host star being magnetically highly active, which results in high X-ray and extreme UV fluxes impinging on the planet. Prolonged exposure to this intense photoionizing radiation can cause planetary atmospheres to heat up, expand and escape into space via a hydrodynamic escape process known as photoevaporation. For super-Earth and sub-Neptune-type planets, this can even lead to the complete erosion of their primordial gaseous atmospheres. A factor of interest for this particular mass-loss process is the activity evolution of the host star. Stellar rotation, which drives the dynamo and with it the magnetic activity of a star, changes significantly over the stellar lifetime. This strongly affects the amount of high-energy radiation received by a planet as stars age. At a young age, planets still host warm and extended envelopes, making them particularly susceptible to atmospheric evaporation. Especially in the first gigayear, when X-ray and UV levels can be 100 - 10,000 times higher than for the present-day sun, the characteristics of the host star and the detailed evolution of its high-energy emission are of importance. In this thesis, I study the impact of stellar activity evolution on the high-energy-induced atmospheric mass loss of young exoplanets. The PLATYPOS code was developed as part of this thesis to calculate photoevaporative mass-loss rates over time. The code, which couples parameterized planetary mass-radius relations with an analytical hydrodynamic escape model, was used, together with Chandra and eROSITA X-ray observations, to investigate the future mass loss of the two young multiplanet systems V1298 Tau and K2-198. Further, in a numerical ensemble study, the effect of a realistic spread of activity tracks on the small-planet radius gap was investigated for the first time. The works in this thesis show that for individual systems, in particular if planetary masses are unconstrained, the difference between a young host star following a low-activity track vs. a high-activity one can have major implications: the exact shape of the activity evolution can determine whether a planet can hold on to some of its atmosphere, or completely loses its envelope, leaving only the bare rocky core behind. For an ensemble of simulated planets, an observationally-motivated distribution of activity tracks does not substantially change the final radius distribution at ages of several gigayears. My simulations indicate that the overall shape and slope of the resulting small-planet radius gap is not significantly affected by the spread in stellar activity tracks. However, it can account for a certain scattering or fuzziness observed in and around the radius gap of the observed exoplanet population. N2 - Die steigende Anzahl bekannter Exoplaneten wirft Fragen zu ihrer Demografie und den Mechanismen auf, die Planeten in ihre heutige beobachtete Form bringen. Junge Planeten, die sehr nah um ihren Wirtsstern kreisen, sind extremen Umgebungen ausgesetzt, da der Stern eine hohe magnetische Aktivität aufweist. Das führt wiederum dazu, dass der Planet einer enormen Röntgen- und Extrem-UV-Strahlung ausgesetzt ist. Ist der Planet über einen längeren Zeitraum dieser intensiven photoionisierenden Strahlung ausgesetzt, kann dies dazu führen, dass Planetenatmosphären sich aufheizen, ausdehnen und durch einen hydrodynamischen Entweichungsprozess namens Photoevaporation ins All entweichen, sozusagen verdampfen. Bei Planeten, in der Größenordnung von Super-Erden und Sub-Neptunen, kann dies sogar zur vollständigen Erosion ihrer Ur-Atmosphären führen. Ein interessanter Faktor, der für diesen Massenverlustprozess eine Rolle spielt, ist die Aktivitätsentwicklung des Wirtssterns. Die Rotation eines Sterns, die den Dynamo und damit die magnetische Aktivität antreibt, ändert sich im Laufe der Lebensdauer eines Sterns erheblich. Dies hat einen starken Einfluss auf die Menge der hochenergetischen Strahlung, den ein Planet mit zunehmendem Alter des Sterns empfängt. In jungen Jahren besitzen Planeten noch warme und ausgedehnte Hüllen, was sie besonders anfällig für atmosphärische Verdunstung macht. Insbesondere in den ersten Gigajahren, wenn die Röntgen- und UV-Strahlung 100 - 10,000 Mal höher sein kann als bei der heutigen Sonne, sind die Eigenschaften des Wirtssterns und die detaillierte Entwicklung seiner hochenergetischen Emission von Bedeutung. In dieser Arbeit untersuche ich die Auswirkungen der Entwicklung der stellaren Aktivität auf den durch hochenergetische Strahlung verursachten atmosphärischen Massenverlust junger Exoplaneten. Der PLATYPOS-Code wurde im Rahmen dieser Arbeit entwickelt, um die photoevaporativen Massenverlustraten für verschiedene stellare Alter zu berechnen. Der Code verknüpft parametrisierte Planetenmasse-Radius-Beziehungen mit einem analytischen Modell für den hydrodynamischen Massenverlust. Er wurde zusammen mit Chandra- und eROSITA-Röntgenbeobachtungen dazu verwendet, den zukünftigen Massenverlust der beiden jungen Mehrplanetensysteme V1298 Tau und K2-198 zu untersuchen. Darüber hinaus wurde in einer numerischen Ensemblestudie erstmals der Effekt einer realistischen Verteilung von stellaren Aktivitäts-Tracks auf das sogenannte Radius-Tal bei kleinen Planeten untersucht. Die Arbeiten in dieser Dissertation zeigen, dass für einzelne Systeme, insbesondere wenn die Planetenmassen unbestimmt sind, der Unterschied zwischen einem jungen Wirtsstern, der einem Track mit niedriger Aktivität gegenüber einem solchen mit hoher Aktivität folgt, gravierende Auswirkungen haben kann: Die genaue Form der Aktivitätsentwicklung kann darüber entscheiden, ob ein Planet einen Teil seiner Atmosphäre behält oder seine Hülle vollständig verliert und nur den nackten Gesteinskern behält. Für ein Ensemble von simulierten Planeten ändert eine durch Beobachtungen motivierte Verteilung von Aktivitäts-Tracks die endgültige Radiusverteilung der Planeten nach mehreren Gigajahren nicht wesentlich. Meine Simulationen deuten darauf hin, dass die Form und Steigung des sich ergebenden Radius-Tals bei Kleinplaneten nicht wesentlich von der Streuung der stellaren Aktivitäts-Tracks beeinflusst wird. Eine gewisse Streuung oder Unschärfe im Radius-Tal der beobachteten Exoplanetenpopulation kann damit allerdings durchaus erklärt werden. KW - Exoplaneten KW - star-planet interaction KW - stellar physics KW - exoplanets KW - exoplanet atmospheres KW - Sternphysik KW - Stern-Planeten-Wechselwirkung KW - Exoplanetenatmosphären Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626819 ER - TY - THES A1 - Sieg, Tobias T1 - Reliability of flood damage estimations across spatial scales T1 - Verlässlichkeit von Hochwasserschadensschätzungen über räumliche Skalen N2 - Extreme Naturereignisse sind ein integraler Bestandteil der Natur der Erde. Sie werden erst dann zu Gefahren für die Gesellschaft, wenn sie diesen Ereignissen ausgesetzt ist. Dann allerdings können Naturgefahren verheerende Folgen für die Gesellschaft haben. Besonders hydro-meteorologische Gefahren wie zum Beispiel Flusshochwasser, Starkregenereignisse, Winterstürme, Orkane oder Tornados haben ein hohes Schadenspotential und treten rund um den Globus auf. Einhergehend mit einer immer wärmer werdenden Welt, werden auch Extremwetterereignisse, welche potentiell Naturgefahren auslösen können, immer wahrscheinlicher. Allerdings trägt nicht nur eine sich verändernde Umwelt zur Erhöhung des Risikos von Naturgefahren bei, sondern auch eine sich verändernde Gesellschaft. Daher ist ein angemessenes Risikomanagement erforderlich um die Gesellschaft auf jeder räumlichen Ebene an diese Veränderungen anzupassen. Ein essentieller Bestandteil dieses Managements ist die Abschätzung der ökonomischen Auswirkungen der Naturgefahren. Bisher allerdings fehlen verlässliche Methoden um die Auswirkungen von hydro-meteorologischen Gefahren abzuschätzen. Ein Hauptbestandteil dieser Arbeit ist daher die Entwicklung und Anwendung einer neuen Methode, welche die Verlässlichkeit der Schadensschätzung verbessert. Die Methode wurde beispielhaft zur Schätzung der ökonomischen Auswirkungen eines Flusshochwassers auf einzelne Unternehmen bis hin zu den Auswirkungen auf das gesamte Wirtschaftssystem Deutschlands erfolgreich angewendet. Bestehende Methoden geben meist wenig Information über die Verlässlichkeit ihrer Schätzungen. Da diese Informationen Entscheidungen zur Anpassung an das Risiko erleichtern, wird die Verlässlichkeit der Schadensschätzungen mit der neuen Methode dargestellt. Die Verlässlichkeit bezieht sich dabei nicht nur auf die Schadensschätzung selber, sondern auch auf die Annahmen, die über betroffene Gebäude gemacht werden. Nach diesem Prinzip kann auch die Verlässlichkeit von Annahmen über die Zukunft dargestellt werden, dies ist ein wesentlicher Aspekt für Prognosen. Die Darstellung der Verlässlichkeit und die erfolgreiche Anwendung zeigt das Potential der Methode zur Verwendung von Analysen für gegenwärtige und zukünftige hydro-meteorologische Gefahren. N2 - Natural extreme events are an integral part of nature on planet earth. Usually these events are only considered hazardous to humans, in case they are exposed. In this case, however, natural hazards can have devastating impacts on human societies. Especially hydro-meteorological hazards have a high damage potential in form of e.g. riverine and pluvial floods, winter storms, hurricanes and tornadoes, which can occur all over the globe. Along with an increasingly warm climate also an increase in extreme weather which potentially triggers natural hazards can be expected. Yet, not only changing natural systems, but also changing societal systems contribute to an increasing risk associated with these hazards. These can comprise increasing exposure and possibly also increasing vulnerability to the impacts of natural events. Thus, appropriate risk management is required to adapt all parts of society to existing and upcoming risks at various spatial scales. One essential part of risk management is the risk assessment including the estimation of the economic impacts. However, reliable methods for the estimation of economic impacts due to hydro-meteorological hazards are still missing. Therefore, this thesis deals with the question of how the reliability of hazard damage estimates can be improved, represented and propagated across all spatial scales. This question is investigated using the specific example of economic impacts to companies as a result of riverine floods in Germany. Flood damage models aim to describe the damage processes during a given flood event. In other words they describe the vulnerability of a specific object to a flood. The models can be based on empirical data sets collected after flood events. In this thesis tree-based models trained with survey data are used for the estimation of direct economic flood impacts on the objects. It is found that these machine learning models, in conjunction with increasing sizes of data sets used to derive the models, outperform state-of-the-art damage models. However, despite the performance improvements induced by using multiple variables and more data points, large prediction errors remain at the object level. The occurrence of the high errors was explained by a further investigation using distributions derived from tree-based models. The investigation showed that direct economic impacts to individual objects cannot be modeled by a normal distribution. Yet, most state-of-the-art approaches assume a normal distribution and take mean values as point estimators. Subsequently, the predictions are unlikely values within the distributions resulting in high errors. At larger spatial scales more objects are considered for the damage estimation. This leads to a better fit of the damage estimates to a normal distribution. Consequently, also the performance of the point estimators get better, although large errors can still occur due to the variance of the normal distribution. It is recommended to use distributions instead of point estimates in order to represent the reliability of damage estimates. In addition current approaches also mostly ignore the uncertainty associated with the characteristics of the hazard and the exposed objects. For a given flood event e.g. the estimation of the water level at a certain building is prone to uncertainties. Current approaches define exposed objects mostly by the use of land use data sets. These data sets often show inconsistencies, which introduce additional uncertainties. Furthermore, state-of-the-art approaches also imply problems of missing consistency when predicting the damage at different spatial scales. This is due to the use of different types of exposure data sets for model derivation and application. In order to face these issues a novel object-based method was developed in this thesis. The method enables a seamless estimation of hydro-meteorological hazard damage across spatial scales including uncertainty quantification. The application and validation of the method resulted in plausible estimations at all spatial scales without overestimating the uncertainty. Mainly newly available data sets containing individual buildings make the application of the method possible as they allow for the identification of flood affected objects by overlaying the data sets with water masks. However, the identification of affected objects with two different water masks revealed huge differences in the number of identified objects. Thus, more effort is needed for their identification, since the number of objects affected determines the order of magnitude of the economic flood impacts to a large extent. In general the method represents the uncertainties associated with the three components of risk namely hazard, exposure and vulnerability, in form of probability distributions. The object-based approach enables a consistent propagation of these uncertainties in space. Aside from the propagation of damage estimates and their uncertainties across spatial scales, a propagation between models estimating direct and indirect economic impacts was demonstrated. This enables the inclusion of uncertainties associated with the direct economic impacts within the estimation of the indirect economic impacts. Consequently, the modeling procedure facilitates the representation of the reliability of estimated total economic impacts. The representation of the estimates' reliability prevents reasoning based on a false certainty, which might be attributed to point estimates. Therefore, the developed approach facilitates a meaningful flood risk management and adaptation planning. The successful post-event application and the representation of the uncertainties qualifies the method also for the use for future risk assessments. Thus, the developed method enables the representation of the assumptions made for the future risk assessments, which is crucial information for future risk management. This is an important step forward, since the representation of reliability associated with all components of risk is currently lacking in all state-of-the-art methods assessing future risk. In conclusion, the use of object-based methods giving results in the form of distributions instead of point estimations is recommended. The improvement of the model performance by the means of multi-variable models and additional data points is possible, but small. Uncertainties associated with all components of damage estimation should be included and represented within the results. Furthermore, the findings of the thesis suggest that, at larger scales, the influence of the uncertainty associated with the vulnerability is smaller than those associated with the hazard and exposure. This leads to the conclusion that for an increased reliability of flood damage estimations and risk assessments, the improvement and active inclusion of hazard and exposure, including their uncertainties, is needed in addition to the improvements of the models describing the vulnerability of the objects. KW - hydro-meteorological risk KW - damage modeling KW - uncertainty KW - probabilistic approach KW - economic impacts KW - OpenStreetMap KW - hydro-meteorologische Risiken KW - Schadensmodellierung KW - Unsicherheiten KW - probabilistischer Ansatz KW - ökonomische Auswirkungen KW - OpenStreetMap Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426161 ER - TY - THES A1 - Martin, Johannes T1 - Synthesis of protein-polymer conjugates and block copolymers via sortase-mediated ligation N2 - In den vergangenen Jahrzehnten haben therapeutische Proteine in der pharmazeutischen Industrie mehr und mehr an Bedeutung gewonnen. Werden Proteine nichtmenschlichen Ursprungs verwendet, kann es jedoch zu einer Immunreaktion kommen, sodass das Protein sehr schnell aus dem Körper ausgeschieden oder abgebaut wird. Um die Zirkulationszeit im Blut signifikant zu verlängern, werden die Proteine mit synthetischen Polymeren modifiziert (Protein-Polymer-Konjugate). Die Proteine aller heute auf dem Markt erhältlichen Medikamente dieser Art tragen eine oder mehrere Polymerketten aus Poly(ethylenglycol) (PEG). Ein Nachteil der PEGylierung ist, dass viele Patienten bei regelmäßiger Einnahme dieser Medikamente Antikörper gegen PEG entwickeln, die den effizienzsteigernden Effekt der PEGylierung wieder aufheben. Ein weiterer Nachteil der PEGylierung ist die oftmals deutlich verringerte Aktivität der Konjugate im Vergleich zum nativen Protein. Der Grund dafür ist die Herstellungsmethode der Konjugate, bei der meist die primären Amine der Lysin-Seitenketten und der N-Terminus des Proteins genutzt werden. Da die meisten Proteine mehrere gut zugängliche Lysine aufweisen, werden oft unterschiedliche und teilweise mehrere Lysine mit PEG funktionalisiert, was zu einer Mischung an Regioisomeren führt. Je nach Position der PEG-Kette kann das aktive Zentrum abgeschirmt oder die 3D-Struktur des Proteins verändert werden, was zu einem teilweise drastischen Aktivitätsabfall führt. In dieser Arbeit wurde eine neuartige Methode zur Ligation von Makromolekülen untersucht. Die Verwendung eines Enzyms als Katalysator zur Verbindung zweier Makromoleküle ist bisher wenig untersucht und ineffizient. Als Enzym wurde Sortase A ausgewählt, eine gut untersuchte Ligase aus der Familie der Transpeptidasen, welche die Ligation zweier Peptide katalysieren kann. Ein Nachteil dieser Sortase-vermittelten Ligation ist, dass es sich um eine Gleichgewichtsreaktion handelt, wodurch hohe Ausbeuten schwierig zu erreichen sind. Im Rahmen dieser Dissertation wurden zwei zuvor entwickelte Methoden zur Verschiebung des Gleichgewichts ohne Einsatz eines großen Überschusses von einem Edukt für Makromoleküle überprüft. Zur Durchführung der Sortase-vermittelten Ligation werden zwei komplementäre Peptidsequenzen verwendet, die Erkennungssequenz und das Nukleophil. Um eine systematische Untersuchung durchführen zu können, wurden alle nötigen Bausteine (Protein-Erkennungssequenz zur Reaktion mit Nukleophil-Polymer und Polymer-Erkennungssequenz mit Nukleophil-Protein) hergestellt. Als Polymerisationstechnik wurde die radikalische Polymerisation mit reversibler Deaktivierung (im Detail, Atom Transfer Radical Polymerization, ATRP und Reversible Addition-Fragmentation Chain Transfer, RAFT polymerization) gewählt, um eine enge Molmassenverteilung zu erreichen. Die Herstellung der Bausteine begann mit der Synthese der Peptide via automatisierter Festphasen-Peptidsynthese, um eine einfache Änderung der Peptidsequenz zu gewährleisten und um eine Modifizierung der Polymerkette nach der Polymerisation zu umgehen. Um die benötigte unterschiedliche Funktionalität der zwei Peptidsequenzen (freier C-Terminus bei der Erkennungssequenz bzw. freier N-Terminus bei dem Nukleophil) zu erreichen, wurden verschiedene Linker zwischen Harz und Peptid verwendet. Danach wurde der Kettenüberträger (chain transfer agent, CTA) zur Kontrolle der Polymerisation mit dem auf dem Harz befindlichen Peptid gekoppelt. Die für die anschließende Polymerisation verwendeten Monomere basierten auf Acrylamiden und Acrylaten und wurden anhand ihrer Eignung als Alternativen zu PEG ausgewählt. Es wurde eine kürzlich entwickelte Technik basierend auf der RAFT-Polymerisation (xanthate-supported photo-iniferter RAFT, XPI-RAFT) verwendet um eine Reihe an Peptid-Polymeren mit unterschiedlichen Molekulargewichten und engen Molekulargewichtsverteilungen herzustellen. Nach Entfernung der Schutzgruppen der Peptid-Seitenketten wurden die Peptid-Polymere zunächst genutzt, um mittels Sortase-vermittelter Ligation zwei Polymerketten zu einem Blockcopolymer zu verbinden. Unter Verwendung von Ni2+-Ionen in Kombination mit einer Verlängerung der Erkennungssequenz um ein Histidin zur Unterdrückung der Rückreaktion konnte ein maximaler Umsatz von 70 % erreicht werden. Dabei zeigte sich ein oberes Limit von durchschnittlich 100 Wiederholungseinheiten; die Ligation von längeren Polymeren war nicht erfolgreich. Danach wurden ein Modellprotein und ein Nanobody mit vielversprechenden medizinischen Eigenschaften mit den für die enzymkatalysierte Ligation benötigten Peptidsequenzen für die Kopplung mit den zuvor hergestellten Peptid-Polymeren verwendet. Dabei konnte bei Verwendung des Modellproteins keine Bildung von Protein-Polymer-Konjugaten beobachtet werden. Der Nanobody konnte dagegen C-terminal mit einem Polymer funktionalisiert werden. Dabei wurde eine ähnliche Limitierung in der Polymer-Kettenlänge beobachtet wie zuvor. Die auf Ni-Ionen basierte Strategie zur Gleichgewichtsverschiebung hatte hier keinen ausschlaggebenden Effekt, während die Verwendung von einem Überschuss an Polymer zur vollständigen Umsetzung des Edukt-Nanobody führte. Die erhaltenen Daten aus diesem Projekt bilden eine gute Basis für weitere Forschung in dem vielversprechenden Feld der enzymkatalysierten Herstellung von Protein-Polymer-Konjugaten und Blockcopolymeren. Langfristig könnte diese Herangehensweise eine vielseitig einsetzbare Herstellungsmethode von ortsspezifischen therapeutischen Protein-Polymer Konjugaten darstellen, welche sowohl eine hohe Aktivität als auch eine lange Zirkulationszeit im Blut aufweisen. N2 - During the last decades, therapeutical proteins have risen to great significance in the pharmaceutical industry. As non-human proteins that are introduced into the human body cause a distinct immune system reaction that triggers their rapid clearance, most newly approved protein pharmaceuticals are shielded by modification with synthetic polymers to significantly improve their blood circulation time. All such clinically approved protein-polymer conjugates contain polyethylene glycol (PEG) and its conjugation is denoted as PEGylation. However, many patients develop anti-PEG antibodies which cause a rapid clearance of PEGylated molecules upon repeated administration. Therefore, the search for alternative polymers that can replace PEG in therapeutic applications has become important. In addition, although the blood circulation time is significantly prolonged, the therapeutic activity of some conjugates is decreased compared to the unmodified protein. The reason is that these conjugates are formed by the traditional conjugation method that addresses the protein's lysine side chains. As proteins have many solvent exposed lysines, this results in a somewhat uncontrolled attachment of polymer chains, leading to a mixture of regioisomers, with some of them eventually affecting the therapeutic performance. This thesis investigates a novel method for ligating macromolecules in a site-specific manner, using enzymatic catalysis. Sortase A is used as the enzyme: It is a well-studied transpeptidase which is able to catalyze the intermolecular ligation of two peptides. This process is commonly referred to as sortase-mediated ligation (SML). SML constitutes an equilibrium reaction, which limits product yield. Two previously reported methods to overcome this major limitation were tested with polymers without using an excessive amount of one reactant. Specific C- or N-terminal peptide sequences (recognition sequence and nucleophile) as part of the protein are required for SML. The complementary peptide was located at the polymer chain end. Grafting-to was used to avoid damaging the protein during polymerization. To be able to investigate all possible combinations (protein-recognition sequence and nucleophile-protein as well as polymer-recognition sequence and nucleophile-polymer) all necessary building blocks were synthesized. Polymerization via reversible deactivation radical polymerization (RDRP) was used to achieve a narrow molecular weight distribution of the polymers, which is required for therapeutic use. The synthesis of the polymeric building blocks was started by synthesizing the peptide via automated solid-phase peptide synthesis (SPPS) to avoid post-polymerization attachment and to enable easy adaptation of changes in the peptide sequence. To account for the different functionalities (free N- or C-terminus) required for SML, different linker molecules between resin and peptide were used. To facilitate purification, the chain transfer agent (CTA) for reversible addition-fragmentation chain-transfer (RAFT) polymerization was coupled to the resin-immobilized recognition sequence peptide. The acrylamide and acrylate-based monomers used in this thesis were chosen for their potential to replace PEG. Following that, surface-initiated (SI) ATRP and RAFT polymerization were attempted, but failed. As a result, the newly developed method of xanthate-supported photo-iniferter (XPI) RAFT polymerization in solution was used successfully to obtain a library of various peptide-polymer conjugates with different chain lengths and narrow molar mass distributions. After peptide side chain deprotection, these constructs were used first to ligate two polymers via SML, which was successful but revealed a limit in polymer chain length (max. 100 repeat units). When utilizing equimolar amounts of reactants, the use of Ni2+ ions in combination with a histidine after the recognition sequence to remove the cleaved peptide from the equilibrium maximized product formation with conversions of up to 70 %. Finally, a model protein and a nanobody with promising properties for therapeutical use were biotechnologically modified to contain the peptide sequences required for SML. Using the model protein for C- or N-terminal SML with various polymers did not result in protein-polymer conjugates. The reason is most likely the lack of accessibility of the protein termini to the enzyme. Using the nanobody for C-terminal SML, on the other hand, was successful. However, a similar polymer chain length limit was observed as in polymer-polymer SML. Furthermore, in case of the synthesis of protein-polymer conjugates, it was more effective to shift the SML equilibrium by using an excess of polymer than by employing the Ni2+ ion strategy. Overall, the experimental data from this work provides a good foundation for future research in this promising field; however, more research is required to fully understand the potential and limitations of using SML for protein-polymer synthesis. In future, the method explored in this dissertation could prove to be a very versatile pathway to obtain therapeutic protein-polymer conjugates that exhibit high activities and long blood circulation times. KW - biohybrid molecules KW - sortaseA KW - polymerization KW - RAFT KW - ATRP KW - peptide synthesis KW - enzymatic conjugation KW - sortagging Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-645669 ER - TY - THES A1 - Videla, Santiago T1 - Reasoning on the response of logical signaling networks with answer set programming T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. KW - Systembiologie KW - logische Signalnetzwerke KW - Antwortmengenprogrammierung KW - systems biology KW - logical signaling networks KW - answer set programming Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890 ER - TY - THES A1 - Brill, Fabio Alexander T1 - Applications of machine learning and open geospatial data in flood risk modelling N2 - Der technologische Fortschritt erlaubt es, zunehmend komplexe Vorhersagemodelle auf Basis immer größerer Datensätze zu produzieren. Für das Risikomanagement von Naturgefahren sind eine Vielzahl von Modellen als Entscheidungsgrundlage notwendig, z.B. in der Auswertung von Beobachtungsdaten, für die Vorhersage von Gefahrenszenarien, oder zur statistischen Abschätzung der zu erwartenden Schäden. Es stellt sich also die Frage, inwiefern moderne Modellierungsansätze wie das maschinelle Lernen oder Data-Mining in diesem Themenbereich sinnvoll eingesetzt werden können. Zusätzlich ist im Hinblick auf die Datenverfügbarkeit und -zugänglichkeit ein Trend zur Öffnung (open data) zu beobachten. Thema dieser Arbeit ist daher, die Möglichkeiten und Grenzen des maschinellen Lernens und frei verfügbarer Geodaten auf dem Gebiet der Hochwasserrisikomodellierung im weiteren Sinne zu untersuchen. Da dieses übergeordnete Thema sehr breit ist, werden einzelne relevante Aspekte herausgearbeitet und detailliert betrachtet. Eine prominente Datenquelle im Bereich Hochwasser ist die satellitenbasierte Kartierung von Überflutungsflächen, die z.B. über den Copernicus Service der Europäischen Union frei zur Verfügung gestellt werden. Große Hoffnungen werden in der wissenschaftlichen Literatur in diese Produkte gesetzt, sowohl für die akute Unterstützung der Einsatzkräfte im Katastrophenfall, als auch in der Modellierung mittels hydrodynamischer Modelle oder zur Schadensabschätzung. Daher wurde ein Fokus in dieser Arbeit auf die Untersuchung dieser Flutmasken gelegt. Aus der Beobachtung, dass die Qualität dieser Produkte in bewaldeten und urbanen Gebieten unzureichend ist, wurde ein Verfahren zur nachträglichenVerbesserung mittels maschinellem Lernen entwickelt. Das Verfahren basiert auf einem Klassifikationsalgorithmus der nur Trainingsdaten von einer vorherzusagenden Klasse benötigt, im konkreten Fall also Daten von Überflutungsflächen, nicht jedoch von der negativen Klasse (trockene Gebiete). Die Anwendung für Hurricane Harvey in Houston zeigt großes Potenzial der Methode, abhängig von der Qualität der ursprünglichen Flutmaske. Anschließend wird anhand einer prozessbasierten Modellkette untersucht, welchen Einfluss implementierte physikalische Prozessdetails auf das vorhergesagte statistische Risiko haben. Es wird anschaulich gezeigt, was eine Risikostudie basierend auf etablierten Modellen leisten kann. Solche Modellketten sind allerdings bereits für Flusshochwasser sehr komplex, und für zusammengesetzte oder kaskadierende Ereignisse mit Starkregen, Sturzfluten, und weiteren Prozessen, kaum vorhanden. Im vierten Kapitel dieser Arbeit wird daher getestet, ob maschinelles Lernen auf Basis von vollständigen Schadensdaten einen direkteren Weg zur Schadensmodellierung ermöglicht, der die explizite Konzeption einer solchen Modellkette umgeht. Dazu wird ein staatlich erhobener Datensatz der geschädigten Gebäude während des schweren El Niño Ereignisses 2017 in Peru verwendet. In diesem Kontext werden auch die Möglichkeiten des Data-Mining zur Extraktion von Prozessverständnis ausgelotet. Es kann gezeigt werden, dass diverse frei verfügbare Geodaten nützliche Informationen für die Gefahren- und Schadensmodellierung von komplexen Flutereignissen liefern, z.B. satellitenbasierte Regenmessungen, topographische und hydrographische Information, kartierte Siedlungsflächen, sowie Indikatoren aus Spektraldaten. Zudem zeigen sich Erkenntnisse zu den Schädigungsprozessen, die im Wesentlichen mit den vorherigen Erwartungen in Einklang stehen. Die maximale Regenintensität wirkt beispielsweise in Städten und steilen Schluchten stärker schädigend, während die Niederschlagssumme in tiefliegenden Flussgebieten und bewaldeten Regionen als aussagekräftiger befunden wurde. Ländliche Gebiete in Peru weisen in der präsentierten Studie eine höhere Vulnerabilität als die Stadtgebiete auf. Jedoch werden auch die grundsätzlichen Grenzen der Methodik und die Abhängigkeit von spezifischen Datensätzen and Algorithmen offenkundig. In der übergreifenden Diskussion werden schließlich die verschiedenen Methoden – prozessbasierte Modellierung, prädiktives maschinelles Lernen, und Data-Mining – mit Blick auf die Gesamtfragestellungen evaluiert. Im Bereich der Gefahrenbeobachtung scheint eine Fokussierung auf neue Algorithmen sinnvoll. Im Bereich der Gefahrenmodellierung, insbesondere für Flusshochwasser, wird eher die Verbesserung von physikalischen Modellen, oder die Integration von prozessbasierten und statistischen Verfahren angeraten. In der Schadensmodellierung fehlen nach wie vor die großen repräsentativen Datensätze, die für eine breite Anwendung von maschinellem Lernen Voraussetzung ist. Daher ist die Verbesserung der Datengrundlage im Bereich der Schäden derzeit als wichtiger einzustufen als die Auswahl der Algorithmen. N2 - Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail. A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask. Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious. In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms. KW - flood risk KW - machine learning KW - open data KW - damage modelling KW - data-mining KW - Schadensmodellierung KW - Data-Mining KW - Hochwasserrisiko KW - maschinelles Lernen KW - offene Daten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555943 ER - TY - THES A1 - Schifferle, Lukas T1 - Optical properties of (Mg,Fe)O at high pressure T1 - Optische Eigenschaften von (Mg,Fe)O unter Hochdruck N2 - Large parts of the Earth’s interior are inaccessible to direct observation, yet global geodynamic processes are governed by the physical material properties under extreme pressure and temperature conditions. It is therefore essential to investigate the deep Earth’s physical properties through in-situ laboratory experiments. With this goal in mind, the optical properties of mantle minerals at high pressure offer a unique way to determine a variety of physical properties, in a straight-forward, reproducible, and time-effective manner, thus providing valuable insights into the physical processes of the deep Earth. This thesis focusses on the system Mg-Fe-O, specifically on the optical properties of periclase (MgO) and its iron-bearing variant ferropericlase ((Mg,Fe)O), forming a major planetary building block. The primary objective is to establish links between physical material properties and optical properties. In particular the spin transition in ferropericlase, the second-most abundant phase of the lower mantle, is known to change the physical material properties. Although the spin transition region likely extends down to the core-mantle boundary, the ef-fects of the mixed-spin state, where both high- and low-spin state are present, remains poorly constrained. In the studies presented herein, we show how optical properties are linked to physical properties such as electrical conductivity, radiative thermal conductivity and viscosity. We also show how the optical properties reveal changes in the chemical bonding. Furthermore, we unveil how the chemical bonding, the optical and other physical properties are affected by the iron spin transition. We find opposing trends in the pres-sure dependence of the refractive index of MgO and (Mg,Fe)O. From 1 atm to ~140 GPa, the refractive index of MgO decreases by ~2.4% from 1.737 to 1.696 (±0.017). In contrast, the refractive index of (Mg0.87Fe0.13)O (Fp13) and (Mg0.76Fe0.24)O (Fp24) ferropericlase increases with pressure, likely because Fe Fe interactions between adjacent iron sites hinder a strong decrease of polarizability, as it is observed with increasing density in the case of pure MgO. An analysis of the index dispersion in MgO (decreasing by ~23% from 1 atm to ~103 GPa) reflects a widening of the band gap from ~7.4 eV at 1 atm to ~8.5 (±0.6) eV at ~103 GPa. The index dispersion (between 550 and 870 nm) of Fp13 reveals a decrease by a factor of ~3 over the spin transition range (~44–100 GPa). We show that the electrical band gap of ferropericlase significantly widens up to ~4.7 eV in the mixed spin region, equivalent to an increase by a factor of ~1.7. We propose that this is due to a lower electron mobility between adjacent Fe2+ sites of opposite spin, explaining the previously observed low electrical conductivity in the mixed spin region. From the study of absorbance spectra in Fp13, we show an increasing covalency of the Fe-O bond with pressure for high-spin ferropericlase, whereas in the low-spin state a trend to a more ionic nature of the Fe-O bond is observed, indicating a bond weakening effect of the spin transition. We found that the spin transition is ultimately caused by both an increase of the ligand field-splitting energy and a decreasing spin-pairing energy of high-spin Fe2+. N2 - Geodynamische Prozesse werden von den physikalischen Materialeigenschaften unter den extremen Druck- und Temperaturbedingungen des Erdinneren gesteuert, gerade diese Areale sind aber faktisch nicht für direkte Beobachtungen zugänglich. Umso wichtiger ist es, die physikalischen Eigenschaften unter Bedingungen des Erdinneren zu untersuchen. Mit diesem Ziel vor Augen erlaubt das Studium der optischen Eigenschaften von Mineralen des Erdmantels, eine große Bandbreite an physikalischen Materialeigenschaften, in einer einfachen, reproduzierbaren und effizienten Art und Weise zu bestimmen. Dadurch bieten sich wichtige Einblicke in die physikalischen Prozessen des Erdinneren. Die vorliegende Arbeit konzentriert sich auf das System Mg-Fe-O, im Speziellen auf Periklas (MgO) und seine Eisen-haltige Variante Ferroperiklas ((Mg,Fe)O), ein wichtiger Baustein planetarer Körper. Das Hauptziel der Arbeit besteht darin Verbindungen zwischen optischen Eigenschaften und physikalischen Materialeigenschaften zu finden. Gerade der Spin-Übergang in Ferroperiklas, der zweithäufigsten Phase des unteren Erdmantels, ist dabei von Bedeutung, da damit Veränderungen in den physikalischen Materialeigenschaften einhergehen. Obwohl sich der Spinübergangsbereich vermutlich bis zur Kern-Mantel-Grenze erstreckt, sind die Auswirkungen des gemischten Spin-Zustandes, bei dem sowohl Hoch- als auch Tief-Spin präsent sind, nur unzureichend untersucht. Die hier vorgestellten Studien zeigen, wie optische Eigenschaften mit anderen wichtigen physikalischen Eigenschaften wie elektrischer und thermischer Leitfähigkeit, Viskosität oder auch mit der chemischen Bindung verbunden sind. Daraus lässt sich auch ableiten wie der Spin-Übergang in Ferroperiklas diese Eigenschaften beeinflusst. Von Raumbedingungen bis zu ~140 GPa sinkt der Brechungsindex von MgO um ~2.4 % von 1.737 auf 1.696 (±0.017). Im Gegensatz dazu steigt der Brechungsindex von (Mg0.87Fe0.13)O (Fp13) und (Mg0.76Fe0.24)O (Fp24) Ferroperiklas mit dem Druck an. Dies ist auf Fe-Fe Wechselwirkungen zwischen benachbarten Eisenpositionen zurückzuführen, die eine starke Verringerung der Polarisierbarkeit, wie im Falle von reinem MgO mit zunehmender Dichte, behindern. Eine Analyse der Dispersion des Brechungsindexes von MgO (Abnahme um ~23 % von 1 Atm zu ~103 GPa) offenbart eine Verbreiterung der Bandlücke von ~7.4 eV bei 1 Atm zu ~8.5 (±0.6) eV bei ~103 GPa. Die Messung der Dispersion (zwischen 550 und 870 nm) in Fp13 zeigt eine starke Abnahme über den Bereich des Spin-Überganges (~44–100 GPa) bis zu einem Faktor von ~3. Die Bandlücke nimmt in der Region des gemischten Spin-Zustandes signifikant auf bis zu ~4.7 eV zu (entspricht einer Zunahme um den Faktor ~1.7). Dies deutet auf eine Verringerung der Elektronen-Mobilität zwischen benachbarten Fe2+-Positionen mit unterschiedlichem Spin-Zustand hin, was die bereits in früheren Arbeiten beobachtete Abnahme der elektrischen Leitfähigkeit im Bereich des gemischten Spin-Zustandes erklärt. Absorptionsspektren an Fp13 zeigen eine Druck-bedingte Zunahme der Kovalenz der Fe-O Bindung für Ferroperiklas im Hoch-Spin Zustand, wohingegen Tief-Spin Ferroperiklas einen Trend zu einer mehr ionischen Fe-O Bindung auf-weist, was auf einen Bindungs-schwächenden Effekt des Spin-Wechsels hinweist. Der Übergang von Hoch- zu Tiefspin ist letztlich auf eine Zunahme der Ligandenfeldaufspaltungsenergie sowie eine abnehmende Spinpaarungsenergie von Hoch-Spin Fe2+ zurückzuführen. KW - optical properties KW - optische Eigenschaften KW - high pressure KW - Hochdruck KW - earth mantle KW - Erdmantel KW - diamond anvil cell KW - Diamantstempelzelle KW - ferropericlase KW - Ferroperiklas KW - spectroscopy KW - Spektroskopie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-622166 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER -