TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zhao, Yuhang T1 - Synthesis and surface functionalization on plasmonic nanoparticles for optical applications N2 - This thesis focuses on the synthesis of novel functional materials based on plasmonic nanoparticles. Three systems with targeted surface modification and functionalization have been designed and synthesized, involving modified perylenediimide doped silica-coated silver nanowires, polydopamine or TiO2 coated gold-palladium nanorods and thiolated poly(ethylene glycol) (PEG-SH)/dodecanethiol (DDT) modified silver nanospheres. Their possible applications as plasmonic resonators, chiral sensors as well as photo-catalysts have been studied. In addition, the interaction between silver nanospheres and 2,3,5,6-Tetrafluoro-7,7,8,8-tetracyanoquinodimethane (F4TCNQ) molecules has also been investigated in detail. In the first part of the thesis, surface modification on Ag nanowires (NWs) with optimized silica coating through a modified Stöber method has been firstly conducted, employing sodium hydroxide (NaOH) to replace ammonia solution (NH4OH). The coated silver nanowires with a smooth silica shell have been investigated by single-particle dark-field scattering spectroscopy, transmission electron microscopy and electron-energy loss spectroscopy to characterize the morphologies and structural components. The silica-coated silver nanowires can be further functionalized with fluorescent molecules in the silica shell via a facile one-step coating method. The as-synthesized nanowire is further coupled with a gold nanosphere by spin-coating for the application of the sub-diffractional chiral sensor for the first time. The exciton-plasmon-photon interconversion in the system eases the signal detection in the perfectly matched 1D nanostructure and contributes to the high contrast of the subwavelength chiral sensing for the polarized light. In the second part of the thesis, dumbbell-shaped Au-Pd nanorods coated with a layer of polydopamine (PDA) or titanium dioxide (TiO2) have been constructed. The PDA- and TiO2- coated Au-Pd nanorods show a strong photothermal conversion performance under NIR illumination. Moreover, the catalytic performance of the particles has been investigated using the reduction of 4-nitrophenol (4-NP) as the model reaction. Under light irradiation, the PDA-coated Au-Pd nanorods exhibit a superior catalytic activity by increasing the reaction rate constant of 3 times. The Arrhenius-like behavior of the reaction with similar activation energies in the presence and absence of light irradiation indicates the photoheating effect to be the dominant mechanism of the reaction acceleration. Thus, we attribute the enhanced performance of the catalysis to the strong photothermal effect that is driven by the optical excitation of the gold surface plasmon as well as the synergy with the PDA layer. In the third part, the kinetic study on the adsorption of 2,3,5,6-Tetrafluoro-7,7,8,8-tetracyanoquino-dimethane (F4TCNQ) on the surface of Ag nanoparticles (Ag NPs) in chloroform has been reported in detail. Based on the results obtained from the UV-vis-NIR absorption spectroscopy, cryogenic transmission electron microscopy (cryo-TEM), scanning nano-beam electron diffraction (NBED) and electron energy loss spectroscopy (EELS), a two-step interaction kinetics has been proposed for the Ag NPs and F4TCNQ molecules. It includes the first step of electron transfer from Ag NPs to F4TCNQ indicated by the ionization of F4TCNQ, and the second step of the formation of Ag-F4TCNQ complex. The whole process has been followed via UV-vis-NIR absorption spectroscopy, which reveals distinct kinetics at two stages: the instantaneous ionization and the long-term complex formation. The kinetics and the influence of the molar ratio of Ag NPs/F4TCNQ molecules on the interaction between Ag NPs and F4TCNQ molecules in the organic solution are reported herein for the first time. Furthermore, the control experiment with silica-coated Ag NPs indicates that the charge transfer at the surface between Ag NPs and F4TCNQ molecules has been prohibited by a silica layer of 18 nm. KW - plasmonic nanoparticles KW - silica KW - polydopamine KW - TiO2 KW - chiral sensing KW - catalysis KW - surface interaction Y1 - 2021 ER - TY - THES A1 - Zhao, Xueru T1 - Palaeoclimate and palaeoenvironment evolution from the last glacial maximum into the early holocene (23-8 ka BP) derived from Lago Grande di Monticchio sediment record (S Italy) Y1 - 2021 ER - TY - THES A1 - Zhang, Heshou T1 - Magnetic fields in the universe BT - Diagnostics, turbulent properties, and their implications N2 - The galactic interstellar medium is magnetized and turbulent. The magnetic field and turbulence play important roles in many astrophysical mechanisms, including cosmic ray transport, star formation, etc. Therefore, measurements of magnetic field and turbulence information are crucial for the proper interpretation of astronomical observations. Nonetheless, the magnetic field observation is quite challenging, especially, there is not universal magnetic tracer for diffuse medium. Moreover, the modelling of turbulence can be oversimplified due to the lack of observational tools to diagnose the plasma properties of the turbulence in the galactic interstellar medium. The studies presented in this thesis have addressed these challenges by bridging the theoretical studies of magnetic field and turbulence with numerical simulations and observations. The following research are presented in this thesis. The first observational evidence of the novel magnetic tracer, ground state alignment (GSA), is discovered, revealing the three-dimensional magnetic field as well as 2 orders of magnitude higher precision comparing to previous observational study in the stellar atmosphere of the post-AGB 89 Herculis. Moreover, the application of GSA in the sub-millimeter fine-structure lines is comprehensively studied for different elements and with magnetohydrodynamic simulations. Furthermore, the influence of GSA effect on the spectroscopy is analyzed and it is found that measurable variation will be produced on the spectral line intensity and the line ratio without accounting for the optical pumping process or magnetic field. Additionally, a novel method to measure plasma modes in the interstellar medium, Signatures from Polarization Analysis (SPA), is proposed and applied to real observations. Magneto-sonic modes are discovered in different types of interstellar medium. An explanation is provided for the long-standing mystery, the origin of γ-ray enhanced emission “Cygnus Cocoon”, based on the comparison between the outcome of SPA and multi-waveband observational data. These novel methods have strong potentials for broader observational applications and will play crucial roles in future multi-wavelength astronomy. N2 - Das interstellare Medium ist magnetisiert und turbulent. Das Magnetfeld und die Turbulenz spielen eine wichtige Rolle in vielen astrophysikalischen Prozessen, unter anderem beim Transport kosmischer Strahlung, bei der Entstehung von Sternen usw. Daher sind Messungen des Magnetfelds und der Turbulenz entscheidend bei der korrekten Interpretation astronomischer Beobachtungen. Dennoch ist die Messung des astronomischen Magnetfeldes eine große Herausforderung, besonders da es keinen universellen magnetischen Tracer für diffuse Medien gibt. Außerdem kann es aufgrund des Mangels an geeigneten Beobachtungswerkzeugen für die Plasmaeigenschaften der galaktischen Turbulenz zu übermäßigen Vereinfachungen bei der Turbulenzmodellierung kommen. Die in dieser Arbeit vorgestellten Forschungsergebnisse beschäftigen sich mit diesen Herausforderungen; die Theorien des Magnetfeldes und der Turbulenz werden durch numerische Simulationen und Beobachtungen anwendbar gemacht. Die erste Anwendung eines neuen magnetischen Markers, Ground State Alignment (GSA, deutsch „Grundzustandsausrichtung“), wird vorgestellt. Dabei wird das dreidimensionale Magnetfeld in der Analyse von Beobachtungsdaten aus der stellaren Atmosphäre des post-AGB 89 Herculis um zwei Größenordnungen genauer bestimmt als bei den bisherigen Methoden. Zusätzlich wird die Anwendung von GSA bei der Analyse von sub-millimeter Feinstrukturlinien ausführlich für verschiedene Elemente mit Hilfe von magnetohydrodynamischen Simulationen getestet. Auch der Einfluss von GSA-Effekten auf spektroskopische Analysen wird untersucht; dabei stellt sich heraus, dass messbare Variationen in der Linienbreite und im Verhältnis der Linien verursacht werden, ohne dass optische Pumpprozesse oder das Magnetfeld berücksichtigt werden. Des Weiteren wird die Signatures from Polarization Analysis (SPA, deutsch „Signatur-aus-Polarisationsanalyse“) als neue Messmethode für Plasmamoden im galaktischen Medium vorgestellt und auf reale Beobachtungen angewandt. In verschiedenen galaktischen Medien werden magneto-akustische Moden gefunden. Durch den Vergleich von Ergebnissen der SPA mit Beobachtungsdaten aus verschiedenen elektromagnetischen Frequenzbereichen kann die bisher ungeklärte Herkunft der gammastrahlenverstärkten Emission „Cygnus Cocoon“ erklärt werden. Diese neuen Methoden haben das Potential für eine breitere Anwendung bei der Analyse von Beobachtungen und werden in der Zukunft eine wichtige Rolle in der Multiwellenlängen-Astronomie spielen. KW - magnetic field KW - turbulence KW - polarization KW - interstellar medium KW - cosmic ray propagation Y1 - 2021 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Zadorozhnyi, Oleksandr T1 - Contributions to the theoretical analysis of the algorithms with adversarial and dependent data N2 - In this work I present the concentration inequalities of Bernstein's type for the norms of Banach-valued random sums under a general functional weak-dependency assumption (the so-called $\cC-$mixing). The latter is then used to prove, in the asymptotic framework, excess risk upper bounds of the regularised Hilbert valued statistical learning rules under the τ-mixing assumption on the underlying training sample. These results (of the batch statistical setting) are then supplemented with the regret analysis over the classes of Sobolev balls of the type of kernel ridge regression algorithm in the setting of online nonparametric regression with arbitrary data sequences. Here, in particular, a question of robustness of the kernel-based forecaster is investigated. Afterwards, in the framework of sequential learning, the multi-armed bandit problem under $\cC-$mixing assumption on the arm's outputs is considered and the complete regret analysis of a version of Improved UCB algorithm is given. Lastly, probabilistic inequalities of the first part are extended to the case of deviations (both of Azuma-Hoeffding's and of Burkholder's type) to the partial sums of real-valued weakly dependent random fields (under the type of projective dependence condition). KW - Machine learning KW - nonparametric regression KW - kernel methods KW - regularisation KW - concentration inequalities KW - learning rates KW - sequential learning KW - multi-armed bandits KW - Sobolev spaces Y1 - 2021 ER - TY - THES A1 - Yan, Wan T1 - Shape-Memory effects of thermoplatic multiblock copolymers with overlapping thermal transitions Y1 - 2021 ER - TY - THES A1 - Wunderling, Nico T1 - Nichtlineare Dynamiken und Interaktionen von Kippelementen im Erdsystem T1 - Nonlinear dynamics and interactions of tipping elements in the Earth system N2 - With ongoing anthropogenic global warming, some of the most vulnerable components of the Earth system might become unstable and undergo a critical transition. These subsystems are the so-called tipping elements. They are believed to exhibit threshold behaviour and would, if triggered, result in severe consequences for the biosphere and human societies. Furthermore, it has been shown that climate tipping elements are not isolated entities, but interact across the entire Earth system. Therefore, this thesis aims at mapping out the potential for tipping events and feedbacks in the Earth system mainly by the use of complex dynamical systems and network science approaches, but partially also by more detailed process-based models of the Earth system. In the first part of this thesis, the theoretical foundations are laid by the investigation of networks of interacting tipping elements. For this purpose, the conditions for the emergence of global cascades are analysed against the structure of paradigmatic network types such as Erdös-Rényi, Barabási-Albert, Watts-Strogatz and explicitly spatially embedded networks. Furthermore, micro-scale structures are detected that are decisive for the transition of local to global cascades. These so-called motifs link the micro- to the macro-scale in the network of tipping elements. Alongside a model description paper, all these results are entered into the Python software package PyCascades, which is publicly available on github. In the second part of this dissertation, the tipping element framework is first applied to components of the Earth system such as the cryosphere and to parts of the biosphere. Afterwards it is applied to a set of interacting climate tipping elements on a global scale. Using the Earth system Model of Intermediate Complexity (EMIC) CLIMBER-2, the temperature feedbacks are quantified, which would arise if some of the large cryosphere elements disintegrate over a long span of time. The cryosphere components that are investigated are the Arctic summer sea ice, the mountain glaciers, the Greenland and the West Antarctic Ice Sheets. The committed temperature increase, in case the ice masses disintegrate, is on the order of an additional half a degree on a global average (0.39-0.46 °C), while local to regional additional temperature increases can exceed 5 °C. This means that, once tipping has begun, additional reinforcing feedbacks are able to increase global warming and with that the risk of further tipping events. This is also the case in the Amazon rainforest, whose parts are dependent on each other via the so-called moisture-recycling feedback. In this thesis, the importance of drought-induced tipping events in the Amazon rainforest is investigated in detail. Despite the Amazon rainforest is assumed to be adapted to past environmental conditions, it is found that tipping events sharply increase if the drought conditions become too intense in a too short amount of time, outpacing the adaptive capacity of the Amazon rainforest. In these cases, the frequency of tipping cascades also increases to 50% (or above) of all tipping events. In the model that was developed in this study, the southeastern region of the Amazon basin is hit hardest by the simulated drought patterns. This is also the region that already nowadays suffers a lot from extensive human-induced changes due to large-scale deforestation, cattle ranching or infrastructure projects. Moreover, on the larger Earth system wide scale, a network of conceptualised climate tipping elements is constructed in this dissertation making use of a large literature review, expert knowledge and topological properties of the tipping elements. In global warming scenarios, tipping cascades are detected even under modest scenarios of climate change, limiting global warming to 2 °C above pre-industrial levels. In addition, the structural roles of the climate tipping elements in the network are revealed. While the large ice sheets on Greenland and Antarctica are the initiators of tipping cascades, the Atlantic Meridional Overturning Circulation (AMOC) acts as the transmitter of cascades. Furthermore, in our conceptual climate tipping element model, it is found that the ice sheets are of particular importance for the stability of the entire system of investigated climate tipping elements. In the last part of this thesis, the results from the temperature feedback study with the EMIC CLIMBER-2 are combined with the conceptual model of climate tipping elements. There, it is observed that the likelihood of further tipping events slightly increases due to the temperature feedbacks even if no further CO$_2$ would be added to the atmosphere. Although the developed network model is of conceptual nature, it is possible with this work for the first time to quantify the risk of tipping events between interacting components of the Earth system under global warming scenarios, by allowing for dynamic temperature feedbacks at the same time. N2 - Bei fortdauerndem anthropogenem Klimawandel, könnten einige der vulnerabelsten Komponenten des Erdsystem instabil werden und in einen anderen Zustand übergehen. Diese Komponenten des Erdsystems sind die sogenannten Kippelemente. Bei ihnen wird angenommen, dass sie einen Kipppunkt besitzen ab dem sie in einen qualitativ anderen Zustand übergehen können. Sollte das passieren, hätte das schwerwiegende Konsequenzen für die Biosphäre und menschliche Gesellschaften. Des Weiteren ist gezeigt worden, dass Kippelemente keine isolierte Reigionen oder Prozesse sind, sondern über das gesamte Erdsystem hinweg interagieren. Das Ziel dieser Arbeit ist es daher, die Wahrscheinlichkeit für Kippereignisse sowie deren Feedbacks im Erdsystem zu quantifizieren. Zu diesem Zweck kommen vor allem Frameworks aus der Wissenschaft komplexer Systeme und Netzwerke zum Einsatz. Für einige Teilaspekte dieser Arbeit wird aber auch ein detaillierteres und prozessbasierteres Erdsystemmodell verwendet. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen gelegt, indem komplexe Netzwerke bestehend aus interagierenden Kippelementen untersucht werden. Hier werden Voraussetzungen für das Auftreten globaler Kippkaskaden anhand der Struktur paradigmatischer Netzwerktypen analysiert. Diese Typen sind Netzwerke wie Erdös-Rényi, Barabási-Albert, Watts-Strogatz Netzwerke oder auch explizit räumlich eingebettete Netzwerke. Darüber hinaus sind bestimmte Mikrostrukturen in Netzwerken dafür entscheidend, ob sich eine lokale Kaskaden auf das globale Netzwerk ausbreiten kann. Diese Strukturen sind das Bindeglied zwischen der Mikro- und der Makroebene des Netzwerks und werden Motive genannt. Zusammen mit einer Publikation zur Modellbeschreibung, werden alle diese Ergebnisse im Python-Softwarepaket PyCascades veröffentlicht, das auf github öffentlich verfügbar ist. Im zweiten Teil dieser Dissertation wird das Kippelementframework zunächst auf Kompenenten des Erdsystems angewendet wie der Kryosphäre und Teilen der Biosphäre, und danach auf globaler Skala für interagierende Klimakippelemente. In einem ersten Schritt werden mit dem Erdsystemmodell mittlerer Komplexität CLIMBER-2 die Temperaturfeedbacks ermittelt, die entstehen würden, wenn große Gebiete der Kryosphäre auf lange Sicht eisfrei werden. In dieser Berechnung werden das arktische Sommermeereis, die Gebirgsgletscher, der grönländische und der westantarktische Eisschild berücksichtigt. Die quantifizierte Temperaturerhöhung liegt in der Größenordnung von einem halben Grad zusätzlicher globaler Erwärmung (0.39--0.46°C). Lokale bis regionale Temperaturerhöhungen können allerdings 5°C übersteigen. Wenn also das Kippen einiger Elemente begonnen hat, bedeutet dieses Ergebnis, dass Temperaturfeedbacks in der Lage sind, das Risiko weiterer Kippereignisse zu erhöhen. Dies ist auch der Fall im Amazonasregenwald, dessen Unterregionen über den sogenannten Feuchtig-keits-Recycling-Feedback miteinander in Beziehung stehen und voneinander abhängen. In dieser Dissertation wird die Bedeutung von Kippereignissen im Detail untersucht, die aufgrund von Dürreperioden zustande kommen. Obwohl man davon ausgehen kann, dass der Regenwald sich an zurückliegende und gegenwärtige Klimabedingungen angepasst hat, kann festgestellt werden, dass die Häu-figkeit von Kippereignissen stark zunimmt, wenn die jeweilige Trockenperiode eine gewisse Intensität übersteigt und damit die Anpassungsfähigkeit des Amazonasregenwalds überschritten wird. In solchen Fällen steigt auch die Häufigkeit von Kippkaskaden unter allen Kippereignissen auf 50% (und mehr) an. In dem Modell, das in dieser Studie entwickelt wurde, zeigt sich, dass der Südosten des Amazonasbeckens am stärksten von den simulierten Trockenheitsmustern betroffen ist. Das ist gleichzeitig die Region, die bereits heute stark unter anthropogener Veränderung leidet, unter anderem aufgrund von großflächiger Abholzung, Viehzucht oder Infrastrukturprojekten. Zudem wird in dieser Dissertation auf der größeren, erdsystemweiten Skala ein Netzwerk konzeptionalisierter Klimakippelemente aufgebaut. Zu diesem Zweck wird eine umfangreiche Literaturrecherche durchgeführt, die zusammen mit Expertenwissen und den topologischen Eigenschaften der Kippelemente in die Studien mit einfließt. In Klimawandelszenarien können dann Kippkaskaden beobachtet werden, selbst wenn die globale Erderwärmung auf 2°C über dem vorindustriellen Niveau begrenzt werden kann. Außerdem werden die strukturellen Rollen der Klimakippelemente im Netzwerk ermittelt. Während die großen Eisschilde auf Grönland und der Westantarktis viele Kippkaskaden initiieren, ist die Atlantische Umwälzzirkulation für die Weitergabe vieler dieser Kaskaden verantwortlich. In unserem konzeptionellen Modell für Klimakippelemente wird darüber hinaus festgestellt, dass die Eisschilde von besonderer Bedeutung für die Stabilität des Gesamtsystems sind. Im letzen Teil dieser Dissertation werden die Ergebnisse der Feedbackstudie (CLIMBER-2-Studie) zusammengebracht mit dem konzeptionellen Klimakippelementmodell. Dabei zeigt sich, dass die Wahrscheinlichkeit zusätzlicher Kippereignisse aufgrund der berücksichtigten Temperaturfeedbacks auch ohne das Zuführen eines zusätzlichen CO2-Eintrags in die Atmosphäre leicht ansteigt. Trotz der konzeptionellen Natur des entwickelten Netzwerkmodells, ist es mit dieser Arbeit erstmals möglich eine Risikoabschätzung über das Auftreten von Kippkaskaden im Erdsystem vorzunehmen. Darüber hinaus können, unter der Annahme globaler Erwärmungsszenarien, auch dynamische Temperaturfeedbacks berücksichtigt werden. KW - tipping element KW - nonlinear dynamics KW - tipping cascade KW - climate change KW - complex networks KW - Klimawandel KW - komplexe Netzwerke KW - nichtlineare Dynamiken KW - Kippkaskade KW - Kippelement Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525140 ER - TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Wochatz, Monique T1 - Influence of different loading conditions on scapular movement and scapular muscle activation patterns T1 - Der Einfluss verschiedener Lastsituationen auf Bewegungs- und Aktivitätsmuster des Schulterblatts N2 - The scapula plays a significant role in efficient shoulder movement. Thus, alterations from typical scapular motion during upper limb movements are thought to be associated with shoulder pathologies. However, a clear understanding of the relationship is not yet obtained.. Scapular alterations may only represent physiological variability as their occurrence can appear equally as frequent in individuals with and without shoulder disorders. Evaluation of scapular motion during increased load might be a beneficial approach to detect clinically relevant alterations. However, functional motion adaptations in response to maximum effort upper extremity loading has not been established yet. Therefore, the overall purpose of this research project was to give further insight in physiological adaptations of scapular kinematics and their underlying scapular muscle activity in response to high demanding shoulder movements in healthy asymptomatic individuals. Prior to the investigation of the effect of various load situation, the reproducibility of scapular kinematics and scapular muscle activity were evaluated under maximum effort arm movements. Healthy asymptomatic adults performed unloaded and maximal loaded concentric and eccentric isokinetic shoulder flexion and extension movements in the scapular plane while scapular kinematics and scapular muscle activity were simultaneously assessed. A 3D motion capture system (infra-red cameras & reflective markers) was utilized to track scapular and humerus motion in relation to the thorax. 3D scapular position angles were given for arm raising and lowering between humerus positions of 20° and 120° flexion. To further characterize the scapular pattern, the scapular motion extent and scapulohumeral rhythm (ratio of scapular and humerus motion extent) were determined. Muscle activity of the upper and lower trapezius and the serratus anterior were assessed with surface electromyography. Amplitudes were calculated for the whole ROM and four equidistant movement phases. Reliability was characterized by overall moderate to good reproducibility across the load conditions. Irrespective of applied load, scapular kinematics followed a motion pattern of continuous upward rotation, posterior tilt and external rotation during arm elevation and a continuous downward rotation, anterior tilt and internal rotation during arm lowering. However, kinematics were altered between maximal loaded and unloaded conditions showing increased upward rotation, reduced posterior tilt and external rotation. Further, the scapulohumeral rhythm was decreased and scapular motion extent increased under maximal loaded movements. Muscle activity during maximum effort were of greater magnitude and differed in their pattern in comparison to the continuous increase and decrease of activity during unloaded shoulder flexion and extension. Relationships between scapular kinematics and their underlying scapular muscle activity could only be identified for a few isolated combinations, whereas the majority showed no associations. Scapular kinematics and scapular muscle activity pattern alter according to the applied load. Alterations between the load conditions comply in magnitude and partially in direction with differences seen between symptomatic and asymptomatic individuals. Even though long-term effects of identified adaptations in response to maximum load are so far unclear, deviations from typical scapular motion or muscle activation should not per se be seen as indicators of shoulder impairment. However, evaluation of alterations in scapular motion and activation in response to maximum effort may have the potential to identify individuals that are unable to cope with increased upper limb demands. Findings further challenge the understanding of scapular motion and stabilization by the trapezius and serratus anterior muscles, as clear relationships between the underlying scapular muscle activity and scapular kinematics were neither observed during unloaded nor maximal loaded shoulder movements. N2 - Das Schulterblatt ist entscheidend für die uneingeschränkte Bewegung und Positionierung der oberen Extremität. Atypische Bewegungsmuster des Schulterblatts werden deshalb oft mit Schulterpathologien in Verbindung gebracht, obwohl die zugrundeliegenden Mechanismen noch nicht ausreichend geklärt sind. Abweichungen stellen möglicherweise nur eine Form physiologischer Variabilität dar, da Veränderungen der Schulterblattbewegung sowohl bei Personen mit als auch ohne Schulterbeschwerden auftreten können. Die Beurteilung der Schulterblattbewegung unter erhöhten Lastbedingungen könnte hilfreich bei der Differenzierung von funktionellen und klinisch relevanten Veränderungen sein. Jedoch sind physiologische Anpassungen der Schulterblattkinematik in Reaktion auf maximale Anforderungen während einer Bewegungsaufgabe der oberen Extremität bisher nicht untersucht. Das Ziel dieses Forschungsprojektes war es deshalb weitere Erkenntnisse hinsichtlich physiologischer Anpassungen der Schulterblattkinematik und ihrer zugrundeliegenden Muskelaktivität zu erlangen. Bevor die Effekte verschiedener Belastungssituationen untersucht wurden, erfolgte die Beurteilung der Reproduzierbarkeit der Schulterblattkinematik sowie der Aktivitätslevel schulterblattstabilisierender Muskeln unter maximaler Anstrengung. Gesunde asymptomatische Erwachsene führten isokinetische Schulterbewegungen in Flexion und Extension unter unbelasteten sowie maximal belasteten Bedingungen durch. Zeitgleich wurde die Schulterblattkinematik sowie die Aktivität schulterstabilisierender Muskeln erfasst. Mit Hilfe eines 3D Kamera Systems (Infrarotkameras & reflektierende Marker) wurden Winkelpositionen des Schulterblatts für Humerus-Positionen zwischen 20° und 120° Flexion bestimmt. Zur weiteren Charakterisierung der Schulterblattbewegung wurde das Ausmaß der Schulterblattrotation sowie der skapulohumerale Rhythmus (Verhältnis von Schulterblatt- und Humerus-Bewegung) ermittelt. Während der Schulterbewegungen wurde die Muskelaktivität des oberen und unteren Trapezius sowie des Serratus anterior mit Oberflächen-Elektromyographie erfasst. Aktivitätslevel wurden für das gesamte Bewegungsausmaß sowie für einzelne Bewegungsphasen berechnet. Eine moderate bis gute Reproduzierbarkeit der Winkelpositionen des Schulterblatts sowie der Aktivitätslevel der schulterblattstabilisierenden Muskulatur konnte unter den verschiedenen Lastbedingungen erreicht werden. Unabhängig von der applizierten Last folgte das Schulterblatt einer kontinuierlichen Aufwärtsrotation, Rückwärtsneigung und Außenrotation während der Schulterflexion und einer kontinuierlichen Abwärtsrotation, Vorwärtsneigung und Innenrotation während der Schulterextension. Bei maximalen Belastungen zeigte das Schulterblatt jedoch eine gesteigerte Aufwärtsrotation sowie eine verringerte Rückwärtsneigung und Außenrotation im Vergleich zur unbelasteten Schulterbewegung. Der skapulohumerale Rhythmus verringerte sich und auch das Ausmaß der Schulterblattrotation war unter maximaler Last erhöht. Die Muskelaktivität zeigte sich unter maximaler Anstrengung nicht nur im Ausmaß gesteigert sondern wies auch ein verändertes Aktivitätsmuster im Verlauf der Bewegungen im Vergleich zur kontinuierlichen Zu- und Abnahme der Aktivität während unbelasteter Bedingungen auf. Korrelationen zwischen dem Ausmaß der Schulterblattrotation und dem Aktivitätslevel der Schulterblattmuskulatur konnten nur für einige wenige isolierte Kombinationen identifiziert werden, während die Mehrheit keine Assoziationen zeigte. Die Kinematik des Schulterblatts und die Aktivitätsmuster der Schulterblattmuskulatur ändern sich in Abhängigkeit der Belastung. Veränderungen der Kinematik und Aktivitätsmuster entsprechen dabei im Ausmaß und teilweise in der Ausrichtung den bekannten Unterschieden zwischen symptomatischen und asymptomatischen Populationen. Obwohl die langfristigen Auswirkungen dieser veränderten Schulterblattkinematik unter maximalen Belastungen bislang unklar sind, sollten Abweichungen von der typischen Bewegung des Schulterblatts sowie bekannter Aktivitätsmuster per se nicht als Indikatoren für eine Beeinträchtigung der Schulterfunktion angesehen werden. Dennoch könnten Untersuchungen der Schulterblattkinematik sowie der Aktivität schulterblattrotierender und –stabilisierender Muskeln unter erhöhten Anforderungen Personen identifizieren die aufgrund mangelnder Anpassung die gesteigerten Lasten nicht kompensieren können. Ein klares Zusammenspiel von Schulterblattkinematik und rotierender sowie stabilisierender Schulterblattmuskulatur ließ sich weder unter unbelasteten noch maximal belasteten Bedingungen aufzeigen. KW - scapular kinematics KW - 3D motion analysis KW - scapular muscles KW - electromyography KW - Schulterblattkinematik KW - 3D-Bewegungsanalyse KW - Schulterblattmuskulatur KW - Elektromyografie Y1 - 2021 ER - TY - THES A1 - Wilhelm, Alina T1 - Stochastic re-acceleration of particles in supernova remnants T1 - Stochastische Nachbeschleunigung von Teilchen in Supernovaüberresten N2 - Supernova remnants (SNRs) are discussed as the most promising sources of galactic cosmic rays (CR). The diffusive shock acceleration (DSA) theory predicts particle spectra in a rough agreement with observations. Upon closer inspection, however, the photon spectra of observed SNRs indicate that the particle spectra produced at SNRs shocks deviate from the standard expectation. This work suggests a viable explanation for a softening of the particle spectra in SNRs. The basic idea is the re-acceleration of particles in the turbulent region immediately downstream of the shock. This thesis shows that at the re-acceleration of particles by the fast-mode waves in the downstream region can be efficient enough to impact particle spectra over several decades in energy. To demonstrate this, a generic SNR model is presented, where the evolution of particles is described by the reduced transport equation for CR. It is shown that the resulting particle and the corresponding synchrotron spectra are significantly softer compared to the standard case. Next, this work outlines RATPaC, a code developed to model particle acceleration and corresponding photon emissions in SNRs. RATPaC solves the particle transport equation in test-particle mode using hydrodynamic simulations of the SNR plasma flow. The background magnetic field can be either computed from the induction equation or follows analytic profiles. This work presents an extended version of RATPaC that accounts for stochastic re-acceleration by fast-mode waves that provide diffusion of particles in momentum space. This version is then applied to model the young historical SNR Tycho. According to radio observations, Tycho’s SNR features the radio spectral index of approximately −0.65. In previous modeling approaches, this fact has been attributed to the strongly distinctive Alfvénic drift, which is assumed to operate in the shock vicinity. In this work, the problems and inconsistencies of this scenario are discussed. Instead, stochastic re-acceleration of electrons in the immediate downstream region of Tycho’s SNR is suggested as a cause for the soft radio spectrum. Furthermore, this work investigates two different scenarios for magnetic-field distributions inside Tycho’s SNR. It is concluded that magnetic-field damping is needed to account for the observed filaments in the radio range. Two models are presented for Tycho’s SNR, both of them feature strong hadronic contribution. Thus, a purely leptonic model is considered as very unlikely. Additionally, to the detailed modeling of Tycho’s SNR, this dissertation presents a relatively simple one-zone model for the young SNR Cassiopeia A and an interpretation for the recently analyzed VERITAS and Fermi-LAT data. It shows that the γ-ray emission of Cassiopeia A cannot be explained without a hadronic contribution and that the remnant accelerates protons up to TeV energies. Thus, Cassiopeia A is found to be unlikely a PeVatron. N2 - Supernovaüberreste werden als meistversprechende Quellen für die galaktische kosmische Strahlung angesehen. Die Theorie der diffusen Schockbeschleunigung prognostiziert ein Teilchenspektrum, das grob mit den Beobachtungen übereinstimmt. Dennoch weisen die Emissionsspektren von mehreren Supernovaüberresten bei näherer Betrachtung darauf hin, dass die an der Schockwelle erzeugten Teilchenspektren von der üblichen Erwartung abweichen. Im Rahmen dieser Dissertation wird eine tragfähige Erklärung für die weicheren Teilchenspektren in Supernovaüberresten vorgestellt. Die Grundidee ist dabei eine Nachbeschleunigung von Teilchen in einem turbulenten Bereich stromabwärts unmittelbar hinter der Stoßfront. Die vorliegende Arbeit demonstriert, dass die Nachbeschleunigung von Teilchen mittels der schnellen magnetoakustischen Wellen direkt hinter dem Shock das Teilchenspektrum signifikant beeinflussen kann. Um dies zu zeigen, wird ein generisches Modell für Supernovaüberreste benutzt, bei dem die Zeitentwicklung der Teilchen durch die reduzierte Transportgleichung der kosmischen Strahlung beschrieben wird. Es zeigt sich, dass die resultierenden Teilchen- sowie dazugehörigen Synchrotronspektren im Vergleich zum Standardfall deutlich weicher sind. Als Nächstes beschreibt diese Dissertation einen Code namens RATPaC, der zur Modellierung der Teilchenbeschleunigung und entsprechenden Photonenemissionen in Supernovaüberresten entwickelt wurde. RATPaC löst die Transportgleichung der kosmischen Strahlung im Test-Teilchen-Regime unter Verwendung hydrodynamischer Simulationen für den Plasmastrom eines Supernovaüberrestes. Das Magnetfeld kann entweder mithilfe der Induktionsgleichung berechnet werden oder folgt einer analytischen Verteilung. Diese Arbeit präsentiert eine erweiterte Version von RATPaC, die unter anderem die stochastische Nachbeschleunigung mittels der schnellen magnetoakustischen Wellen und damit die Teilchendiffusion im Impulsraum enthält. Diese Version wird angewendet, um den jungen historischen Supernovaüberrest Tycho zu modellieren. Gemäß den Beobachtungen im Radiobereich weist Tycho einen spektralen Index von ungefähr -0.65 auf. In den früheren Modellierungsansätzen wurde diese Tatsache dem stark ausgeprägten Alfvénischen Drift in der Schockumgebung zugeschrieben. Im Rahmen dieser Arbeit werden Probleme und Inkonsistenzen dieses Szenarios erläutert und diskutiert. Die Nachbeschleunigung von Elektronen unmittelbar stromabwärts hinter dem Schock wird stattdessen als mögliche Ursache für das weiche Photonenspektrum im Radiobereich vorgeschlagen. Darüber hinaus werden in dieser Dissertation zwei unterschiedliche Szenarien für die Magnetfeldverteilung in Tychos Supernovaüberrest untersucht. Es wird festgestellt, dass die Dämpfung des Magnetfeldes erforderlich ist, um die beobachteten Filamente im Radiobereich zu erklären. Insgesamt werden zwei Modelle für Tychos Supernovaüberrest vorgestellt, die beide einen ausgeprägten hadronischen Beitrag aufweisen. Daraus wird festgestellt, dass ein rein leptonishes Model äußerst unwahrscheinlich ist. Zusätzlich zur detaillierten Modellierung von Tycho präsentiert diese Dissertation ein relativ einfaches Ein-Zonen-Modell für den jungen Supernovaüberrest Cassiopeia A und eine Interpretation für seine vor Kurzem analysierten VERITAS- und Fermi-LAT-Daten. Im Rahmen dieser Arbeit wird gezeigt, dass die -Strahlung von Cassiopeia A ohne einen hadronischen Beitrag nicht erklärt werden kann. Der Überrest soll dabei Protonen bis auf TeV-Energielevel beschleunigen. Somit ist es sehr unwahrscheinlich, dass es sich bei Cassiopeia A um ein PeVatron handelt. KW - supernova remnants KW - particle acceleration KW - Cassiopeia A KW - SN 1572 KW - cosmic rays KW - Supernovaüberreste KW - kosmische Strahlung KW - Teilchenbeschleunigung KW - Cassiopeia A KW - SN 1572 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512915 ER - TY - THES A1 - Wetzel, Maria T1 - Pore space alterations and their impact on hydraulic and mechanical rock properties quantified by numerical simulations T1 - Numerische Simulationen zum Einfluss von Porenraumveränderungen auf die Entwicklung hydraulischer und mechanischer Gesteinseigenschaften N2 - Geochemical processes such as mineral dissolution and precipitation alter the microstructure of rocks, and thereby affect their hydraulic and mechanical behaviour. Quantifying these property changes and considering them in reservoir simulations is essential for a sustainable utilisation of the geological subsurface. Due to the lack of alternatives, analytical methods and empirical relations are currently applied to estimate evolving hydraulic and mechanical rock properties associated with chemical reactions. However, the predictive capabilities of analytical approaches remain limited, since they assume idealised microstructures, and thus are not able to reflect property evolution for dynamic processes. Hence, aim of the present thesis is to improve the prediction of permeability and stiffness changes resulting from pore space alterations of reservoir sandstones. A detailed representation of rock microstructure, including the morphology and connectivity of pores, is essential to accurately determine physical rock properties. For that purpose, three-dimensional pore-scale models of typical reservoir sandstones, obtained from highly resolved micro-computed tomography (micro-CT), are used to numerically calculate permeability and stiffness. In order to adequately depict characteristic distributions of secondary minerals, the virtual samples are systematically altered and resulting trends among the geometric, hydraulic, and mechanical rock properties are quantified. It is demonstrated that the geochemical reaction regime controls the location of mineral precipitation within the pore space, and thereby crucially affects the permeability evolution. This emphasises the requirement of determining distinctive porosity-permeability relationships by means of digital pore-scale models. By contrast, a substantial impact of spatial alterations patterns on the stiffness evolution of reservoir sandstones are only observed in case of certain microstructures, such as highly porous granular rocks or sandstones comprising framework-supporting cementations. In order to construct synthetic granular samples a process-based approach is proposed including grain deposition and diagenetic cementation. It is demonstrated that the generated samples reliably represent the microstructural complexity of natural sandstones. Thereby, general limitations of imaging techniques can be overcome and various realisations of granular rocks can be flexibly produced. These can be further altered by virtual experiments, offering a fast and cost-effective way to examine the impact of precipitation, dissolution or fracturing on various petrophysical correlations. The presented research work provides methodological principles to quantify trends in permeability and stiffness resulting from geochemical processes. The calculated physical property relations are directly linked to pore-scale alterations, and thus have a higher accuracy than commonly applied analytical approaches. This will considerably improve the predictive capabilities of reservoir models, and is further relevant to assess and reduce potential risks, such as productivity or injectivity losses as well as reservoir compaction or fault reactivation. Hence, the proposed method is of paramount importance for a wide range of natural and engineered subsurface applications, including geothermal energy systems, hydrocarbon reservoirs, CO2 and energy storage as well as hydrothermal deposit exploration. N2 - Geochemische Lösungs- und Fällungsprozesse verändern die Struktur des Porenraums und können dadurch die hydraulischen und mechanischen Gesteinseigenschaften erheblich beeinflussen. Die Quantifizierung dieser Parameteränderung und ihre Berücksichtigung in Reservoirmodellen ist entscheidend für eine nachhaltige Nutzung des geologischen Untergrunds. Aufgrund fehlender Alternativen werden dafür bisher analytische Methoden genutzt. Da diese Ansätze eine idealisierte Mikrostruktur annehmen, können insbesondere Änderungen der Gesteinseigenschaften infolge von dynamischen Prozessen nicht zuverlässig abgebildet werden. Ziel der vorliegenden Doktorarbeit ist es deshalb, die Entwicklung von Gesteinspermeabilitäten und -steifigkeiten aufgrund von Porenraumveränderungen genauer vorherzusagen. Für die möglichst exakte Bestimmung physikalischer Gesteinsparameter ist eine detaillierte Darstellung der Mikrostruktur notwendig. Basierend auf mikro-computertomographischen Scans werden daher hochaufgelöste, dreidimensionale Modelle typischer Reservoirsandsteine erstellt und Gesteinspermeabilität und -steifigkeit numerisch berechnet. Um charakteristische Verteilungen von Sekundärmineralen abzubilden, wird der Porenraum dieser virtuellen Sandsteinproben systematisch verändert und die resultierenden Auswirkungen auf die granulometrischen, hydraulischen und elastischen Gesteinseigenschaften bestimmt. Die Ergebnisse zeigen deutlich, dass charakteristische Fällungsmuster unterschiedlicher geochemischer Reaktionsregime die Permeabilität erheblich beeinflussen. Folglich ist die Nutzung von porenskaligen Modellen zur Bestimmung der Porosität-Permeabilitätsbeziehungen unbedingt notwendig. Im Gegensatz dazu ist die Verteilung von Sekundärmineralen für die Gesteinssteifigkeit nur bei bestimmten Mikrostrukturen von Bedeutung, hierzu zählen hochporöse Sandsteine oder solche mit Korngerüst-stützenden Zementierungen. In der Arbeit wird außerdem ein Ansatz zur Konstruktion granularer Gesteine vorgestellt, welcher sowohl die Kornsedimentation als auch die diagenetische Verfestigung umfasst. Es wird gezeigt, dass die synthetischen Proben die mikrostrukturelle Komplexität natürlicher Reservoirsandsteine gut abbilden. Dadurch können generelle Limitationen von bildgebenden Verfahren überwunden und unterschiedlichste virtuelle Repräsentationen von granularen Gesteinen generiert werden. Die synthetischen Proben können zukünftig in virtuellen Experimenten verwendet werden, um die Auswirkungen von Lösungs- und Fällungsreaktionen auf verschiedene petrophysikalische Korrelationen zu untersuchen. Die vorgestellte Arbeit liefert methodische Grundlagen zur Quantifizierung von Permeabilitäts- und Steifigkeitsänderungen infolge geochemischer Prozesse. Die berechneten petrophysikalischen Beziehungen basieren direkt auf mikrostrukturellen Veränderungen des Porenraums. Daher bieten sie eine genauere Vorhersage der Gesteinseigenschaften als herkömmliche analytische Methoden, wodurch sich die Aussagekraft von Reservoirmodellen erheblich verbessert. Somit können Risiken, wie Produktivitäts- oder Injektivitätsverluste sowie Reservoirkompaktion oder Störungsreaktivierung, verringert werden. Die präsentierten Ergebnisse sind daher relevant für verschiedenste Bereiche der geologischen Untergrundnutzung wie CO2- oder Energiespeicherung, Geothermie, Kohlenwasserstoffgewinnung sowie die Erkundung hydrothermaler Lagerstätten. KW - digital rock physics KW - synthetic sandstone KW - permeability evolution KW - elastic rock properties KW - micro-CT KW - Digitale Gesteinsphysik KW - Elastische Gesteinseigenschaften KW - Mikro-CT KW - Permeabilitätsentwicklung KW - Synthetische Sandsteine Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512064 ER - TY - THES A1 - Weger Coenen, Lindsey T1 - Exploring potential impacts from transitions in German and European energy on GHG and air pollutant emissions and on ozone air quality N2 - Energy is at the heart of the climate crisis—but also at the heart of any efforts for climate change mitigation. Energy consumption is namely responsible for approximately three quarters of global anthropogenic greenhouse gas (GHG) emissions. Therefore, central to any serious plans to stave off a climate catastrophe is a major transformation of the world's energy system, which would move society away from fossil fuels and towards a net-zero energy future. Considering that fossil fuels are also a major source of air pollutant emissions, the energy transition has important implications for air quality as well, and thus also for human and environmental health. Both Europe and Germany have set the goal of becoming GHG neutral by 2050, and moreover have demonstrated their deep commitment to a comprehensive energy transition. Two of the most significant developments in energy policy over the past decade have been the interest in expansion of shale gas and hydrogen, which accordingly have garnered great interest and debate among public, private and political actors. In this context, sound scientific information can play an important role by informing stakeholder dialogue and future research investments, and by supporting evidence-based decision-making. This thesis examines anticipated environmental impacts from possible, relevant changes in the European energy system, in order to impart valuable insight and fill critical gaps in knowledge. Specifically, it investigates possible future shale gas development in Germany and the United Kingdom (UK), as well as a hypothetical, complete transition to hydrogen mobility in Germany. Moreover, it assesses the impacts on GHG and air pollutant emissions, and on tropospheric ozone (O3) air quality. The analysis is facilitated by constructing emission scenarios and performing air quality modeling via the Weather Research and Forecasting model coupled with chemistry (WRF-Chem). The work of this thesis is presented in three research papers. The first paper finds that methane (CH4) leakage rates from upstream shale gas development in Germany and the UK would range between 0.35% and 1.36% in a realistic, business-as-usual case, while they would be significantly lower - between 0.08% and 0.15% - in an optimistic, strict regulation and high compliance case, thus demonstrating the value and potential of measures to substantially reduce emissions. Yet, while the optimistic case is technically feasible, it is unlikely that the practices and technologies assumed would be applied and accomplished on a systematic, regular basis, owing to economics and limited monitoring resources. The realistic CH4 leakage rates estimated in this study are comparable to values reported by studies carried out in the US and elsewhere. In contrast, the optimistic rates are similar to official CH4 leakage data from upstream gas production in Germany and in the UK. Considering that there is a lack of systematic, transparent and independent reports supporting the official values, this study further highlights the need for more research efforts in this direction. Compared with national energy sector emissions, this study suggests that shale gas emissions of volatile organic compounds (VOCs) could be significant, though relatively insignificant for other air pollutants. Similar to CH4, measures could be effective for reducing VOCs emissions. The second paper shows that VOC and nitrogen oxides (NOx) emissions from a future shale gas industry in Germany and the UK have potentially harmful consequences for European O3 air quality on both the local and regional scale. The results indicate a peak increase in maximum daily 8-hour average O3 (MDA8) ranging from 3.7 µg m-3 to 28.3 µg m-3. Findings suggest that shale gas activities could result in additional exceedances of MDA8 at a substantial percentage of regulatory measurement stations both locally and in neighboring and distant countries, with up to circa one third of stations in the UK and one fifth of stations in Germany experiencing additional exceedances. Moreover, the results reveal that the shale gas impact on the cumulative health-related metric SOMO35 (annual Sum of Ozone Means Over 35 ppb) could be substantial, with a maximum increase of circa 28%. Overall, the findings suggest that shale gas VOC emissions could play a critical role in O3 enhancement, while NOx emissions would contribute to a lesser extent. Thus, the results indicate that stringent regulation of VOC emissions would be important in the event of future European shale gas development to minimize deleterious health outcomes. The third paper demonstrates that a hypothetical, complete transition of the German vehicle fleet to hydrogen fuel cell technology could contribute substantially to Germany's climate and air quality goals. The results indicate that if the hydrogen were to be produced via renewable-powered water electrolysis (green hydrogen), German carbon dioxide equivalent (CO2eq) emissions would decrease by 179 MtCO2eq annually, though if electrolysis were powered by the current electricity mix, emissions would instead increase by 95 MtCO2eq annually. The findings generally reveal a notable anticipated decrease in German energy emissions of regulated air pollutants. The results suggest that vehicular hydrogen demand is 1000 PJ annually, which would require between 446 TWh and 525 TWh for electrolysis, hydrogen transport and storage. When only the heavy duty vehicle segment (HDVs) is shifted to green hydrogen, the results of this thesis show that vehicular hydrogen demand drops to 371 PJ, while a deep emissions cut is still realized (-57 MtCO2eq), suggesting that HDVs are a low-hanging fruit for contributing to decarbonization of the German road transport sector with hydrogen energy. N2 - Energie ist der Kern der Klimakrise—aber auch der Kern jeglicher Bemühungen zur Eindämmung des Klimawandels. Der Energieverbrauch ist heute für ungefähr drei Viertel der weltweiten Treibhausgasemissionen verantwortlich. Grundlegend für einen ernsthaft gemeinten Plan eine Klimakatastrophe abzuwenden ist daher eine umfassende Umgestaltung des weltweiten Energiesystems von fossilen Brennstoffen weg in Richtung zukünftige Netto-Null-Emissionen. Angesichts der Tatsache, dass fossile Brennstoffe auch eine Hauptquelle für Luftschadstoffemissionen sind, hat die Energiewende wichtige Auswirkungen auf die Luftqualität und damit auch auf die Gesundheit von Mensch und Umwelt. Sowohl Europa als auch Deutschland haben sich zum Ziel gesetzt, bis 2050 treibhausgasneutral zu werden und zeigen darüber hinaus ihr tiefes Engagement für eine umfassende Energiewende. Zwei der wichtigsten Entwicklungen in der Energiepolitik im letzten Jahrzehnt waren das Interesse an der Ausweitung von Schiefergas und Wasserstoff, das entsprechend großes Interesse und große Diskussionen in der Öffentlichkeit, im Privaten und in der Politik erzeugt hat. In diesem Zusammenhang können fundierte wissenschaftliche Informationen eine wichtige Rolle spielen, indem sie Interessenvertreter und zukünftige Forschungsinvestitionen informieren und evidenzbasierte Entscheidungen unterstützen. Diese Doktorarbeit untersucht die Umweltauswirkungen möglicher, relevanter Veränderungen im europäischen Energiesystem, um wertvolle Erkenntnisse zu vermitteln und kritische Wissenslücken zu schließen. Insbesondere werden mögliche zukünftige Schiefergasentwicklungen in Deutschland und im Vereinigten Königreich (UK) sowie ein hypothetischer, vollständiger Übergang zur Wasserstoffmobilität in Deutschland untersucht. Darüber hinaus werden die Auswirkungen auf die Treibhausgas- und Luftschadstoffemissionen sowie auf die Luftqualität von troposphärischem Ozon (O3) bewertet. Die Analyse wird durch die Erstellung von Emissionsszenarien und die Durchführung von Luftqualitätsmodellen über die Chemie-Version des "Weather Research and Forecasting Model" (WRF-Chem) erleichtert. Die Forschung dieser Doktorarbeit wird in drei wissenschaftlichen Artikeln vorgestellt. Der erste Artikel beschreibt, dass die Methan (CH4)-Leckraten aus einer vorgelagerten Schiefergasproduktion in Deutschland und Großbritannien in einem gewöhnlichen Fall zwischen 0.35% und 1.36% liegen würden, während sie in einem optimistischen, streng regulierten Fall signifikant zwischen 0.08% und 0.15% niedriger wären, und zeigt damit die Bedeutung und das Potenzial von Maßnahmen zur wesentlichen Reduzierung der Emissionen auf. Obwohl der optimistische Fall technisch machbar ist, ist es aufgrund der Wirtschaftlichkeit und der begrenzten Überwachungsressourcen unwahrscheinlich, dass die angenommenen Praktiken und Technologien systematisch und regelmäßig angewendet und durchgeführt werden. Die in dieser Studie geschätzten realistischen CH4-Leckraten sind vergleichbar mit Werten, die in Studien in den USA und anderswo angegeben wurden. Im Gegensatz dazu ähneln die optimistischen Raten den offziellen CH4- Leckraten aus der vorgelagerten Gasproduktion in Deutschland und Großbritannien. In Anbetracht des Mangels an systematischen, transparenten und unabhängigen Berichten, die die offziellen Werte stützen, unterstreicht diese Studie die Notwendigkeit weiterer Forschungsanstrengungen in diese Richtung. Im Vergleich zu den Emissionen des nationalen Energiesektors deutet diese Studie darauf hin, dass die Schiefergasemissionen flüchtiger organischer Verbindungen (VOC) erheblich sein könnten, andere Luftschadstoffe jedoch relativ unbedeutend bleiben. Ähnlich wie bei CH4 könnten Maßnahmen zur Reduzierung der VOC-Emissionen wirksam sein. Der zweite Artikel beschreibt, dass VOC- und Stickoxidemissionen (NOx) einer zukünftigen Schiefergasindustrie in Deutschland und Großbritannien potenziell schädliche Folgen für die europäische O3-Luftqualität sowohl auf lokaler als auch auf regionaler Ebene haben. Die Ergebnisse zeigen einen Spitzenanstieg des maximalen täglichen 8-Stunden-Durchschnitts von O3 (MDA8) im Bereich von 3.7 µg m-3 bis 28.3 µg m-3. Die Ergebnisse deuten darauf hin, dass Schiefergasaktivitäten zu zusätzlichen Grenzwertüberschreitungen des MDA8 bei einem erheblichen Prozentsatz der regulatorischen Messstationen sowohl vor Ort als auch in Nachbar- und entfernten Ländern führen können, wobei bei bis zu etwa einem Drittel der Stationen in Großbritannien und einem Fünftel der Stationen in Deutschland zusätzliche Überschreitungen auftreten. Darüber hinaus zeigen die Ergebnisse, dass die Auswirkungen von Schiefergas auf die kumulative gesundheitsbezogene Metrik SOMO35 (jährliche Summe des Ozonmittel über 35 ppb) mit einem maximalen Anstieg von ca. 28% erheblich sein könnten. Insgesamt deuten die Ergebnisse darauf hin, dass die VOC-Emissionen von Schiefergas eine entscheidende Rolle bei der O3-Erhöhung spielen könnten, während die NOx-Emissionen in geringerem Maße dazu beitragen würden. Unsere Ergebnisse zeigen daher, dass eine strenge Regulierung der VOC-Emissionen im Falle einer künftigen europäischen Schiefergasentwicklung wichtig ist, um schädliche gesundheitliche Folgen zu minimieren. Der dritte Artikel beschreibt, dass ein hypothetischer, vollständiger Übergang der deutschen Fahrzeugflotte zur Wasserstoff-Brennstoffzellentechnologie wesentlich zu Deutschlands Klima- und Luftqualitätszielen beitragen kann. Die Ergebnisse deuten darauf hin, dass bei einer Erzeugung des Wasserstoffs durch erneuerbare Wasserelektrolyse (grüner Wasserstoff) die Emissionen des deutschen Kohlendioxidäquivalents (CO2eq) jährlich um 179 MtCO2eq sinken würden. Wenn die Elektrolyse jedoch mit dem aktuellen Strommix betrieben würde, würden sich die Emissionen stattdessen um jährlich 95 MtCO2eq erhöhen. Die Ergebnisse zeigen im Allgemeinen einen bemerkenswerten Rückgang der Luftschadstoffemissionen in Deutschland. Weiterhin legen sie nahe, dass der Wasserstoffbedarf von Fahrzeugen 1000 PJ pro Jahr beträgt, was zwischen 446 TWh und 525 TWh für Elektrolyse, Wasserstofftransport und -speicherung erfordern würde. Wenn nur das Segment der Schwerlastfahrzeuge (HDVs) auf grünen Wasserstoff umgestellt wird, zeigen unsere Ergebnisse, dass der Wasserstoffbedarf der Fahrzeuge auf 371 PJ sinkt, während immer noch eine tiefgreifende Emissionsreduzierung erzielt wird (-57 MtCO2eq). Dies zeigt, dass die Umstellung der HDVs auf grünen Wasserstoff einen entscheidenden Beitrag zur Dekarbonisierung des deutschen Straßenverkehrs leisten kann. T2 - Erforschung möglicher Auswirkungen von Veränderungen deutscher und europäischer Energie auf Treibhausgas- und Luftschadstoffemissionen sowie auf die Ozonluftqualität KW - European energy KW - Emission scenarios KW - Greenhouse gas mitigation KW - Air quality modeling KW - Air pollution KW - Ozone KW - Shale gas KW - Hydrogen economy KW - German road transport KW - Fuel cell electric vehicle KW - Europäische Energie KW - Emissionsszenarien KW - Treibhausgasminderung KW - Luftqualitätsmodellen KW - Luftverschmutzung KW - Ozon KW - Schiefergas KW - Wasserstoffwirtschaft KW - Deutscher Straßenverkehr KW - Brennstoffzellenfahrzeug Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-496986 ER - TY - THES A1 - Wandt, Viktoria Klara Veronika T1 - Trace elements, ageing, and sex BT - impact on genome stability maintenance Y1 - 2021 ER - TY - THES A1 - von Reppert, Alexander T1 - Magnetic strain contributions in laser-excited metals studied by time-resolved X-ray diffraction T1 - Untersuchung magnetischer Beiträge zur Ausdehnung laserangeregter Metalle mittels zeitaufgelöster Röntgenbeugungsexperimente N2 - In this work I explore the impact of magnetic order on the laser-induced ultrafast strain response of metals. Few experiments with femto- or picosecond time-resolution have so far investigated magnetic stresses. This is contrasted by the industrial usage of magnetic invar materials or magnetostrictive transducers for ultrasound generation, which already utilize magnetostrictive stresses in the low frequency regime. In the reported experiments I investigate how the energy deposition by the absorption of femtosecond laser pulses in thin metal films leads to an ultrafast stress generation. I utilize that this stress drives an expansion that emits nanoscopic strain pulses, so called hypersound, into adjacent layers. Both the expansion and the strain pulses change the average inter-atomic distance in the sample, which can be tracked with sub-picosecond time resolution using an X-ray diffraction setup at a laser-driven Plasma X-ray source. Ultrafast X-ray diffraction can also be applied to buried layers within heterostructures that cannot be accessed by optical methods, which exhibit a limited penetration into metals. The reconstruction of the initial energy transfer processes from the shape of the strain pulse in buried detection layers represents a contribution of this work to the field of picosecond ultrasonics. A central point for the analysis of the experiments is the direct link between the deposited energy density in the nano-structures and the resulting stress on the crystal lattice. The underlying thermodynamical concept of a Grüneisen parameter provides the theoretical framework for my work. I demonstrate how the Grüneisen principle can be used for the interpretation of the strain response on ultrafast timescales in various materials and that it can be extended to describe magnetic stresses. The class of heavy rare-earth elements exhibits especially large magnetostriction effects, which can even lead to an unconventional contraction of the laser-excited transducer material. Such a dominant contribution of the magnetic stress to the motion of atoms has not been demonstrated previously. The observed rise time of the magnetic stress contribution in Dysprosium is identical to the decrease in the helical spin-order, that has been found previously using time-resolved resonant X-ray diffraction. This indicates that the strength of the magnetic stress can be used as a proxy of the underlying magnetic order. Such magnetostriction measurements are applicable even in case of antiparallel or non-collinear alignment of the magnetic moments and a vanishing magnetization. The strain response of metal films is usually determined by the pressure of electrons and lattice vibrations. I have developed a versatile two-pulse excitation routine that can be used to extract the magnetic contribution to the strain response even if systematic measurements above and below the magnetic ordering temperature are not feasible. A first laser pulse leads to a partial ultrafast demagnetization so that the amplitude and shape of the strain response triggered by the second pulse depends on the remaining magnetic order. With this method I could identify a strongly anisotropic magnetic stress contribution in the magnetic data storage material iron-platinum and identify the recovery of the magnetic order by the variation of the pulse-to-pulse delay. The stark contrast of the expansion of iron-platinum nanograins and thin films shows that the different constraints for the in-plane expansion have a strong influence on the out-of-plane expansion, due to the Poisson effect. I show how such transverse strain contributions need to be accounted for when interpreting the ultrafast out-of-plane strain response using thermal expansion coefficients obtained in near equilibrium conditions. This work contributes an investigation of magnetostriction on ultrafast timescales to the literature of magnetic effects in materials. It develops a method to extract spatial and temporal varying stress contributions based on a model for the amplitude and shape of the emitted strain pulses. Energy transfer processes result in a change of the stress profile with respect to the initial absorption of the laser pulses. One interesting example occurs in nanoscopic gold-nickel heterostructures, where excited electrons rapidly transport energy into a distant nickel layer, that takes up much more energy and expands faster and stronger than the laser-excited gold capping layer. Magnetic excitations in rare earth materials represent a large energy reservoir that delays the energy transfer into adjacent layers. Such magneto-caloric effects are known in thermodynamics but not extensively covered on ultrafast timescales. The combination of ultrafast X-ray diffraction and time-resolved techniques with direct access to the magnetization has a large potential to uncover and quantify such energy transfer processes. N2 - In dieser Arbeit untersuche ich den Einfluss magnetischer Ordnung auf die laser-induzierte, ultraschnelle Ausdehnung von Metallen. In Experimenten mit Femto- oder Pikosekunden Zeitauflösung sind magnetische Drücke bisher kaum erforscht. Dies steht im Kontrast zur industriellen Verwendung von magnetischen Invar Materialien oder magnetostriktiven Ultraschallgebern, in denen magnetische Drücke bereits in niedrigeren Frequenzbereichen Anwendung finden. In meinen Experimenten untersuche ich, wie der Energieeintrag durch die Absorption von Femtosekunden-Laserpulsen in dünnen Metallschichten zu einem ultraschnellen Druckanstieg führt. Dabei nutze ich, dass der Druckanstieg zu einer Ausdehnung führt, welche Deformationswellen auf der Nanometerskala, sogenannte Hyperschallpulse, in angrenzende Schichten aussendet. Sowohl die Ausdehnung als auch die Deformationspulse ändern den mittleren Abstand zwischen den Atomen in der Probe, welcher mittels Röntgenbeugung an einer Laser-getriebenen Plasma-Röntgenquelle mit einer Subpikosekunden-Zeitauflösung detektiert wird. Das Verfahren der ultraschnellen Röntgenbeugung gelingt auch in Heterostrukturen mit vergrabenen Detektionsschichten, zu denen optische Methoden aufgrund ihrer limitierter Eindringtiefe in Metallen keinen Zugang haben. Ein Beitrag dieser Arbeit zum Feld der Pikosekunden-Akustik ist es, aus der Ausdehnung einer solchen Detektionsschicht Rückschlüsse auf die initialen Energietransferprozesse zu ziehen. Der direkte Zusammenhang zwischen der eingebrachten Energiedichte in die Nanostrukturen und dem resultierenden Druck auf das Atomgitter ist ein zentraler Punkt in meiner Analyse der Experimente. Das zu Grunde liegende thermodynamische Konzept des Grüneisen-Parameters bildet den theoretischen Kontext meiner Publikationen. Anhand verschiedener Materialien demonstriere ich, wie dieses Prinzip auch zur Analyse der Ausdehnung auf ultraschnellen Zeitskalen verwendet werden kann und sich auch auf magnetische Drücke übertragen lässt. Insbesondere in der Materialklasse der schweren, seltenen Erdelemente sind Magnetostriktionseffekte sehr groß und führen dort sogar zu einem ungewöhnlichen Zusammenziehen des Materials nach der Laseranregung. Solch ein bestimmender Einfluss des magnetischen Drucks auf die Atombewegung ist bisher nicht gezeigt worden. Die Zeitskala des magnetischen Druckanstiegs entspricht dabei der beobachteten Abnahme der helikalen Spin-Ordnung, welche zuvor mittels zeitaufgelöster, resonanter Röntgenbeugung ermittelt wurde. Dies zeigt, dass die Stärke des magnetischen Drucks als Maß für magnetische Ordnung dienen kann, insbesondere auch im Fall von antiparalleler oder nicht-kollinearer Ordnung der magnetischen Momente in Proben mit verschwindender Magnetisierung. In Metallfilmen ist die Dehnung des Atomgitters in der Regel durch Druck von Elektronen und Gitterschwingungen geprägt. Um den magnetischen Druckbeitrag auch in solchen Fällen zu extrahieren, in denen systematische Experimente oberhalb und unterhalb der magnetischen Ordnungstemperatur nicht praktikabel sind, habe ich ein neuartiges Doppelpuls-Anregungsverfahren entwickelt, welches allgemein für die Untersuchung von Phasenübergängen nützlich ist. Der Energieeintrag durch den ersten Laserpuls führt dabei zu einer partiellen, ultraschnellen Demagnetisierung, sodass die Amplitude und Form der Gitterausdehnung nach dem zweiten Puls von der Stärke des verbliebenen magnetischen Drucks und somit von der verbliebenen magnetischen Ordnung abhängt. Mit dieser Methode ist es möglich geworden, einen stark richtungsabhängigen, magnetischen Druckbeitrag im Speichermedium Eisen-Platin zu identifizieren und mittels Variation des Puls-zu-Puls Abstands auch die Rückkehr der magnetischen Ordnung zu zeigen. Die unterschiedliche Ausdehnung von Eisen-Platin Nanopartikeln und dünnen Filmen zeigt dabei, dass die verschiedenen Zwangsbedingungen für die Ausdehnung entlang der Probenoberfläche aufgrund des Poisson-Effekts einen entscheidenden Einfluss auf die ultraschnelle Ausdehnung senkrecht zur Probenoberfläche hat. Ich analysiere, wie die zugrunde liegende Querkontraktion bei der Interpretation der ultraschnellen Ausdehnung auf der Basis von thermischen Ausdehnungskoeffizienten im Quasi-Gleichgewicht berücksichtigt werden kann. Meine Arbeit erweitert die Literatur um einen Beitrag zur ultraschnellen Magnetostriktion und entwickelt eine Methodik mittels derer räumlich und zeitlich variierende Druckbeiträge anhand einer Modellierung der Form der Deformationswellen extrahiert werden können. Energietransferprozesse spiegeln sich dabei durch eine Änderung des Druckprofils gegenüber dem Absorptionsprofil der Laserpulse wider. KW - lattice dynamics KW - magnetism KW - ultrafast KW - X-ray diffraction KW - Gitterdynamik KW - Magnetismus KW - ultraschnell KW - Röntgenbeugung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535582 ER - TY - THES A1 - Verbancic, Jana T1 - Carbon supply and the regulation of primary cell wall synthesis in Arabidopsis thaliana N2 - Cellulose is the most abundant biopolymer on Earth and cell wall (CW) synthesis is one of the major carbon consumers in the plant cell. Structure and several interaction partners of plasma membrane (PM)-bound cellulose synthase (CESA) complexes, CSCs, have been studied extensively, but much less is understood about the signals that activate and translocate CESAs to the PM and how exactly cellulose synthesis is being regulated during the diel cycle. The literature describes CSC regulation possibilities through interactions with accessory proteins upon stress conditions (e.g. CC1), post-translational modifications that regulate CSC speed and their possible anchoring in the PM (e.g. with phosphorylation and S-acylation, respectively). In this thesis, 13CO2 labeling and imaging techniques were employed in the same Arabidopsis seedling growth system to elucidate how and when new carbon is incorporated into cell wall (CW) sugars and UDP-glucose, and to follow CSC behavior during the diel cycle. Additionally, an ubiquitination analysis was performed to investigate a possible mechanism to affect CSC trafficking to and/or from the PM. Carbon is being incorporated into CW glucose at a 3-fold higher rate during the light period in comparison to the night in wild-type seedlings. Furthermore, CSC density at the PM, as an indication of active cellulose synthesizing machinery, is increasing in the light and falling during the night, showing that CW biosynthesis is more active in the light. Therefore, CW synthesis might be regulated by the carbon status of the cell. This regulation is broken in the starchless pgm mutant where light and dark carbon incorporation rates into CW glucose are similar, possibly due to the high soluble sugar content in pgm during the first part of the night. Strikingly, pgm CSC abundance at the PM is constantly low during the whole diel cycle, indicating little or no cellulose synthesis, but can be restored with exogenous sucrose or a longer photoperiod. Ubiquitination was explored as a possible regulating mechanism for translocation of primary CW CSCs from the PM and several potential ubiquitination sites have been identified.. The approach in this thesis enabled to study cellulose/CW synthesis from different angles but in the same growth system, allowing direct comparison of those methodologies, which could help understand the relationship between the amount of available carbon in a plant cell and the cells capacity to synthesize cellulose/CW. Understanding which factors contribute to cellulose synthesis regulation and addressing those fundamental questions can provide essential knowledge to manage the need for increased crop production. KW - cellulose KW - cell wall KW - 13CO2 labeling KW - UDP-glucose KW - ubiquitination Y1 - 2021 ER - TY - THES A1 - van der Veen, Iris T1 - Defining moisture sources and (palaeo)environmental conditions using isotope geochemistry in the NW Himalaya N2 - Anthropogenic climate change alters the hydrological cycle. While certain areas experience more intense precipitation events, others will experience droughts and increased evaporation, affecting water storage in long-term reservoirs, groundwater, snow, and glaciers. High elevation environments are especially vulnerable to climate change, which will impact the water supply for people living downstream. The Himalaya has been identified as a particularly vulnerable system, with nearly one billion people depending on the runoff in this system as their main water resource. As such, a more refined understanding of spatial and temporal changes in the water cycle in high altitude systems is essential to assess variations in water budgets under different climate change scenarios. However, not only anthropogenic influences have an impact on the hydrological cycle, but changes to the hydrological cycle can occur over geological timescales, which are connected to the interplay between orogenic uplift and climate change. However, their temporal evolution and causes are often difficult to constrain. Using proxies that reflect hydrological changes with an increase in elevation, we can unravel the history of orogenic uplift in mountain ranges and its effect on the climate. In this thesis, stable isotope ratios (expressed as δ2H and δ18O values) of meteoric waters and organic material are combined as tracers of atmospheric and hydrologic processes with remote sensing products to better understand water sources in the Himalayas. In addition, the record of modern climatological conditions based on the compound specific stable isotopes of leaf waxes (δ2Hwax) and brGDGTs (branched Glycerol dialkyl glycerol tetraethers) in modern soils in four Himalayan river catchments was assessed as proxies of the paleoclimate and (paleo-) elevation. Ultimately, hydrological variations over geological timescales were examined using δ13C and δ18O values of soil carbonates and bulk organic matter originating from sedimentological sections from the pre-Siwalik and Siwalik groups to track the response of vegetation and monsoon intensity and seasonality on a timescale of 20 Myr. I find that Rayleigh distillation, with an ISM moisture source, mainly controls the isotopic composition of surface waters in the studied Himalayan catchments. An increase in d-excess in the spring, verified by remote sensing data products, shows the significant impact of runoff from snow-covered and glaciated areas on the surface water isotopic values in the timeseries. In addition, I show that biomarker records such as brGDGTs and δ2Hwax have the potential to record (paleo-) elevation by yielding a significant correlation with the temperature and surface water δ2H values, respectively, as well as with elevation. Comparing the elevation inferred from both brGDGT and δ2Hwax, large differences were found in arid sections of the elevation transects due to an additional effect of evapotranspiration on δ2Hwax. A combined study of these proxies can improve paleoelevation estimates and provide recommendations based on the results found in this study. Ultimately, I infer that the expansion of C4 vegetation between 20 and 1 Myr was not solely dependent on atmospheric pCO2, but also on regional changes in aridity and seasonality from to the stable isotopic signature of the two sedimentary sections in the Himalaya (east and west). This thesis shows that the stable isotope chemistry of surface waters can be applied as a tool to monitor the changing Himalayan water budget under projected increasing temperatures. Minimizing the uncertainties associated with the paleo-elevation reconstructions were assessed by the combination of organic proxies (δ2Hwax and brGDGTs) in Himalayan soil. Stable isotope ratios in bulk soil and soil carbonates showed the evolution of vegetation influenced by the monsoon during the late Miocene, proving that these proxies can be used to record monsoon intensity, seasonality, and the response of vegetation. In conclusion, the use of organic proxies and stable isotope chemistry in the Himalayas has proven to successfully record changes in climate with increasing elevation. The combination of δ2Hwax and brGDGTs as a new proxy provides a more refined understanding of (paleo-)elevation and the influence of climate. N2 - Die Auswirkungen des menschgemachten Klimawandels wirken sich auch auf den Wasserkreislauf aus. Während manche Regionen höhere Niederschlagsmengen zu erwarten haben, werden andere mit stärkeren und häufigeren Trockenperioden zu konfrontiert sein. Diese Veränderungen haben einen unmittelbaren Einfluss auf Evaporation, Langzeit-Wasserreservoire, Grundwasserbildung, Schneefall und Gletscher. Da Gebirge und Hochplateaus überdurchschnittlich von den Auswirkungen des Klimawandels betroffen sind, ist die Wasserversorgung der Menschen entlang der dort entspringenden Flüsse gefährdet. Insbesondere der Himalaya gilt als instabile Region, dessen Abflüsse die Wasserversorgung von annähernd einer Milliarde Menschen gewährleisten. Um zu erwartende Veränderungen des Wasserbudgets in Abhängigkeit von verschiedenen möglichen Klimawandelszenarien abschätzen zu können, ist ein detaillierteres Verständnis des Wasserkreislaufs in Hochgebirgen und -plateaus erforderlich. Neben dem globalen Klimawandel gibt es weitere Faktoren, die sich auf den Wasserkreislauf auswirken. Das Wechselspiel zwischen Gebirgsbildung und klimatischen Bedingungen beeinflusst den Wasserkreislauf auf geologischen Zeitskalen. Entsprechende Veränderungen und ihre Auswirkungen lassen sich jedoch nur eingeschränkt bestimmen. Mittels geeigneter Proxies für höhenbedingte Änderungen der Hydrologie lassen sich der Orogeneseverlauf sowie dessen klimatische Auswirkungen allerdings genauer rekonstruieren. In der vorliegenden Arbeit werden die Verhältnisse stabiler Isotope (als δ2H und δ18O ausgedrückt) von meteorischen Wassern sowie von organischem Material mit Methoden der Satellitenfernerkundung als Indikator für atmosphärische und hydrologische Prozesse kombiniert, um ein besseres Verständnis der verschiedenen Wasserquellen des Himalaya zu erlangen. Darüber hinaus wurde der Link zwischen modernen klimatischen Bedingungen und verbindungsspezifischen stabilen Isotopen von Blattwachsen (δ2Hwax) sowie von brGDGTs (branched Glycerol dialkyl glycerol tetraethers) rezenter Bodenproben aus den Einzugsgebieten vierer Flüsse des Himalaya hergestellt, um sie als Paläo-Klima- und Paläo-Höhenproxy verwenden zu können. Zu guter Letzt wurden hydrologische Veränderungen auf einer Zeitskala von 20 Mio. Jahren anhand von δ13C- and δ18O-Werten von Bodencarbonat und organischem Material aus Sedimentschnitten der pre-Siwalik und Siwalik-Einheiten nachvollzogen. Die Erkenntnisse dieser tragen zu einer deutlich genaueren Rekonstruktion von Vegetationsänderungen und der Entwicklung der Monsun-Intensität sowie -Saisonalität bei. Die Isotopenzusammensetzung der Oberflächenwasser der untersuchten Flüsse wird hauptsächlich durch Rayleigh-Destillation der im Wesentlichen vom Indischen Sommer Monsun eingetragenen Feuchtigkeit bestimmt. Der durch Satellitenfernerkundungsdaten bestätigte Anstieg des Deuterium-Exzesses (d-excess) im Frühjahr verdeutlicht den signifikanten Einfluss von Schnee- und Gletscherschmelze, der auch in Zeitreihen von Oberflächenwasserproben erkennbar ist. Sowohl brGDGT als auch δ2Hwax können potentiell die absolute Höhe zum Zeitpunkt ihrer Synthese abbilden, da sie stark mit der Lufttemperatur, bzw. mit Oberflächenwasser δ2H und somit indirekt auch mit der Höhe korreliert sind. Im direkten Vergleich der mittels brGDGT und δ2Hwax rekonstruierten Höhen ergaben sich insbesondere in ariden Teilen der Höhenprofile große Unterschiede. Diese sind hauptsächlich auf verstärkte Evapotranspiration und deren Auswirkung auf Pflanzenwasser und -wachse zurückzuführen. Basierend auf den Erkenntnissen der vorliegenden Arbeit können weitere vergleichende Untersuchungen beider Proxies genauere Paläo-Höhenstudien ermöglichen. Diese Arbeit zeigt, dass die Isotopie von Oberflächenwassern genutzt werden kann, um den sich ändernden Wasserhaushalt des Himalya im Kontext voraussichtlich weiter ansteigender Temperaturen zu beobachten. Unsicherheiten bei der Rekonstruktion von Paläo-Höhen konnten durch eine vergleichende Analyse zweier organischer Proxies (δ2Hwax and brGDGTs) aus Paläo-Bodenproben des Himalayas minimiert werden. Verhältnisse stabiler Isotope von Blattwachsen aus diesen Bodenproben spiegeln die Entwicklung der Vegetation unter dem Einfluss des Monsuns im späten Miozän wider. Zusammenfassend wurde erfolgreich gezeigt, dass organische Proxies und stabile Isotope höhenabhängige Änderungen des Klimas im Himalaya aufzeichnen können. Die Kombination von δ2Hwax and brGDGTs als neuer Proxy ermöglicht eine deutlich differenziertere Betrachtung von rekonstruierten Paläo-Höhen sowie Paläo-Klima. KW - stable isotope KW - Himalaya KW - n-alkanes KW - d-excess KW - biomarker KW - paleohydrology KW - GDGT KW - GDGT KW - Himalaya KW - Biomarker KW - Deuterium Exzesses KW - n-alkane KW - Paläohydrologie KW - stabilen Isotopen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-514397 ER - TY - THES A1 - Uflewski, Michal T1 - Characterizing the regulation of proton antiport across the thylakoid membrane N2 - Die Energie, die zum Antrieb photochemischer Reaktionen benötigt wird, stammt aus der Ladungstrennung an der Thylakoidmembran. Aufrgrund des Unterschieds in der Protonenkonzentration zwischen dem Stroma der Chloroplasten und dem Thylakoidlumen wird eine Protonenmotorische Kraft (pmf) erzeugt. Die pmf setzt sich aus dem Protonengradienten (ΔpH) und dem Membranpotential (ΔΨ) zusammen, die gemeinsam die ATP-Synthese antreiben. In der Natur schwankt die Energiemenge, die die Photosynthese antreibt, aufgrund häufiger Änderungen der Lichtintensität. Der Thylakoid-Ionentransport kann den Energiefluss durch einen Photosyntheseapparat an die Lichtverfügbarkeit anpassen, indem er die pmf-Zusammensetzung verändert. Die Dissipation von ΔΨ verringert die Ladungsrekombination am Photosystem II, so dass ein Anstieg der ΔpH-Komponente eine Rückkopplung zur Herabregulierung der Photosynthese auslösen kann. Der durch den K+-Austausch-Antiporter 3 (KEA3) gesteuerte K+/H+-Antiport reduziert den ΔpH-Anteil von pmf und dämpft dadurch das nicht-photochemische Quenching (NPQ). Infolgedessen erhöht sich die Photosyntheseeffizienz beim Übergang zu geringerer Lichtintensität. Ziel dieser Arbeit war es, Antworten auf Fragen zur Regulierung der KEA3-Aktivität und ihrer Rolle in der Pflanzenentwicklung zu finden. Die vorgestellten Daten zeigen, dass KEA3 in Pflanzen, denen der Chloroplasten-ATP-Synthase-Assembly-Faktor CGL160 fehlt und die eine verminderte ATP-Synthase-Aktivität aufweisen, eine zentrale Rolle bei der Regulierung der Photosynthese und des Pflanzenwachstums unter stationären Bedingungen spielt. Das Fehlen von KEA3 in der cgl160-Mutante führt zu einer starken Beeinträchtigung des Wachstums, da die Photosynthese aufgrund des erhöhten pH-abhängigen NPQs und des verringerten Elektronenflusses durch den Cytochrom b6f-Komplex eingeschränkt ist. Die Überexpression von KEA3 in der cgl160-Mutante erhöht die Ladungsrekombination im Photosystem II und fördert die Photosynthese. In Zeiten geringer ATP-Synthase-Aktivität profitieren die Pflanzen also von der KEA3-Aktivität. KEA3 unterliegt einer Dimerisierung über seinen regulatorischen C-Terminus (RCT). Der RCT reagiert auf Veränderungen der Lichtintensität, da die Pflanzen, die KEA3 ohne diese Domäne exprimieren, einen reduzierten Lichtschutzmechanismus bei Lichtintensitätsschwankungen aufweisen. Allerdings fixieren diese Pflanzen während der Photosynthese-Induktionsphase mehr Kohlenstoff als Gegenleistung für einen langfristigen Photoprotektor, was die regulierende Rolle von KEA3 in der Pflanzenentwicklung zeigt. Der KEA3-RCT ist dem Thylakoidstroma zugewandt, so dass seine Regulierung von lichtinduzierten Veränderungen in der Stroma-Umgebung abhängt. Die Regulierung der KEA3-Aktivität überschneidet sich mit den pH-Änderungen im Stroma, die bei Lichtschwankungen auftreten. Es hat sich gezeigt, dass ATP und ADP eine Affinität zum heterolog exprimierten KEA3 RCT haben. Eine solche Wechselwirkung verursacht Konformationsänderungen in der RCT-Struktur. Die Faltung der RCT-Liganden-Interaktion hängt vom pH-Wert der Umgebung ab. Mit einer Kombination aus Bioinformatik und In-vitro-Ansatz wurde die ATP-Bindungsstelle am RCT lokalisiert. Das Einfügen einer Punktmutation in der KEA3-RCT Bindungsstelle in planta führte zu einer Deregulierung der Antiporteraktivität beim Übergang zu wenig Licht. Die in dieser Arbeit vorgestellten Daten ermöglichten es uns, die Rolle von KEA3 bei der Anpassung der Photosynthese umfassender zu bewerten und Modelle zur Regulierung der KEA3-Aktivität während des Übergangs zwischen verschiedenen Lichtintensitäten vorzuschlagen. N2 - The energy required to drive photochemical reactions is derived from charge separation across the thylakoid membrane. As the consequence of difference in proton concentration between chloroplasts stroma and thylakoid lumen, a proton motive force (pmf) is generated. The pmf is composed out of the proton gradient (ΔpH) and membrane potential (ΔΨ), and together they drive the ATP synthesis. In nature, the amount of energy fueling photosynthesis varies due to frequent changes in the light intensity. Thylakoid ion transport can adapt the energy flow through a photosynthetic apparatus to the light availability by adjusting the pmf composition. Dissipation of ΔΨ reduces the charge recombination at the photosystem II, allowing for an increase in ΔpH component to trigger a feedback downregulation of photosynthesis. K+ Exchange Antiporter 3 (KEA3) driven K+/H+ antiport reduces the ΔpH fraction of pmf, thereby dampening a non-photochemical quenching (NPQ). As a result, it increases the photosynthesis efficiency during the transition to lower light intensity. This thesis aimed to find the answers for questions concerning KEA3 activity regulation and its role in plant development. Presented data shows that in plants lacking chloroplast ATP synthase assembly factor CGL160 with decreased ATP synthase activity, KEA3 has a pivotal role in photosynthesis regulation and plant growth during steady-state conditions. Lack of KEA3 in cgl160 mutant results in a strong growth impairment, as photosynthesis is limited due to increased pH-dependent NPQ and decreased electron flow through cytochrome b6f complex. Overexpression of KEA3 in cgl160 mutant increases charge recombination at photosystem II, promoting photosynthesis. Thus, during periods of low ATP synthase activity, plants benefit from KEA3 activity. The KEA3 undergoes dimerization via its regulatory C-terminus (RCT). The RCT responds to changes in light intensity as the plants expressing KEA3 without this domain show reduced photo-protective mechanism in light intensity transients. However, those plants fix more carbon during the photosynthesis induction phase as a trade-off for a long-term photoprotection, showing KEA3 regulatory role in plant development. The KEA3 RCT is facing thylakoid stroma, thus its regulation depends on light-induced changes in the stromal environment. KEA3 activity regulation overlaps with the stromal pH changes occurring during light fluctuations. The ATP and ADP has shown to have an affinity towards heterologously expressed KEA3 RCT. Such interaction causes conformational changes in RCT structure. The fold change of RCT-ligand interaction depends on the environmental pH value. With a combination of bioinformatics and in vitro approach, the ATP binding site at RCT was located. Introduction of binding site point mutation in planta KEA3 RCT resulted in antiporter activity deregulation during transition to low light. Together, the data presented in this thesis allowed us to assess more broadly a KEA3 role in photosynthesis adjustment and propose the models of KEA3 activity regulation throughout transition in light intensity. KW - plant KW - photosynthesis KW - thylakoid KW - ion transport KW - fluctuating light KW - Pflanze KW - Photosynthese KW - Thylakoid KW - Ionentransport KW - schwankendes Licht Y1 - 2021 ER - TY - THES A1 - Tung, Wing Tai T1 - Polymeric fibrous scaffold on macro/microscale towards tissue regeneration Y1 - 2021 ER - TY - THES A1 - Torcato Mordido, Gonçalo Filipe T1 - Diversification, compression, and evaluation methods for generative adversarial networks N2 - Generative adversarial networks (GANs) have been broadly applied to a wide range of application domains since their proposal. In this thesis, we propose several methods that aim to tackle different existing problems in GANs. Particularly, even though GANs are generally able to generate high-quality samples, the diversity of the generated set is often sub-optimal. Moreover, the common increase of the number of models in the original GANs framework, as well as their architectural sizes, introduces additional costs. Additionally, even though challenging, the proper evaluation of a generated set is an important direction to ultimately improve the generation process in GANs. We start by introducing two diversification methods that extend the original GANs framework to multiple adversaries to stimulate sample diversity in a generated set. Then, we introduce a new post-training compression method based on Monte Carlo methods and importance sampling to quantize and prune the weights and activations of pre-trained neural networks without any additional training. The previous method may be used to reduce the memory and computational costs introduced by increasing the number of models in the original GANs framework. Moreover, we use a similar procedure to quantize and prune gradients during training, which also reduces the communication costs between different workers in a distributed training setting. We introduce several topology-based evaluation methods to assess data generation in different settings, namely image generation and language generation. Our methods retrieve both single-valued and double-valued metrics, which, given a real set, may be used to broadly assess a generated set or separately evaluate sample quality and sample diversity, respectively. Moreover, two of our metrics use locality-sensitive hashing to accurately assess the generated sets of highly compressed GANs. The analysis of the compression effects in GANs paves the way for their efficient employment in real-world applications. Given their general applicability, the methods proposed in this thesis may be extended beyond the context of GANs. Hence, they may be generally applied to enhance existing neural networks and, in particular, generative frameworks. N2 - Generative adversarial networks (GANs) wurden seit ihrer Einführung in einer Vielzahl von Anwendungsbereichen eingesetzt. In dieser Dissertation schlagen wir einige Verfahren vor, die darauf abzielen, verschiedene bestehende Probleme von GANs zu lösen. Insbesondere, fokussieren wir uns auf das Problem das GANs zwar qualitative hochwertige Samples generieren können, aber die Diversität ist oft sub-optimal. Darüber hinaus, stellt die allgemein übliche Zunahme der Anzahl der Modelle unter dem ursprünglichen GAN-Framework, als auch deren Modellgröße weitere Aufwendungskosten dar. Abschließend, ist die richtige Evaluierung einer generierten Menge, wenn auch herausfordernd, eine wichtige Forschungsrichtung, um letztendlich den Generierungsprozess von GANs zu verbessern. Wir beginnen mit der Einführung von zwei Diversifizierungsmethoden die das ursprüngliche GAN-Framework um mehrere Gegenspieler erweitern, um die Diversität zu erhöhen. Um den zusätzlichen Speicher- und Rechenaufwand zu reduzieren, führen wir dann eine neue Kompressionsmethode ein. Diese Methode basiert auf den Monte-Carlo-Methoden und Importance Sampling, für das Quantisieren und Pruning der Gewichte und Aktivierungen von schon trainierten neuronalen Netzwerken ohne zusätzliches Trainieren. Wir erweitern die erwähne Methode zusätzlich für das Quantisieren und Pruning von Gradienten während des Trainierens, was die Kommunikationskosten zwischen verschiedenen sogenannten „Workern“ in einer verteilten Trainingsumgebung reduziert. Bezüglich der Bewertung der generierten Samples, stellen wir mehrere typologie basierte Evaluationsmethoden vor, die sich auf Bild-und Text konzentrieren. Um verschiedene Anwendungsfälle zu erfassen, liefern unsere vorgestellten Methoden einwertige und doppelwertige Metriken. Diese können einerseits dazu genutzt werden, generierte Samples, oder die Qualität und Verteilung der Samples anhand einer Menge von echten Samples zu bewerten. Außerdem, verwenden zwei unserer vorgestellten Metriken so genanntes locality-sensitive Hashing, um die generierten Samples von stark komprimierten GANs genau zu bewerten. Die Analyse von Kompressionseffekten in GANs ebnet den Weg für ihren effizienten Einsatz für reale Anwendungen. Aufgrund der allgemeinen Anwendungsmöglichkeit von GANs, können die in dieser Arbeit vorgestellten Methoden auch über Kontext von GANs hinaus erweitert werden. Daher könnten sie allgemein auf existierende neuronale Netzwerke angewandt werden und insbesondere auf generative Frameworks. KW - deep learning KW - generative adversarial networks KW - erzeugende gegnerische Netzwerke KW - tiefes Lernen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535460 ER - TY - THES A1 - Topuz, Birol T1 - Social integration and religion BT - a case study on Alevi-Sunni socio-religious groups' relationships in mixed villages in Corum Y1 - 2021 ER - TY - THES A1 - Ting, Michael Kien Yin T1 - Circadian-regulated dynamics of translation in Arabidopsis thaliana Y1 - 2021 ER - TY - THES A1 - Teusner, Ralf T1 - Situational interventions and peer feedback in massive open online courses T1 - Situationsabhängige Interventionen und Peer-Feedback in Massive Open Online Courses BT - narrowing the gap between learners and instructors in online programming education N2 - Massive Open Online Courses (MOOCs) open up new opportunities to learn a wide variety of skills online and are thus well suited for individual education, especially where proffcient teachers are not available locally. At the same time, modern society is undergoing a digital transformation, requiring the training of large numbers of current and future employees. Abstract thinking, logical reasoning, and the need to formulate instructions for computers are becoming increasingly relevant. A holistic way to train these skills is to learn how to program. Programming, in addition to being a mental discipline, is also considered a craft, and practical training is required to achieve mastery. In order to effectively convey programming skills in MOOCs, practical exercises are incorporated into the course curriculum to offer students the necessary hands-on experience to reach an in-depth understanding of the programming concepts presented. Our preliminary analysis showed that while being an integral and rewarding part of courses, practical exercises bear the risk of overburdening students who are struggling with conceptual misunderstandings and unknown syntax. In this thesis, we develop, implement, and evaluate different interventions with the aim to improve the learning experience, sustainability, and success of online programming courses. Data from four programming MOOCs, with a total of over 60,000 participants, are employed to determine criteria for practical programming exercises best suited for a given audience. Based on over five million executions and scoring runs from students' task submissions, we deduce exercise difficulties, students' patterns in approaching the exercises, and potential flaws in exercise descriptions as well as preparatory videos. The primary issue in online learning is that students face a social gap caused by their isolated physical situation. Each individual student usually learns alone in front of a computer and suffers from the absence of a pre-determined time structure as provided in traditional school classes. Furthermore, online learning usually presses students into a one-size-fits-all curriculum, which presents the same content to all students, regardless of their individual needs and learning styles. Any means of a personalization of content or individual feedback regarding problems they encounter are mostly ruled out by the discrepancy between the number of learners and the number of instructors. This results in a high demand for self-motivation and determination of MOOC participants. Social distance exists between individual students as well as between students and course instructors. It decreases engagement and poses a threat to learning success. Within this research, we approach the identified issues within MOOCs and suggest scalable technical solutions, improving social interaction and balancing content difficulty. Our contributions include situational interventions, approaches for personalizing educational content as well as concepts for fostering collaborative problem-solving. With these approaches, we reduce counterproductive struggles and create a universal improvement for future programming MOOCs. We evaluate our approaches and methods in detail to improve programming courses for students as well as instructors and to advance the state of knowledge in online education. Data gathered from our experiments show that receiving peer feedback on one's programming problems improves overall course scores by up to 17%. Merely the act of phrasing a question about one's problem improved overall scores by about 14%. The rate of students reaching out for help was significantly improved by situational just-in-time interventions. Request for Comment interventions increased the share of students asking for help by up to 158%. Data from our four MOOCs further provide detailed insight into the learning behavior of students. We outline additional significant findings with regard to student behavior and demographic factors. Our approaches, the technical infrastructure, the numerous educational resources developed, and the data collected provide a solid foundation for future research. N2 - MOOCs (Massive Open Online Courses) ermöglichen es jedem Interessierten sich in verschiedenen Fachrichtungen online weiterzubilden. Sie fördern die persönliche individuelle Entwicklung und ermöglichen lebenslanges Lernen auch dort, wo geeignete Lehrer nicht verfügbar sind. Unsere Gesellschaft befindet sich derzeit in der sogenannten "digitalen Transformation". Von vielen Arbeitnehmern werden in diesem Zusammenhang zunehmend Fähigkeiten wie abstraktes Denken und logisches Schlussfolgern erwartet. Das Erlernen einer Programmiersprache ist eine geeignete Möglichkeit, diese Fähigkeiten zu erlangen. Obwohl Programmieren als geistige Disziplin angesehen wird, ist es zu einem gewissen Grad auch ein Handwerk, bei dem sich das individuelle Können insbesondere durch stetige praktische Anwendung entwickelt. Um Programmierkenntnisse effektiv in einem MOOC zu vermitteln, sollten daher praktische Aufgaben von vornherein in den Lehrstoff des Kurses integriert werden, um die vorgestellten Konzepte geeignet zu vertiefen und zu festigen. Neben den positiven Aspekten für die Lernenden weisen praktische Programmieraufgaben jedoch auch ein erhöhtes Frustpotential auf. Kryptische Fehlermeldungen und teils unbekannte Syntax überfordern insbesondere diejenigen Teilnehmer, welche zusätzlich mit konzeptionellen Missverständnissen zu kämpfen haben. Im Rahmen dieser Arbeit entwickeln und analysieren wir mehrere Interventionsmöglichkeiten um die Lernerfahrung und den Lernerfolg von Teilnehmern in Programmier-MOOCs zu verbessern. Daten von über 60.000 Teilnehmern aus vier Programmier-MOOCs bilden die Grundlage für eine Analyse von Kriterien für geeignete Programmieraufgaben für spezifische Teilnehmergruppen. Auf Basis von 5 Millionen Codeausführungen von Teilnehmern leiten wir Schwachstellen in Aufgaben und typische Herangehensweisen der Teilnehmer ab. Die Hauptschwierigkeit beim Lernen in einer virtuellen Umgebung ist die durch physische Isolation hervorgerufene soziale Entkopplung. Jeder Teilnehmer lernt alleine vor einem Bildschirm, ein gemeinsamer Stundenplan wie im klassischen Schulunterricht fehlt. Weiterhin präsentieren bestehende online Kurse den Teilnehmern in der Regel lediglich universell einsetzbare Lerninhalte, welche in keiner Weise auf die jeweiligen Bedürfnisse und Vorerfahrungen der individuellen Teilnehmer angepasst sind. Personalisierte Lerninhalte bzw. individuelles Feedback sind in MOOCs aufgrund der großen Anzahl an Teilnehmern und der nur kleinen Anzahl an Lehrenden oft nur schwer bzw. gar nicht zu realisieren. Daraus resultieren wiederum hohe Anforderungen an das individuelle Durchhaltevermögen und die Selbstmotivation der MOOC-Teilnehmer. Die soziale Entkopplung manifestiert sich sowohl zwischen den Teilnehmern untereinander als auch zwischen den Lehrenden und den Teilnehmern. Negative Folgen sind ein häufig verringertes Engagement und damit eine Gefährdung des Lernerfolgs. In dieser Arbeit schlagen wir als Gegenmaßnahme skalierbare technische Lösungen vor, um die soziale Interaktion zu verbessern und inhaltliche Schwierigkeiten zu überwinden. Unsere wissenschaftlichen Beiträge umfassen situationsabhängige Interventionen, Ansätze zur Personalisierung von Lerninhalten, sowie Konzepte und Anreize zur Verbesserung der Kollaboration der Teilnehmer untereinander. Mit diesen Maßnahmen schaffen wir es, kontraproduktive Blockaden beim Lernen zu lösen und stellen damit einen universell einsetzbaren Ansatz zur Verbesserung von zukünftigen Progammier-MOOCs bereit. Die aus unseren Experimenten gesammelten Daten zeigen, dass bei Programmierproblemen gewährtes Feedback von anderen Teilnehmern die Gesamtpunktzahl innerhalb des Teilnehmerfeldes durchschnittlich um bis zu 17% verbessert. Bereits das Formulieren des jeweiligen individuellen Problems verbesserte die Gesamtpunktzahl um etwa 14%. Durch situative Interventionen konnte weiterhin der Anteil der Teilnehmer, die nach Hilfe fragen, um bis zu 158% gesteigert werden. Die gesammelten Daten aus unseren vier MOOCs ermöglichen darüber hinaus detaillierte Einblicke in das Lernverhalten der Teilnehmer. Wir zeigen zusätzlich Erkenntnisse in Bezug auf das Verhalten der Teilnehmer und zu demografischen Faktoren auf. Die in dieser Arbeit beschriebenen Ansätze, die geschaffene technische Infrastruktur, das entworfene Lehrmaterial, sowie der umfangreiche gesammelte Datenbestand bilden darüber hinaus eine vielversprechende Grundlage für weitere zukünftige Forschung. KW - programming KW - MOOC KW - intervention KW - collaboration KW - peer feedback KW - Programmierung KW - MOOC KW - Interventionen KW - Kollaboration KW - Peer-feedback Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-507587 ER - TY - THES A1 - Teichmann, Erik T1 - Partial synchronization in coupled systems with repulsive and attractive interaction T1 - Partielle Synchronisation in Gekoppelten System mit Abstoßender und Anziehender Wechselwirkung N2 - Partial synchronous states exist in systems of coupled oscillators between full synchrony and asynchrony. They are an important research topic because of their variety of different dynamical states. Frequently, they are studied using phase dynamics. This is a caveat, as phase dynamics are generally obtained in the weak coupling limit of a first-order approximation in the coupling strength. The generalization to higher orders in the coupling strength is an open problem. Of particular interest in the research of partial synchrony are systems containing both attractive and repulsive coupling between the units. Such a mix of coupling yields very specific dynamical states that may help understand the transition between full synchrony and asynchrony. This thesis investigates partial synchronous states in mixed-coupling systems. First, a method for higher-order phase reduction is introduced to observe interactions beyond the pairwise one in the first-order phase description, hoping that these may apply to mixed-coupling systems. This new method for coupled systems with known phase dynamics of the units gives correct results but, like most comparable methods, is computationally expensive. It is applied to three Stuart-Landau oscillators coupled in a line with a uniform coupling strength. A numerical method is derived to verify the analytical results. These results are interesting but give importance to simpler phase models that still exhibit exotic states. Such simple models that are rarely considered are Kuramoto oscillators with attractive and repulsive interactions. Depending on how the units are coupled and the frequency difference between the units, it is possible to achieve many different states. Rich synchronization dynamics, such as a Bellerophon state, are observed when considering a Kuramoto model with attractive interaction in two subpopulations (groups) and repulsive interactions between groups. In two groups, one attractive and one repulsive, of identical oscillators with a frequency difference, an interesting solitary state appears directly between full and partial synchrony. This system can be described very well analytically. N2 - Partiell synchronisierte Zustände existieren zwischen voller Synchronisation und Asynchronie, in Systemen von gekoppelten Oszillatoren. Das Verständnis von partieller Synchronisation ist ein wichtiger Forschungszweig, da sie viele dynamische Zustände enthalten. Sie werden oft mithilfe von Phasendynamiken untersucht. Das ist jedoch ein Nachteil, da Phasendynamiken für gewöhnlich nur im Grenzfall von schwacher Kopplung, also einer Näherung in erster Ordnung der Kopplungsstärke, betrachtet werden. Die Verallgemeinerung zu höheren Ordnungen ist weiterhin ein offenes Problem. Systeme mit anziehender und abstoßender Kopplung zwischen den einzelnen Oszillatoren sind von speziellem Interesse in der Erforschung von partieller Synchronisation. Solch eine Mischung aus Kopplungsstärken führt zu bestimmten dynamischen Zuständen, die den Übergang von Synchronisation zu Asynchronie erklären könnten. Diese Arbeit untersucht solche Zustände in Systemen mit gemischten Kopplungsstärken. Zuerst wird eine neue Methode zur Bestimmung von Phasendynamiken in höheren Ordnungen eingeführt. Sie betrachtet mehr Kopplungsterme, als die einfachen paarweisen Interaktionen die in der ersten Ordnung der Kopplungsstärke auftreten, in der Hoffnung, dass diese Methode auch auf Systeme mit gemischter Kopplung anwendbar ist. Die neue Methode für Oszillatoren mit einer bekannten Phasendynamik, führt zu den richtigen Ergebnissen, ist aber aufwendig zu berechnen. Die Methode wird auf drei, in einer Linie gekoppelten, Stuart-Landau Oszillatoren angewendet. Eine numerische Methode wird abgeleitet, um die analytischen Ergebnisse zu verifizieren. Diese Ergebnisse sind interessant, aber durch die benötigte hohe Rechenleistung ist es weiterhin vorteilhaft einfachere Phasenmodelle zu untersuchen, die exotischere Zustände erreichen. Solch ein einfaches Model, das eher selten Beachtung findet, ist das Kuramoto Model mit anziehender und abstoßender Kopplung. Abhängig davon, wie die Oszillatoren gekoppelt und wie die Frequenzunterschiede zwischen den einzelnen Oszillatoren sind, ist es möglich viele verschiedene Zustände zu erreichen. Interessante Synchronisierungsdynamiken werden erreicht, wie zum Beispiel der Bellerophon Zustand, wenn ein Kuramoto Model mit zwei Gruppen, mit anziehender Kopplung innerhalb der Gruppen und abstoßender Kopplung zwischen den Gruppen, untersucht wird. Bei zwei Gruppen, eine anziehend und eine abstoßend, von identischen Oszillatoren mit einem Frequenzunterschied zwischen den Gruppen, wird ein interessanter solitärer Zustand beobachtet. Er befindet sich direkt am Übergang zwischen Synchronisation und partieller Synchronisation. Solch ein System ist sehr gut analytisch beschreibbar. KW - Synchronization KW - Dynamical Systems KW - Coupled Systems KW - gekoppelte System KW - dynamische Systeme KW - Synchronisation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-528943 ER - TY - THES A1 - Tabares Jimenez, Ximena del Carmen T1 - A palaeoecological approach to savanna dynamics and shrub encroachment in Namibia N2 - The spread of shrubs in Namibian savannas raises questions about the resilience of these ecosystems to global change. This makes it necessary to understand the past dynamics of the vegetation, since there is no consensus on whether shrub encroachment is a new phenomenon, nor on its main drivers. However, a lack of long-term vegetation datasets for the region and the scarcity of suitable palaeoecological archives, makes reconstructing past vegetation and land cover of the savannas a challenge. To help meet this challenge, this study addresses three main research questions: 1) is pollen analysis a suitable tool to reflect the vegetation change associated with shrub encroachment in savanna environments? 2) Does the current encroached landscape correspond to an alternative stable state of savanna vegetation? 3) To what extent do pollen-based quantitative vegetation reconstructions reflect changes in past land cover? The research focuses on north-central Namibia, where despite being the region most affected by shrub invasion, particularly since the 21st century, little is known about the dynamics of this phenomenon. Field-based vegetation data were compared with modern pollen data to assess their correspondence in terms of composition and diversity along precipitation and grazing intensity gradients. In addition, two sediment cores from Lake Otjikoto were analysed to reveal changes in vegetation composition that have occurred in the region over the past 170 years and their possible drivers. For this, a multiproxy approach (fossil pollen, sedimentary ancient DNA (sedaDNA), biomarkers, compound specific carbon (δ13C) and deuterium (δD) isotopes, bulk carbon isotopes (δ13Corg), grain size, geochemical properties) was applied at high taxonomic and temporal resolution. REVEALS modelling of the fossil pollen record from Lake Otjikoto was run to quantitatively reconstruct past vegetation cover. For this, we first made pollen productivity estimates (PPE) of the most relevant savanna taxa in the region using the extended R-value model and two pollen dispersal options (Gaussian plume model and Lagrangian stochastic model). The REVEALS-based vegetation reconstruction was then validated using remote sensing-based regional vegetation data. The results show that modern pollen reflects the composition of the vegetation well, but diversity less well. Interestingly, precipitation and grazing explain a significant amount of the compositional change in the pollen and vegetation spectra. The multiproxy record shows that a state change from open Combretum woodland to encroached Terminalia shrubland can occur over a century, and that the transition between states spans around 80 years and is characterized by a unique vegetation composition. This transition is supported by gradual environmental changes induced by management (i.e. broad-scale logging for the mining industry, selective grazing and reduced fire activity associated with intensified farming) and related land-use change. Derived environmental changes (i.e. reduced soil moisture, reduced grass cover, changes in species composition and competitiveness, reduced fire intensity) may have affected the resilience of Combretum open woodlands, making them more susceptible to change to an encroached state by stochastic events such as consecutive years of precipitation and drought, and by high concentrations of pCO2. We assume that the resulting encroached state was further stabilized by feedback mechanisms that favour the establishment and competitiveness of woody vegetation. The REVEALS-based quantitative estimates of plant taxa indicate the predominance of a semi-open landscape throughout the 20th century and a reduction in grass cover below 50% since the 21st century associated with the spread of encroacher woody taxa. Cover estimates show a close match with regional vegetation data, providing support for the vegetation dynamics inferred from multiproxy analyses. Reasonable PPEs were made for all woody taxa, but not for Poaceae. In conclusion, pollen analysis is a suitable tool to reconstruct past vegetation dynamics in savannas. However, because pollen cannot identify grasses beyond family level, a multiproxy approach, particularly the use of sedaDNA, is required. I was able to separate stable encroached states from mere woodland phases, and could identify drivers and speculate about related feedbacks. In addition, the REVEALS-based quantitative vegetation reconstruction clearly reflects the magnitude of the changes in the vegetation cover that occurred during the last 130 years, despite the limitations of some PPEs. This research provides new insights into pollen-vegetation relationships in savannas and highlights the importance of multiproxy approaches when reconstructing past vegetation dynamics in semi-arid environments. It also provides the first time series with sufficient taxonomic resolution to show changes in vegetation composition during shrub encroachment, as well as the first quantitative reconstruction of past land cover in the region. These results help to identify the different stages in savanna dynamics and can be used to calibrate predictive models of vegetation change, which are highly relevant to land management. N2 - Die Ausbreitung von Sträuchern in der namibischen Savanne wirft Fragen nach der Resilienz dieser Ökosysteme gegenüber globalen Veränderungen auf. Dies macht es notwendig, die Vegetationsdynamik in der Vergangenheit zu verstehen, da kein Konsens darüber besteht, ob die Verbuschung ein neues Phänomen ist oder über ihre Haupttreiber. Aufgrund des Mangels an Langzeitvegetationsdatensätzen für die Region und des Mangels an geeigneten paläoökologischen Archiven bleibt die Rekonstruktion der früheren Vegetation und der früheren Landbedeckung der Savannen eine Herausforderung. In diesem Zusammenhang befasst sich diese Studie mit drei Hauptforschungsfragen: 1) Ist Pollenanalyse ein geeignetes Instrument, um die Veränderung der Vegetation widerzuspiegeln, die mit der Verbuschung von Savannen verbunden ist? 2) Entspricht die derzeitige verbuschte Landschaft einem stabilen Zustand der Savannenvegetation? 3) Inwieweit entspricht die quantitative Rekonstruktion der Vegetation auf der Grundlage fossiler Pollendaten der früheren Vegetationsbedeckung der Savanne? Um diese Fragen zu beantworten, konzentrierte sich diese Forschung auf Nord-Zentral-Namibia, da diese Region insbesondere seit dem 21. Jahrhundert am stärksten von Verbuschung betroffen ist, über die Dynamik dieses Phänomens in der Region ist jedoch wenig bekannt. Im Rahmen dieser Studie wurden feldbasierte Vegetationsdaten mit modernen Pollendaten verglichen, um das Potenzial moderner Pollen zu bewerten, die Vegetationszusammensetzung und -vielfalt entlang von Niederschlags- und Weideintensitätsgradienten widerzuspiegeln. Zusätzlich wurden zwei Sedimentkerne aus dem Otjikoto-See analysiert, um die Veränderungen der Vegetationszusammensetzung in der Region in den letzten 170 Jahren und ihre möglichen Treiber zu dokumentieren. Hierzu wurde ein Multiproxy-Ansatz (fossiler Pollen, sedimentäre alte DNA, Biomarker, verbindungsspezifische Kohlenstoff- (δ13C) und Deuterium- (δD) Isotope, Kohlenstoff-Isotope (δ13Corg), Korngröße, geochemische Eigenschaften) mit hoher taxonomischer und zeitlicher Auflösung angewendet. Schließlich wurde der REVEALS-Ansatz auf den fossilen Pollendata des Otjikoto-Sees angewendet, um die Vegetationsbedeckung der Vergangenheit quantitativ zu rekonstruieren. Dazu wurden zunächst die Pollenproduktivitätsschätzungen (PPE) der relevantesten Savannentaxa in der Region unter Verwendung des erweiterten R-Wert-Modells und zweier Pollenausbreitungsmodelle (Gaußsches Federmodell und Lagrange-Stochastikmodell) berechnet. Die auf REVEALS basierende Vegetationsrekonstruktion wurde dann unter Verwendung von auf Fernerkundung basierenden regionalen Vegetationsdaten validiert. Die Ergebnisse zeigen, dass moderner Pollen die Zusammensetzung der Vegetation gut widerspiegelt, jedoch weniger die Diversität. Interessanterweise machen Niederschlag und Beweidung einen signifikanten, aber geringen Anteil der Änderung der Zusammensetzung in den Pollen- und Vegetationsspektren aus. Die Multiproxy-Analyse zeigt, dass ein Zustandswechsel von der offenen Combretum Baumsavanne zum Terminalia Buschland über ein Jahrhundert stattfinden kann und dass der Übergang zwischen den beiden Zuständen etwa 80 Jahre dauert und durch eine einzigartige Vegetationszusammensetzung gekennzeichnet ist. Dieser Übergang wird durch allmähliche Umweltveränderungen unterstützt, die durch das Management (z.B. großflächige Abholzung für den Bergbau sowie selektive Beweidung und verringerte Feueraktivität verbunden mit intensivierter Landwirtschaft) und damit verbundene Landnutzungsänderungen hervorgerufen werden. Abgeleitete Umweltveränderungen (z.B. verringerte Bodenfeuchtigkeit, verringerte Grasbedeckung, Änderungen der Artenzusammensetzung und Konkurrenzfähigkeit, verringerte Feuerintensität) können die Resilienz der offenen Combretum Baumsavanne beeinträchtigt haben und sie anfälliger machen, durch stochastische Ereignisse wie aufeinanderfolgende niederschlagsreiche Jahre, Dürre, und durch hohe Konzentrationen von pCO2, in einen verbuschten Zustand zu wechseln. Der daraus resultierende verbuschte Zustand wird durch Rückkopplungsmechanismen aufrechterhalten, welche die Etablierung und Konkurrenzfähigkeit der Holzvegetation begünstigen. Schließlich deuten die auf REVEALS basierenden Deckungsschätzungen auf das Vorherrschen einer halboffenen Landschaft während des gesamten 20. Jahrhunderts und eine Verringerung der Grasbedeckung unter 50% seit dem 21. Jahrhundert hin, die mit der Verbreitung von Verbuschungstaxa verbunden ist. Deckungsschätzungen zeigen eine enge Übereinstimmung mit regionalen Vegetationsdaten, wodurch die aus der Multi-Proxy-Analyse abgeleitete Vegetationsdynamik bestätigt werden kann. Die PPE-Berechnung war für alle holzigen Taxa erfolgreich, für Poaceae jedoch fehlgeschlagen. Zusammenfassend ist die Pollenanalyse ein geeignetes Instrument zur Rekonstruktion der Vegetationsdynamik in Savannen. Aufgrund der geringen taxonomischen Auflösung von Pollen zur Identifizierung von Gräsern ermöglicht ein Multiproxy-Ansatz, insbesondere die Verwendung von sedaDNA, die Unterscheidung stabiler verbuschte Zustände von bloßen Waldphasen sowie die Identifizierung von Auslösern und Treibern von Zustandsänderungen. Darüber hinaus spiegelt die auf REVEALS basierende quantitative Vegetationsrekonstruktion trotz der Einschränkungen bei der Berechnung von PPEs deutlich das Ausmaß der Veränderungen in der Vegetationsbedeckung wider, die in den letzten 130 Jahren aufgetreten sind. Diese Forschung liefert neue Einblicke in die Pollen-Vegetations-Beziehungen in Savannen und unterstreicht die Bedeutung von Multiproxy-Ansätzen zur Rekonstruktion der Vegetationsdynamik in semi-ariden Landschaften. Es bietet auch die erste Zeitreihe mit ausreichender taxonomischer Auflösung, um die Veränderungen der Vegetationszusammensetzung im Verlauf der Verbuschung sowie die erste quantitative Rekonstruktion der früheren Landbedeckung in der Region aufzuzeigen. Diese Ergebnisse können dazu beitragen, die verschiedenen Stadien der Savannendynamik besser zu identifizieren, und können auch zur Kalibrierung von Vorhersagemodellen für Vegetationsänderungen verwendet werden, die für die Landbewirtschaftung von großem Wert sind. T2 - Ein paläoökologischer Ansatz zur Savannendynamik und Verbuschung in Namibia KW - savanna ecology KW - pollen KW - sedaDNA KW - REVEALS KW - state-transition models KW - Savannen-Ökologie KW - REVEALS KW - sedimentäre alte DNA KW - Pollen KW - Pollenproduktivitätsschätzungen KW - Zustands-Übergangs-Modelle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-492815 ER - TY - THES A1 - Stuff, Maria T1 - Iron isotope fractionation in carbonatite melt systems T1 - Fe-Isotopenfraktionierung in karbonatitischen Schmelzen N2 - Carbonatite magmatism is a highly efficient transport mechanism from Earth’s mantle to the crust, thus providing insights into the chemistry and dynamics of the Earth’s mantle. One evolving and promising tool for tracing magma interaction are stable iron isotopes, particularly because iron isotope fractionation is controlled by oxidation state and bonding environment. Meanwhile, a large data set on iron isotope fractionation in igneous rocks exists comprising bulk rock compositions and fractionation between mineral groups. Iron isotope data from natural carbonatite rocks are extremely light and of remarkably high variability. This resembles iron isotope data from mantle xenoliths, which are characterized by a variability in δ56Fe spanning three times the range found in basalts, and by the extremely light values of some whole rock samples, reaching δ56Fe as low as -0.69 ‰ in a spinel lherzolite. Cause to this large range of variations may be metasomatic processes, involving metasomatic agents like volatile bearing high-alkaline silicate melts or carbonate melts. The expected effects of metasomatism on iron isotope fractionation vary with parameters like melt/rock-ratio, reaction time, and the nature of metasomatic agents and mineral reactions involved. An alternative or additional way to enrich light isotopes in the mantle could be multiple phases of melt extraction. To interpret the existing data sets more knowledge on iron isotope fractionation factors is needed. To investigate the behavior of iron isotopes in the carbonatite systems, kinetic and equilibration experiments in natro-carbonatite systems between immiscible silicate and carbonate melts were performed in an internally heated gas pressure vessel at intrinsic redox conditions at temperatures between 900 and 1200 °C and pressures of 0.5 and 0.7 GPa. The iron isotope compositions of coexisting silicate melt and carbonate melt were analyzed by solution MC-ICP-MS. The kinetic experiments employing a Fe-58 spiked starting material show that isotopic equilibrium is obtained after 48 hours. The experimental studies of equilibrium iron isotope fractionation between immiscible silicate and carbonate melts have shown that light isotopes are enriched in the carbonatite melt. The highest Δ56Fesil.m.-carb.melt (mean) of 0.13 ‰ was determined in a system with a strongly peralkaline silicate melt composition (ASI ≥ 0.21, Na/Al ≤ 2.7). In three systems with extremely peralkaline silicate melt compositions (ASI between 0.11 and 0.14) iron isotope fractionation could analytically not be resolved. The lowest Δ56Fesil.m.-carb.melt (mean) of 0.02 ‰ was determined in a system with an extremely peralkaline silicate melt composition (ASI ≤ 0.11 , Na/Al ≥ 6.1). The observed iron isotope fractionation is most likely governed by the redox conditions of the system. Yet, in the systems, where no fractionation occurred, structural changes induced by compositional changes possibly overrule the influence of redox conditions. This interpretation implicates, that the iron isotope system holds the potential to be useful not only for exploring redox conditions in magmatic systems, but also for discovering structural changes in a melt. In situ iron isotope analyses by femtosecond laser ablation coupled to MC-ICP-MS on magnetite and olivine grains were performed to reveal variations in iron isotope composition on the micro scale. The investigated sample is a melilitite bomb from the Salt Lake Crater group at Honolulu (Oahu, Hawaii), showing strong evidence for interaction with a carbonatite melt. While magnetite grains are rather homogeneous in their iron isotope compositions, olivine grains span a far larger range in iron isotope ratios. The variability of δ56Fe in magnetite is limited from - 0.17 ‰ (± 0.11 ‰, 2SE) to +0.08 ‰ (± 0.09 ‰, 2SE). δ56Fe in olivine range from -0.66‰ (± 0.11 ‰, 2SE) to +0.10 ‰ (± 0.13 ‰, 2SE). Olivine and magnetite grains hold different informations regarding kinetic and equilibrium fractionation due to their different Fe diffusion coefficients. The observations made in the experiments and in the in situ iron isotope analyses suggest that the extremely light iron isotope signatures found in carbonatites are generated by several steps of isotope fractionation during carbonatite genesis. These may involve equilibrium and kinetic fractionation. Since iron isotopic signatures in natural systems are generated by a combination of multiple factors (pressure, temperature, redox conditions, phase composition and structure, time scale), multi tracer approaches are needed to explain signatures found in natural rocks. N2 - Karbonatitische Schmelzen, die im Erdmantel gebildet werden, transportieren Material aus dem Erdmantel zur Erdkruste und ermöglichen somit Einblicke in Chemismus und Dynamiken des Erdmantels. Die Analyse stabiler Eisenisotopenverhältnisse ist eine neue und vielversprechende Methode um Schmelzprozesse und Interaktionen von Schmelzen im Erdmantel nachzuverfolgen, insbesondere da Eisenisotopenfraktionierung vom Oxidationszustand und der Bindungsumgebung in der Schmelze abhängig ist. Mittlerweile existiert ein großer Datensatz zur Eisenisotopenfraktionierung in magmatischen Gesteinen, der sowohl Zusammensetzungen von Gesamtgesteinen als auch von separierten Mineralgruppen umfasst. Karbonatite weisen extrem leichte Eisenisotopensignaturen und gleichzeitig eine breite Spannweite der δ56Fe auf. Darin ähneln sie Mantelxenolithen, die ebenfalls sehr variable und teilweise extrem leichte δ56Fe aufweisen, wie zum Beispiel -0.69 ‰ in einem Spinelllherzolith. Ein möglicher Grund für diese große Spannweite sind metasomatische Prozesse, an denen Fluide wie hochalkalische Silikatschmelzen oder Karbonatschmelzen beteiligt sind. Welche Auswirkung Metasomatose auf die Eisenisotopenfraktionierung hat, hängt von Parametern wie dem Verhältnis von Schmelze zu Gestein, der Reaktionszeit und der Art der beteiligten metasomatischen Fluide sowie den Mineralreaktionen ab. Auch mehrere aufeinanderfolgende Phasen der Schmelzextraktion könnten zur Heterogenisierung von Teilen des Erdmantels beigetragen haben. Bisher existieren allerdings nur wenige Untersuchungen zur Eisenisotopenfraktionierung zwischen Silikat- und Karbonatphasen. Um Eisenisotopenfraktionierung im Karbonatitsystem besser zu verstehen, wurden im Rahmen dieser Arbeit Experimente im Natrokarbonatitsystem durchgeführt. Dazu wurden unmischbare Silikat- und Karbonatschmelzen bei Temperaturen zwischen 900 und 1200 °C und Drücken von 0,5 und 0,7 GPa in einem intern beheizten Autoklaven bei intrinsischen Redoxbedingungen equilibriert. Im Anschluss wurden die Silikat- und Karbonatschmelzen separiert, aufgeschlossen und die Eisenisotopenverhältnisse beider Phasen mittels MC-ICP-MS analysiert. Dabei konnte gezeigt werden, dass die Proben nach spätestens 48 Stunden Fe-isotopisch equilibriert sind und dass im Gleichgewicht leichte Eisenisotope in der Karbonatschmelze angereichert sind. Die größte Isotopenfraktionierung von Δ56Fesil.m.-carb.melt (mean) = 0,13 ‰ wurde in einem System mit stark peralkalischer Zusammensetzung der Silikatschmelze (ASI ≥ 0,21, Na/Al ≤ 2,7) gemessen. In den Systemen mit extrem peralkalischer Zusammensetzung der Silikatschmelze (ASI zwischen 0,11 and 0,14) hingegen war die Eisenisotopenfraktionierung analytisch nicht auflösbar. Zusätzlich wurde die Eisenisotopenfraktionierung zwischen Magnetit- und Olivinkörnern in situ mittels UV-Femtosekunden-Laserablation gekoppelt mit MC-ICP-MS untersucht. Bei der Probe handelt es sich um eine Melilititbombe aus der Salt-Lake-Crater-Gruppe in Honolulu (Oahu, Hawaii), die deutliche Anzeichen für Kontakt mit einer karbonatitischen Schmelze aufweist. Während die Magnetite eher homogen hinsichtlich ihrer Eisenisotopenzusammensetzung sind (-0,17 ‰, ± 0,11 ‰, 2SE, to +0,08 ‰, ± 0,09 ‰, 2SE), weisen die Olivine eine weitaus größere Spannweite an δ56Fe auf (-0,66 ‰, ± 0,11 ‰, 2SE, to +0,10 ‰, ± 0,13 ‰, 2SE). Da Eisen unterschiedliche Diffusionskoeffizienten in Olivin und Magnetit hat, sind in beiden unterschiedliche Informationen zur kinetischen und Gleichgewichtsisotopenfraktionierung enthalten. Die Beobachtungen aus den Experimenten und in den Eisenisotopenanalysen in situ deuten darauf hin, dass die extrem leichten Eisenisotopensignaturen in Karbonatiten durch Isotopenfraktionierung in mehreren Schritten während der Karbonatitgenese entstanden sind, die sowohl Gleichgewichts- als auch kinetische Fraktionierung umfassen können. Da die Eisenisotopensignaturen in natürlichen Systemen durch eine Kombination mehrerer Faktoren (Druck, Temperatur, Redoxbedingungen, Phasenzusammensetzung und -struktur, Zeitskala) entstehen, werden Multi-Tracer-Ansätze benötigt, um die in natürlichen Gesteinen beobachteten Signaturen zu erklären. KW - MC-ICP-MS KW - silicate melt KW - carbonate melt KW - melilitite KW - UV fs laser ablation KW - MC-ICP-MS KW - Silikatschmelze KW - Karbonatschmelze KW - IHPV KW - Melilitit Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-519928 ER - TY - THES A1 - Stojanovic, Vladeta T1 - Digital twins for indoor built environments T1 - Digitale Zwillinge für gebaute Innenumgebungen N2 - One of the key challenges in modern Facility Management (FM) is to digitally reflect the current state of the built environment, referred to as-is or as-built versus as-designed representation. While the use of Building Information Modeling (BIM) can address the issue of digital representation, the generation and maintenance of BIM data requires a considerable amount of manual work and domain expertise. Another key challenge is being able to monitor the current state of the built environment, which is used to provide feedback and enhance decision making. The need for an integrated solution for all data associated with the operational life cycle of a building is becoming more pronounced as practices from Industry 4.0 are currently being evaluated and adopted for FM use. This research presents an approach for digital representation of indoor environments in their current state within the life cycle of a given building. Such an approach requires the fusion of various sources of digital data. The key to solving such a complex issue of digital data integration, processing and representation is with the use of a Digital Twin (DT). A DT is a digital duplicate of the physical environment, states, and processes. A DT fuses as-designed and as-built digital representations of built environment with as-is data, typically in the form of floorplans, point clouds and BIMs, with additional information layers pertaining to the current and predicted states of an indoor environment or a complete building (e.g., sensor data). The design, implementation and initial testing of prototypical DT software services for indoor environments is presented and described. These DT software services are implemented within a service-oriented paradigm, and their feasibility is presented through functioning and tested key software components within prototypical Service-Oriented System (SOS) implementations. The main outcome of this research shows that key data related to the built environment can be semantically enriched and combined to enable digital representations of indoor environments, based on the concept of a DT. Furthermore, the outcomes of this research show that digital data, related to FM and Architecture, Construction, Engineering, Owner and Occupant (AECOO) activity, can be combined, analyzed and visualized in real-time using a service-oriented approach. This has great potential to benefit decision making related to Operation and Maintenance (O&M) procedures within the scope of the post-construction life cycle stages of typical office buildings. N2 - Eine der wichtigsten Herausforderungen im modernen Facility Management (FM) besteht darin, den aktuellen Zustand der gebauten Umgebung digital wiederzugeben und die tatsächliche mit der geplanten Gebäudedarstellung zu vergleichen. Während die Verwendung von Building Information Modeling (BIM) das Problem der digitalen Darstellung lösen kann, erfordert die Generierung und Pflege von BIM-Daten einen erheblichen manuellen Aufwand und Fachkenntnisse. Eine weitere wichtige Herausforderung besteht darin, den aktuellen Zustand der gebauten Umgebung zu überwachen, um Feedback zu geben und die Entscheidungsfindung zu verbessern. Die Notwendigkeit einer integrierten Lösung für alle Daten im Zusammenhang mit dem Betriebslebenszyklus eines Gebäudes wird immer deutlicher, da derzeit Praktiken aus Industrie 4.0 evaluiert und für die FM-Nutzung übernommen werden. Diese Studie präsentiert einen Ansatz zur digitalen Darstellung von Innenräumen in ihrem aktuellen Zustand innerhalb des Lebenszyklus eines bestimmten Gebäudes. Ein solcher Ansatz erfordert die Fusion verschiedener Quellen digitaler Daten. Der Schlüssel zur Lösung eines solch komplexen Problems der Integration, Verarbeitung und Darstellung digitaler Daten liegt in der Verwendung eines Digital Twin (DT). Ein DT ist ein digitales Duplikat der physischen Umgebung, Zustände und Prozesse. Ein DT verschmilzt die entworfenen und gebauten digitalen Darstellungen der gebauten Umwelt mit aktuellen Repräsentationsdaten, typischerweise in Form von Grundrissen, Punktwolken und BIMs, mit zusätzlichen Informationsebenen, die sich auf die aktuellen und vorhergesagten Zustände einer Innenumgebung oder eines kompletten Gebäudes beziehen (z.B. Sensordaten). Das Design, die Implementierung und die ersten Tests prototypischen DT-Software-Dienstleistungen für Innenräume werden vorgestellt und beschrieben. Die DT-Software-Dienstleistungen werden innerhalb eines serviceorientierten Paradigmas implementiert, und ihre Machbarkeit wird durch funktionierende und getestete wichtige Softwarekomponenten in prototypischen SOS-Implementierungen dargestellt. Das Hauptergebnis dieser Forschung zeigt, dass Schlüsseldaten in Bezug auf die gebaute Umgebung semantisch angereichert und kombiniert werden können, um digitale Darstellungen von Innenumgebungen basierend auf dem Konzept eines DT zu ermöglichen. Darüber hinaus zeigen die Ergebnisse dieser Forschung, dass digitale Daten in Bezug auf FM und Architektur, Bauwesen, Ingenieurwesen, Eigentümer- und Insassenaktivitäten mithilfe eines serviceorientierten Ansatzes in Echtzeit kombiniert, analysiert und visualisiert werden können. Dies hat ein großes Potenzial für die Entscheidungsfindung in Bezug auf Betriebsund Wartungsverfahren im Rahmen der Lebenszyklusphasen typischer Bürogebäude nach dem Bau. KW - Digital Twin KW - BIM KW - Point Clouds KW - Service-Oriented Systems KW - 3D Visualization KW - Data Analytics KW - Machine Learning KW - Deep Learning KW - Semantic Enrichment KW - Indoor Point Clouds KW - Real Estate 4.0 KW - Facility Management KW - Building Management KW - Sensor Analytics KW - Visualization KW - 3D-Visualisierung KW - Gebäudeinformationsmodellierung KW - Gebäudemanagement KW - Daten-Analytik KW - Tiefes Lernen KW - Digitaler Zwilling KW - Indoor-Punktwolken KW - Maschinelles Lernen KW - Punktwolken KW - Immobilien 4.0 KW - Semantische Anreicherung KW - Sensor-Analytik KW - Service-Orientierte Systeme KW - Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509134 ER - TY - THES A1 - Stemmer, Robert T1 - Strategic business model innovation BT - a holistic analysis of strategic business model innovation endeavors within corporate enterpreneurial environments Y1 - 2021 ER - TY - THES A1 - Stark, Markus T1 - Implications of local and regional processes on the stability of metacommunities in diverse ecosystems T1 - Auswirkungen lokaler und regionaler Prozesse auf die Stabilität von Metagemeinschaften in diversen Ökosystemen N2 - Anthropogenic activities such as continuous landscape changes threaten biodiversity at both local and regional scales. Metacommunity models attempt to combine these two scales and continuously contribute to a better mechanistic understanding of how spatial processes and constraints, such as fragmentation, affect biodiversity. There is a strong consensus that such structural changes of the landscape tend to negatively effect the stability of metacommunities. However, in particular the interplay of complex trophic communities and landscape structure is not yet fully understood. In this present dissertation, a metacommunity approach is used based on a dynamic and spatially explicit model that integrates population dynamics at the local scale and dispersal dynamics at the regional scale. This approach allows the assessment of complex spatial landscape components such as habitat clustering on complex species communities, as well as the analysis of population dynamics of a single species. In addition to the impact of a fixed landscape structure, periodic environmental disturbances are also considered, where a periodical change of habitat availability, temporally alters landscape structure, such as the seasonal drying of a water body. On the local scale, the model results suggest that large-bodied animal species, such as predator species at high trophic positions, are more prone to extinction in a state of large patch isolation than smaller species at lower trophic levels. Increased metabolic losses for species with a lower body mass lead to increased energy limitation for species on higher trophic levels and serves as an explanation for a predominant loss of these species. This effect is particularly pronounced for food webs, where species are more sensitive to increased metabolic losses through dispersal and a change in landscape structure. In addition to the impact of species composition in a food web for diversity, the strength of local foraging interactions likewise affect the synchronization of population dynamics. A reduced predation pressure leads to more asynchronous population dynamics, beneficial for the stability of population dynamics as it reduces the risk of correlated extinction events among habitats. On the regional scale, two landscape aspects, which are the mean patch isolation and the formation of local clusters of two patches, promote an increase in $\beta$-diversity. Yet, the individual composition and robustness of the local species community equally explain a large proportion of the observed diversity patterns. A combination of periodic environmental disturbance and patch isolation has a particular impact on population dynamics of a species. While the periodic disturbance has a synchronizing effect, it can even superimpose emerging asynchronous dynamics in a state of large patch isolation and unifies trends in synchronization between different species communities. In summary, the findings underline a large local impact of species composition and interactions on local diversity patterns of a metacommunity. In comparison, landscape structures such as fragmentation have a negligible effect on local diversity patterns, but increase their impact for regional diversity patterns. In contrast, at the level of population dynamics, regional characteristics such as periodic environmental disturbance and patch isolation have a particularly strong impact and contribute substantially to the understanding of the stability of population dynamics in a metacommunity. These studies demonstrate once again the complexity of our ecosystems and the need for further analysis for a better understanding of our surrounding environment and more targeted conservation of biodiversity. N2 - Seit geraumer Zeit prägt der Mensch seine Umwelt und greift in die Struktur von Landschaften ein. In den letzten Jahrzehnten wurde die Landschaftsnutzung intensiviert und Ökosyteme weltweit anthropogen überprägt. Solche Veränderungen der Landschaft sind mit Verantwortlich für den derzeit rapiden Verlust an Biodiversität auf lokaler wie regionaler Ebene. Metagemeinschafts-Modelle versuchen diese beiden Ebenen zu kombinieren und kontinuierlich zu einem besseren mechanistischen Verständnis beizutragen, wie räumliche Prozesse, so z. B. Fragmentierung von Biotopen, die Biodiversität beeinflussen. Es besteht dabei ein großer Konsens, dass sich solche Änderungen der Landschaft tendenziell negativ auf die Stabilität von Metagemeinschaften auswirken. Jedoch ist insbesondere das Zusammenspiel von komplexen trophischen Gemeinschaften und räumlichen Prozessen längst nicht vollständig verstanden. In der vorliegenden Arbeit wird ein Metagemeinschafts-Modellansatz verwendet, der auf einem dynamischen und räumlich expliziten Modell basiert, das Populationsdynamiken auf der lokalen Ebene und Migrationsdynamiken auf der regionalen Ebene integriert. Dieser Ansatz erlaubt die Bewertung komplexer räumlicher Landschaftskomponenten wie z. B. die Auswirkung von Habitatsclustern auf Populationsdynamiken einzelner Arten bis hin zur Diversität komplexer Artengemeinschaften. Zusätzlich zum Einfluss von einzelner konstanter räumlicher Strukturen werden auch periodische Umweltstörungen berücksichtigt, bei der ein Wechsel der Habitatverfügbarkeit, die räumliche Struktur der Landschaft temporär verändert, wie z. B. die Austrocknung eines Gewässers. Auf der lokalen Ebene deuten die Modellergebnisse darauf hin, dass Tierarten mit einer großen Körpermasse, wie z. B. Raubtierarten in höheren trophischen Positionen, in einem Zustand großer Habitat-Isolation stärker vom Aussterben bedroht sind, als Arten mit geringer Körpermasse auf unteren trophischen Ebenen. Arten mit einer geringerer Körpermasse haben einen erhöhten metabolischen Verlust, der zu einer Energielimitierung auf den höheren trophischen Ebenen führt. Dies kann eine Erklärung dafür sein, dass Arten mit großer Körpermasse ein höheres Aussterberisiko in den Modellergebnissen aufweisen. Dieser Effekt ist vor allem in Nahrungsnetzen ausgeprägt, bei denen Arten empfindlicher auf metabolische Verluste durch Migration und eine Veränderung der Habitat Struktur reagieren. Neben der Bedeutung der Zusammensetzung der Arten eines Nahrungsnetzes für die Diversität, haben lokale Fraßinteraktionen ebenfalls Auswirkungen auf die Synchronisierung von Populationsdynamiken. Ein geringerer Fraßdruck führt zu mehr asynchronen Populationsdynamiken, die diese Dynamiken einer Metapopulation stabilisiert, sodass das Risiko von Aussterbeereignissen einzelner Arten sinkt. Auf der regionalen Ebene führen als landschaftliche Aspekte, neben der mittleren Habitat-Isolation, ebenso die Bildung von lokalen Clustern aus zwei Habitaten zu einer Zunahme der Beta-Diversität. Jedoch erklären die individuelle Zusammensetzung und Robustheit der lokalen Arten- gemeinschaft gleichermaßen einen großen Anteil der zu beobachteten Diversitätsmuster. Eine Kombination aus periodischen Umweltstörungen und Habitat-Isolation hat insbesondere einen Einfluss auf die Populationsdynamiken einzelner Arten. Populationsdynamiken können durch periodische Umweltstörungen synchronisiert werden, und dabei die sonst auftauchende asynchronen Populationsdynamiken bei einer größeren Habitat-Isolation überlagern. Die dadurch vereinheitlichen Trends in der Synchronisierung erhöhen das Risiko korrelierter Aussterbeereignisse einer Art. Zusammenfassend lassen sich zwei große Einflussfaktoren auf die lokalen Diversitätsmuster der Metagemeinschaften feststellen. Zum Einen die lokale Artenzusammensetzung und zum Anderen die Interaktionen der Arten. Im Vergleich dazu, haben räumliche Komponenten wie die Fragmentierung der Landschaft einen vernachlässigbaren Einfluss auf die lokalen Diversitätsmuster und gewinnen erst für regionale Diversitätsmuster an Gewicht. Im Gegensatz dazu spielen auf der Ebene der Populationsdynamik besonders regionale Eigenschaften, wie die periodische Umweltstörung und Habitat-Isolation, eine Rolle und tragen wesentlich zum Verständnis der Stabilität von Populationsdynamiken der Metagemeinschaft bei. Diese Untersuchungen zeigen einmal mehr die Komplexität unserer Ökosysteme und die Notwendigkeit weiterer Analysen für ein besseres Verständnis unserer umgebenen Umwelt und gezielteren Schutz der Biodiversität. KW - Fragmentation KW - Ecology KW - Food Web KW - Metacommunity KW - Disturbance KW - Störungen KW - Ökologie KW - Nahrungsnetze KW - Fragmentierung KW - Metagemeinschaften Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-526399 ER - TY - THES A1 - Ssembatya, Anthony T1 - Dual Citizenship: A comparative study of Kenya and Uganda T1 - Doppelte Staatsbürgerschaft: eine vergleichende Studie über Kenia und Uganda N2 - Kenya and Uganda are amongst the countries that, for different historical, political, and economic reasons, have embarked on law reform processes as regards to citizenship. In 2009, Uganda made provisions in its laws to allow citizens to have dual citizenship while Kenya’s 2010 constitution similarly introduced it, and at the same time, a general prohibition on dual citizenship was lifted, that is, a ban on state officers, including the President and Deputy President, being dual nationals (Manby, 2018). Against this background, I analysed the reasons for which these countries that previously held stringent laws and policies against dual citizenship, made a shift in a close time proximity. Given their geo-political roles, location, regional, continental, and international obligations, I conducted a comparative study on the processes, actors, impact, and effect. A specific period of 2000 to 2010 was researched, that is, from when the debates for law reforms emerged, to the processes being implemented, the actors, and the implications. According to Rubenstein (2000, p. 520), citizenship is observed in terms of “political institutions” that are free to act according to the will of, in the interests of, or with authority over, their citizenry. Institutions are emergent national or international, higher-order factors above the individual spectrum, having the interests and political involvement of their actors without requiring recurring collective mobilisation or imposing intervention to realise these regularities. Transnational institutions are organisations with authority beyond single governments. Given their International obligations, I analysed the role of the UN, AU, and EAC in influencing the citizenship debates and reforms in Kenya and Uganda. Further, non-state actors, such as civil society, were considered. Veblen, (1899) describes institutions as a set of settled habits of thought common to the generality of men. Institutions function only because the rules involved are rooted in shared habits of thought and behaviour although there is some ambiguity in the definition of the term “habit”. Whereas abstracts and definitions depend on different analytical procedures, institutions restrain some forms of action and facilitate others. Transnational institutions both restrict and aid behaviour. The famous “invisible hand” is nothing else but transnational institutions. Transnational theories, as applied to politics, posit two distinct forms that are of influence over policy and political action (Veblen, 1899). This influence and durability of institutions is “a function of the degree to which they are instilled in political actors at the individual or organisational level, and the extent to which they thereby “tie up” material resources and networks. Against this background, transitional networks with connection to Kenya and Uganda were considered alongside the diaspora from these two countries and their role in the debate and reforms on Dual citizenship. Sterian (2013, p. 310) notes that Nation states may be vulnerable to institutional influence and this vulnerability can pose a threat to a nation’s autonomy, political legitimacy, and to the democratic public law. Transnational institutions sometimes “collide with the sovereignty of the state when they create new structures for regulating cross-border relationships”. However, Griffin (2003) disagrees that transnational institutional behaviour is premised on the principles of neutrality, impartiality, and independence. Transnational institutions have become the main target of the lobby groups and civil society, consequently leading to excessive politicisation. Kenya and Uganda are member states not only of the broader African union but also of the E.A.C which has adopted elements of socio-economic uniformity. Therefore, in the comparative analysis, I examine the role of the East African Community and its partners in the dual citizenship debate on the two countries. I argue in the analysis that it is not only important to be a citizen within Kenya or Uganda but also important to discover how the issue of dual citizenship is legally interpreted within the borders of each individual nation-state. In light of this discussion, I agree with Mamdani’s definition of the nation-state as a unique form of power introduced in Africa by colonial powers between 1880 and 1940 whose outcomes can be viewed as “debris of a modernist postcolonial project, an attempt to create a centralised modern state as the bearer of Westphalia sovereignty against the background of indirect rule” (Mamdani, 1996, p. xxii). I argue that this project has impacted the citizenship debate through the adopted legal framework of post colonialism, built partly on a class system, ethnic definitions, and political affiliation. I, however, insist that the nation-state should still be a vital custodian of the citizenship debate, not in any way denying the individual the rights to identity and belonging. The question then that arises is which type of nation-state? Mamdani (1996, p. 298) asserts that the core agenda that African states faced at independence was threefold: deracialising civil society; detribalising the native authority; and developing the economy in the context of unequal international relations. Post-independence governments grappled with overcoming the citizen and subject dichotomy through either preserving the customary in the name of “defending tradition against alien encroachment or abolishing it in the name of overcoming backwardness and embracing triumphant modernism”. Kenya and Uganda are among countries that have reformed their citizenship laws attesting to Mamdani’s latter assertion. Mamdani’s (1996) assertions on how African states continue to deal with the issue of citizenship through either the defence of tradition against subjects or abolishing it in the name of overcoming backwardness and acceptance of triumphant modernism are based on the colonial legal theory and the citizen-subject dichotomy within Africa communities. To further create a wider perspective on legal theory, I argue that those assertions above, point to the historical divergence between the republican model of citizenship, which places emphasis on political agency as envisioned in Rousseau´s social contract, as opposed to the liberal model of citizenship, which stresses the legal status and protection (Pocock, 1995). I, therefore, compare the contexts of both Kenya and Uganda, the actors, the implications of transnationalism and post-nationalism, on the citizens, the nation-state and the region. I conclude by highlighting the shortcomings in the law reforms that allowed for dual citizenship, further demonstrating an urgent need to address issues, such as child statelessness, gender nationality laws, and the rights of dual citizens. Ethnicity, a weak nation state, and inconsistent citizenship legal reforms are closely linked to the historical factors of both countries. I further indicate the economic and political incentives that influenced the reform. Keywords: Citizenship, dual citizenship, nation state, republicanism, liberalism, transnationalism, post-nationalism N2 - Kenia und Uganda gehören zu den Ländern, die aus unterschiedlichen historischen, politischen und wirtschaftlichen Gründen Gesetzesreformen im Bereich der Staatsbürgerschaft in Angriff genommen haben. Im Jahr 2009 hat Uganda Bestimmungen in seine Gesetze aufgenommen, die den Bürgern eine doppelte Staatsbürgerschaft erlauben, während Kenias Verfassung von 2010 dies ebenfalls vorsieht. Gleichzeitig wurde ein allgemeines Verbot der doppelten Staatsbürgerschaft aufgehoben, d. h. das Verbot, dass Staatsbeamte, einschließlich des Präsidenten und des stellvertretenden Präsidenten, eine doppelte Staatsbürgerschaft haben (Manby, 2018). Vor diesem Hintergrund habe ich die Gründe analysiert, aus denen diese Länder, die zuvor strenge Gesetze und Strategien gegen die doppelte Staatsbürgerschaft verfolgten, in kurzer Zeit einen Wandel vollzogen. Angesichts ihrer geopolitischen Rolle, ihrer Lage, ihrer regionalen, kontinentalen und internationalen Verpflichtungen habe ich eine vergleichende Studie zu den Prozessen, Akteuren, Auswirkungen und Folgen durchgeführt. Untersucht wurde ein bestimmter Zeitraum von 2000 bis 2010, d. h. vom Aufkommen der Debatten über Gesetzesreformen bis hin zu den durchgeführten Prozessen, den Akteuren und den Auswirkungen. Nach Rubenstein (2000, S. 520) wird die Staatsbürgerschaft im Hinblick auf "politische Institutionen" betrachtet, die frei sind, nach dem Willen der Bürger, im Interesse der Bürger oder mit Autorität gegenüber den Bürgern zu handeln. Institutionen sind emergente nationale oder internationale Faktoren höherer Ordnung, die über das individuelle Spektrum hinausgehen und die Interessen und das politische Engagement ihrer Akteure haben, ohne dass es einer wiederkehrenden kollektiven Mobilisierung oder eines auferlegten Eingriffs bedarf, um diese Gesetzmäßigkeiten zu verwirklichen. Transnationale Institutionen sind Organisationen, deren Autorität über einzelne Regierungen hinausgeht. Angesichts ihrer internationalen Verpflichtungen habe ich die Rolle der UNO, der AU und der EAC bei der Beeinflussung der Staatsbürgerschaftsdebatten und -reformen in Kenia und Uganda analysiert. Darüber hinaus wurden auch nichtstaatliche Akteure wie die Zivilgesellschaft berücksichtigt. Veblen (1899) beschreibt Institutionen als eine Reihe von festen Denkgewohnheiten, die der Allgemeinheit der Menschen gemeinsam sind. Institutionen funktionieren nur, weil die betreffenden Regeln in gemeinsamen Denk- und Verhaltensgewohnheiten verwurzelt sind, auch wenn die Definition des Begriffs "Gewohnheit" nicht ganz eindeutig ist. Während Abstrakta und Definitionen von unterschiedlichen analytischen Verfahren abhängen, schränken Institutionen einige Handlungsformen ein und erleichtern andere. Transnationale Institutionen schränken das Verhalten sowohl ein als auch fördern es. Die berühmte "unsichtbare Hand" ist nichts anderes als transnationale Institutionen. Transnationale Theorien, die auf die Politik angewandt werden, gehen von zwei unterschiedlichen Formen des Einflusses auf die Politik und das politische Handeln aus (Veblen, 1899). Dieser Einfluss und die Dauerhaftigkeit von Institutionen sind "eine Funktion des Grades, in dem sie den politischen Akteuren auf individueller oder organisatorischer Ebene eingeimpft werden, und des Ausmaßes, in dem sie dadurch materielle Ressourcen und Netzwerke "binden". Vor diesem Hintergrund wurden Übergangsnetzwerke mit Bezug zu Kenia und Uganda ebenso betrachtet wie die Diaspora aus diesen beiden Ländern und ihre Rolle in der Debatte und den Reformen zur doppelten Staatsbürgerschaft. Sterian (2013, S. 310) stellt fest, dass Nationalstaaten anfällig für institutionellen Einfluss sein können und diese Anfälligkeit eine Bedrohung für die Autonomie einer Nation, die politische Legitimität und das demokratische öffentliche Recht darstellen kann. Transnationale Institutionen "kollidieren manchmal mit der Souveränität des Staates, wenn sie neue Strukturen zur Regulierung grenzüberschreitender Beziehungen schaffen". Griffin (2003) ist jedoch nicht der Meinung, dass das Verhalten transnationaler Institutionen auf den Grundsätzen der Neutralität, Unparteilichkeit und Unabhängigkeit beruht. Transnationale Institutionen sind zur Hauptzielscheibe von Lobbygruppen und der Zivilgesellschaft geworden, was zu einer übermäßigen Politisierung führt. Kenia und Uganda sind nicht nur Mitglieder der Afrikanischen Union im weiteren Sinne, sondern auch des Europäischen Wirtschaftsraums, der Elemente der sozioökonomischen Einheitlichkeit übernommen hat. In der vergleichenden Analyse untersuche ich daher die Rolle der Ostafrikanischen Gemeinschaft und ihrer Partner in der Debatte um die doppelte Staatsbürgerschaft in den beiden Ländern. In der Analyse argumentiere ich, dass es nicht nur wichtig ist, Staatsbürger in Kenia oder Uganda zu sein, sondern auch zu erfahren, wie die Frage der doppelten Staatsbürgerschaft innerhalb der Grenzen jedes einzelnen Nationalstaates rechtlich interpretiert wird. Vor dem Hintergrund dieser Diskussion stimme ich Mamdanis Definition des Nationalstaates als eine einzigartige Form der Macht zu, die von den Kolonialmächten zwischen 1880 und 1940 in Afrika eingeführt wurde und deren Ergebnisse als "Trümmer eines modernistischen postkolonialen Projekts, eines Versuchs, einen zentralisierten modernen Staat als Träger westfälischer Souveränität vor dem Hintergrund indirekter Herrschaft zu schaffen" (Mamdani, 1996, S. xxii), betrachtet werden können. Ich behaupte, dass dieses Projekt die Debatte über die Staatsbürgerschaft durch den angenommenen Rechtsrahmen des Postkolonialismus beeinflusst hat, der teilweise auf einem Klassensystem, ethnischen Definitionen und politischer Zugehörigkeit aufbaut. Ich bestehe jedoch darauf, dass der Nationalstaat nach wie vor ein wichtiger Hüter der Staatsbürgerschaftsdebatte sein sollte, der dem Einzelnen in keiner Weise das Recht auf Identität und Zugehörigkeit abspricht. Die Frage, die sich nun stellt, ist, welche Art von Nationalstaat? Mamdani (1996, S. 298) behauptet, dass die afrikanischen Staaten in der Zeit der Unabhängigkeit vor allem drei Aufgaben zu bewältigen hatten: die Entnazifizierung der Zivilgesellschaft, die Entstammung der einheimischen Autorität und die Entwicklung der Wirtschaft im Kontext ungleicher internationaler Beziehungen. Nach der Unabhängigkeit bemühten sich die Regierungen um die Überwindung der Dichotomie von Bürger und Untertan, indem sie entweder das Gewohnheitsrecht im Namen der "Verteidigung der Tradition gegen fremde Übergriffe oder der Abschaffung des Gewohnheitsrechts im Namen der Überwindung der Rückständigkeit und des triumphalen Modernismus" bewahrten. Kenia und Uganda gehören zu den Ländern, die ihre Staatsbürgerschaftsgesetze reformiert haben, was Mamdanis letztere Behauptung unterstreicht. Mamdanis (1996) Behauptungen darüber, wie afrikanische Staaten weiterhin mit der Frage der Staatsbürgerschaft umgehen, indem sie entweder die Tradition gegenüber den Untertanen verteidigen oder sie im Namen der Überwindung der Rückständigkeit und der Akzeptanz der triumphalen Moderne abschaffen, basieren auf der kolonialen Rechtstheorie und der Bürger-Subjekt-Dichotomie innerhalb der afrikanischen Gemeinschaften. Um eine breitere Perspektive auf die Rechtstheorie zu schaffen, argumentiere ich, dass die oben genannten Behauptungen auf die historische Divergenz zwischen dem republikanischen Modell der Staatsbürgerschaft, das den Schwerpunkt auf politisches Handeln legt, wie es in Rousseaus Gesellschaftsvertrag vorgesehen ist, und dem liberalen Modell der Staatsbürgerschaft, das den rechtlichen Status und Schutz betont, hinweisen (Pocock, 1995). Ich vergleiche daher die Kontexte von Kenia und Uganda, die Akteure, die Auswirkungen von Transnationalismus und Postnationalismus auf die Bürger, den Nationalstaat und die Region. Abschließend hebe ich die Unzulänglichkeiten der Gesetzesreformen hervor, die die doppelte Staatsbürgerschaft ermöglichten, und zeige auf, dass es dringend notwendig ist, sich mit Themen wie Staatenlosigkeit von Kindern, geschlechtsspezifischen Staatsangehörigkeitsgesetzen und den Rechten von Doppelbürgern zu befassen. Ethnische Zugehörigkeit, ein schwacher Nationalstaat und uneinheitliche Reformen des Staatsbürgerschaftsrechts sind eng mit den historischen Faktoren beider Länder verbunden. Ich zeige auch die wirtschaftlichen und politischen Anreize auf, die die Reform beeinflusst haben. Schlüsselwörter: Staatsbürgerschaft, doppelte Staatsbürgerschaft, Nationalstaat, Republikanismus, Liberalismus, Transnationalismus, Post-Nationalismus KW - Citizenship KW - Dual Citizenship KW - Statelessness KW - Staatsbürgerschaft KW - doppelte Staatsbürgerschaft KW - Staatenlosigkeit Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-531186 ER - TY - THES A1 - Spooner, Cameron T1 - How does lithospheric configuration relate to deformation in the Alpine region? T1 - Was ist der Zusammenhang zwischen der lithosphärischen Zusammensetzung der Alpen, ihrer Vorländer und deren Deformation? N2 - Forming as a result of the collision between the Adriatic and European plates, the Alpine orogen exhibits significant lithospheric heterogeneity due to the long history of interplay between these plates, other continental and oceanic blocks in the region, and inherited features from preceeding orogenies. This implies that the thermal and rheological configuration of the lithosphere also varies significantly throughout the region. Lithology and temperature/pressure conditions exert a first order control on rock strength, principally via thermally activated creep deformation and on the distribution at depth of the brittle-ductile transition zone, which can be regarded as the lower bound to the seismogenic zone. Therefore, they influence the spatial distribution of seismicity within a lithospheric plate. In light of this, accurately constrained geophysical models of the heterogeneous Alpine lithospheric configuration, are crucial in describing regional deformation patterns. However, despite the amount of research focussing on the area, different hypotheses still exist regarding the present-day lithospheric state and how it might relate to the present-day seismicity distribution. This dissertaion seeks to constrain the Alpine lithospheric configuration through a fully 3D integrated modelling workflow, that utilises multiple geophysical techniques and integrates from all available data sources. The aim is therefore to shed light on how lithospheric heterogeneity may play a role in influencing the heterogeneous patterns of seismicity distribution observed within the region. This was accomplished through the generation of: (i) 3D seismically constrained, structural and density models of the lithosphere, that were adjusted to match the observed gravity field; (ii) 3D models of the lithospheric steady state thermal field, that were adjusted to match observed wellbore temperatures; and (iii) 3D rheological models of long term lithospheric strength, with the results of each step used as input for the following steps. Results indicate that the highest strength within the crust (~ 1 GPa) and upper mantle (> 2 GPa), are shown to occur at temperatures characteristic for specific phase transitions (more felsic crust: 200 – 400 °C; more mafic crust and upper lithospheric mantle: ~600 °C) with almost all seismicity occurring in these regions. However, inherited lithospheric heterogeneity was found to significantly influence this, with seismicity in the thinner and more mafic Adriatic crust (~22.5 km, 2800 kg m−3, 1.30E-06 W m-3) occuring to higher temperatures (~600 °C) than in the thicker and more felsic European crust (~27.5 km, 2750 kg m−3, 1.3–2.6E-06 W m-3, ~450 °C). Correlation between seismicity in the orogen forelands and lithospheric strength, also show different trends, reflecting their different tectonic settings. As such, events in the plate boundary setting of the southern foreland correlate with the integrated lithospheric strength, occurring mainly in the weaker lithosphere surrounding the strong Adriatic indenter. Events in the intraplate setting of the northern foreland, instead correlate with crustal strength, mainly occurring in the weaker and warmer crust beneath the Upper Rhine Graben. Therefore, not only do the findings presented in this work represent a state of the art understanding of the lithospheric configuration beneath the Alps and their forelands, but also a significant improvement on the features known to significantly influence the occurrence of seismicity within the region. This highlights the importance of considering lithospheric state in regards to explaining observed patterns of deformation. N2 - Als Resultat der Kollision zwischen der Adriatischen und Europäischen Platte ist das Alpenorogen durch eine ausgeprägte Heterogenität der Lithosphäreneigenschaften gekennzeichnet, die auf die Geschichte der beiden Platten, ihre Interaktion, Wechselwirkungen mit anderen kontinentalen und ozeanischen Blöcken der Region und strukturell vererbte Merkmale aus früheren Orogenesen zurückzuführen sind. Entsprechend ist zu erwarten, dass die thermische und rheologische Konfiguration der Lithosphäre ebenfalls grundlegend innerhalb der Region variiert. Lithologie und Temperatur-/Druckbedingungen steuern maßgeblich die Festigkeit der Lithosphäre indem thermisch aktiviertes Kriechen die Tiefenlage der spröd-duktilen Übergangszone – die sogenannte brittle-ductile transition (BDT) bestimmt. Diese Tiefenlage kann als untere Grenze der seismogenen Zone betrachtet werden kann, weshalb sie die räumliche Verteilung der Seismizität in der Lithosphärenplatte entscheidend beeinflusst. Trotz der langjährigen und umfangreichen Forschung zur Dynamik und Struktur der Alpen gibt es immer noch verschiedene Hypothesen zum heutigen physikalischen Zustand des Systems und dazu, wie dieser mit der Verteilung und dem Auftreten von Seismizität zusammenhängt. Diese Dissertation hat das Ziel, die Lithosphärenkonfiguration der Alpen zu beschreiben und Zusammenhänge zwischen der Verteilung lithosphärischer Eigenschaften und Deformation, insbesondere der Verteilung der Seismizität abzuleiten. Dies wird durch einen integrierten Modellierungsansatz erreicht, mit dem verfügbare geophysikalische Beobachtungen in 3D Modellen zusammengeführt werden, die die heterogene lithosphärische Konfiguration abbilden. Dazu wird (1) ein mit geologischen, seismischen und gravimetrischen Daten konsistentes 3D-Dichtemodell erzeugt und genutzt, um Lithologien abzuleiten, (2) deren Konsequenzen für das dreidimensionale stationäre thermische Feld zu berechnen und, basierend darauf, schließlich (3) die räumliche Variation der Lithosphärenrheologie zu bestimmen. Diese räumliche Variation der rheologischen Eigenschaften wurde schließlich in Beziehung zur Verteilung der auftretenden Seismizität gesetzt. Die Ergebnisse zeigen, dass die größte Festigkeit innerhalb der Kruste (~1 GPa) und im oberen Mantel (> 2 GPa) oberhalb der Bereiche auftritt, wo Temperaturbedingte Phasenübergänge zu erwarten sind. Für die felsische Kruste umfasst dies den Temperaturbereich bis etwa 400° C, für die mafische Kruste und den lithospärischen Mantel bis etwa 600°, wobei Seismizität jeweils oberhalb dieser Temperaturen auftritt. Zusätzlich wurden Hinweise gefunden, dass diese Festigkeitsverteilung auf vererbte Lithosphäreneigenschaften zurückzuführen ist: so tritt seismische Aktivität in der dünneren und mafischen Adria Kruste (~22,5 km, 2.800 kg m-3, 1.30E -06 W m-3) bei höheren Temperatur (~600° C) auf als in der dickeren und eher felsischen europäischen Kruste (~27.5 km, 2750 kg m−3, 1.3–2.6E-06 W m-3, ~450 °C). Die Beziehung zwischen seismischer Aktivität und Lithosphärenfestigkeit im Bereich der Vorländer zeigt ebenfalls unterschiedliche Trends, die verschiedenene tektonische Randbedingungen wiederspiegeln. Während im Plattenrandsetting des südlichen Vorlands Seismizität in der rheologisch weicheren Lithosphäre in der Umrandung des adriatischen Indentors auftritt, korreliert die auftretende Seismizität im Intraplattensetting des nördlichen Vorlands räumlich mit wärmeren und rheologisch schwächeren Domänen im Bereich des Oberrheingrabens. Somit liefern die Ergebnisse in dieser Arbeit nicht nur ein verbessertes Verständnis der Lithosphärenkonfiguration der Alpen und ihrer Vorländer , sondern auch einen bedeutenden Fortschritt dazu, welche Faktoren Seismizität innerhalb der Region beeinflussen können. Sie zeigen, dass es wichtig ist, die Lithosphärenkonfiguration zu kennen und sie zur auftretenden Deformation in Beziehung zu setzen. KW - Gravity KW - Thermal KW - Rheology KW - Model KW - Alps KW - Alpen KW - Schwerkraft KW - Modell KW - Rheologie KW - Thermisch Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-516442 ER - TY - THES A1 - Spinti, Daniela T1 - Proteasomal protein turnover during defense priming in Arabidopsis T1 - Proteasomaler Proteinabbau während der erworbenen Immunantwort in Arabidopsis N2 - The ubiquitin-proteasome-system (UPS) is a cellular cascade involving three enzymatic steps for protein ubiquitination to target them to the 26S proteasome for proteolytic degradation. Several components of the UPS have been shown to be central for regulation of defense responses during infections with phytopathogenic bacteria. Upon recognition of the pathogen, local defense is induced which also primes the plant to acquire systemic resistance (SAR) for enhanced immune responses upon challenging infections. Here, ubiquitinated proteins were shown to accumulate locally and systemically during infections with Psm and after treatment with the SAR-inducing metabolites salicylic acid (SA) and pipecolic acid (Pip). The role of the 26S proteasome in local defense has been described in several studies, but the potential role during SAR remains elusive and was therefore investigated in this project by characterizing the Arabidopsis proteasome mutants rpt2a-2 and rpn12a-1 during priming and infections with Pseudomonas. Bacterial replication assays reveal decreased basal and systemic immunity in both mutants which was verified on molecular level showing impaired activation of defense- and SAR-genes. rpt2a-2 and rpn12a-1 accumulate wild type like levels of camalexin but less SA. Endogenous SA treatment restores local PR gene expression but does not rescue the SAR-phenotype. An RNAseq experiment of Col-0 and rpt2a-2 reveal weak or absent induction of defense genes in the proteasome mutant during priming. Thus, a functional 26S proteasome was found to be required for induction of SAR while compensatory mechanisms can still be initiated. E3-ubiquitin ligases conduct the last step of substrate ubiquitination and thereby convey specificity to proteasomal protein turnover. Using RNAseq, 11 E3-ligases were found to be differentially expressed during priming in Col-0 of which plant U-box 54 (PUB54) and ariadne 12 (ARI12) were further investigated to gain deeper understanding of their potential role during priming. PUB54 was shown to be expressed during priming and /or triggering with virulent Pseudomonas. pub54 I and pub54-II mutants display local and systemic defense comparable to Col-0. The heavy-metal associated protein 35 (HMP35) was identified as potential substrate of PUB54 in yeast which was verified in vitro and in vivo. PUB54 was shown to be an active E3-ligase exhibiting auto-ubiquitination activity and performing ubiquitination of HMP35. Proteasomal turnover of HMP35 was observed indicating that PUB54 targets HMP35 for ubiquitination and subsequent proteasomal degradation. Furthermore, hmp35-I benefits from increased resistance in bacterial replication assays. Thus, HMP35 is potentially a negative regulator of defense which is targeted and ubiquitinated by PUB54 to regulate downstream defense signaling. ARI12 is transcriptionally activated during priming or triggering and hyperinduced during priming and triggering. Gene expression is not inducible by the defense related hormone salicylic acid (SA) and is dampened in npr1 and fmo1 mutants consequently depending on functional SA- and Pip-pathways, respectively. ARI12 accumulates systemically after priming with SA, Pip or Pseudomonas. ari12 mutants are not altered in resistance but stable overexpression leads to increased resistance in local and systemic tissue. During priming and triggering, unbalanced ARI12 levels (i.e. knock out or overexpression) leads to enhanced FMO1 activation indicating a role of ARI12 in Pip-mediated SAR. ARI12 was shown to be an active E3-ligase with auto-ubiquitination activity likely required for activation with an identified ubiquitination site at K474. Mass spectrometrically identified potential substrates were not verified by additional experiments yet but suggest involvement of ARI12 in regulation of ROS in turn regulating Pip-dependent SAR pathways. Thus, data from this project provide strong indications about the involvement of the 26S proteasome in SAR and identified a central role of the two so far barely described E3-ubiquitin ligases PUB54 and ARI12 as novel components of plant defense. N2 - Das Ubiquitin-Proteasom-System (UPS) ist ein in drei Schritten enzymatisch ablaufender Prozess zur Ubiquitinierung von Proteinen, wodurch diese zum proteolytischen Abbau an das 26S Proteasom geschickt werden. Verschiedene Komponenten des UPS sind zentral an der Regulation von Immunantworten während der Infektion mit phytopathogenen Bakterien beteiligt. Beim Erkennen einer Infektion werden lokale Abwehrreaktionen initiiert, wobei auch mobile Signale in distalen Pflanzenteilen verteilt werden, welche die Pflanze primen (vorbereiten). Mit dem Erwerb der systemischen Resistenz (SAR) kann die Immunantwort bei einer zweiten Infektion verstärkt aktiviert werden. Es wurde hier gezeigt, dass ubiquitinierte Proteine in lokalem und systemischem Gewebe akkumulieren, wenn Arabidopsis mit Pseudomonas infiziert oder mit SAR-induzierender Salizylsäure (SA) oder Pipecolinsäure (Pip) behandelt wird. Die genaue Rolle des 26S Proteasoms in der systemischen Immunantwort ist bisher unklar und wurde daher in diesem Projekt mithilfe der Charakterisierung der Proteasommutanten rpt2a-2 und rpn12a-1 während des Primings genauer untersucht. In Bakterienwachstumsversuchen zeigte sich eine lokal und systemisch erhöhte Suszeptibilität der Proteasommutanten, welche auf molekularer Ebene durch ausbleibende Aktivierung von Abwehrgenen verifiziert wurde. Beide Mutanten akkumulieren ähnliche Mengen Camalexin während einer Infektion, sind aber in der Biosynthese von SA gestört. Die endogene Applikation von SA löst lokale PR-Gen Expression aus, kann aber nicht das SAR-Defizit ausgleichen. In einem RNAseq Experiment wurde das Transkriptom von Col-0 und rpt2a-2 während des Primings analysiert und zeigte, dass zentrale Abwehr- und SAR-Gene nicht oder nur schwach induziert werden. Es konnte somit gezeigt werden, dass ein funktionales 26S Proteasom zur vollen Induktion aller Teile der lokalen und systemischen Immunantwort benötigt wird, während ausgleichende Prozesse weiterhin aktiviert werden können. E3-Ubiquitin Ligasen führen den letzten Schritt der Substratubiquitinierung durch und vermitteln dadurch die Spezifität des proteasomalen Proteinabbaus. Mithilfe des RNAseq Experiments konnten 11 differentiell exprimierte Transkripte, annotiert als E3-Ligasen, identifiziert werden. Von diesen wurden PLANT U-BOX 54 (PUB54) und ARIADNE 12 (ARI12) weiter analysiert, um ein tiefergehendes Verständnis ihres Einflusses auf die systemische Immunantwort zu erhalten. PUB54 wird während des Primings und bei Infektionen mit virulenten Pseudomonas exprimiert. Die pub54 I und pub54-II Mutanten zeigen lokal und systemisch eine wildtyp-ähnliche Resistenz. Das „heavy-metal associated protein 35” (HMP35) wurde in Hefe als potentielles Substrat von PUB54 identifiziert und in vitro und in vivo verifiziert. PUB54 ist eine aktive E3-Ligase mit Autoubiquitinierungsaktivität, welche HMP35 ubiquitiniert. HMP35 wird außerdem in planta proteasomal abgebaut, wodurch eine Ubiquitinierung von HMP35 durch PUB54 zum proteasomalen Abbau nahegelegt wird. Des Weiteren wurde gezeigt, dass hmp35 Mutanten von erhöhter Resistenz profitieren. HMP35 agiert möglicherweise als negativer Regulator der Immunantwort und wird zur Aktivierung von Abwehrreaktionen durch PUB54 für den proteasomalen Abbau markiert. ARI12 wird nach Priming oder Infektion mit Pseudomonas transkriptionell aktiviert und nach sekundärer Infektion hyperinduziert, wobei die Behandlung mit SA keine Expression induziert. ARI12 ist jedoch reduziert in npr1 und fmo1 Mutanten, wodurch eine Abhängigkeit der Genexpression von funktionalen SA- und Pip-Signalwegen angedeutet wird. ARI12 akkumuliert in systemischem Gewebe nach lokaler Behandlung mit SA, Pip, oder Pseudomonas. Die ari12 Mutante zeigt wildtypähnliche Resistenz gegenüber bakteriellen Infektionen, wohingegen die Überexpression zu einer verstärkten Resistenz in lokalem und systemischem Gewebe führt. Unausgewogene Level von ARI12 (d.h. knockout oder Überexpression) führen zur erhöhten Expression von FMO1, sodass ARI12 potentiell eine regulatorische Rolle in der Pip-vermittelten systemischen Immunantwort übernimmt. Es konnte gezeigt werden, dass ARI12 eine aktive E3-Ligase mit Autoubiquitinierungsaktivität an Lys474 ist, welche vermutlich für die Aktivierung benötigt wird. Massenspektrometrisch identifizierte, mögliche Substrate von ARI12 konnten noch nicht experimentell bestätigt werden, deuten aber auf eine Rolle von ARI12 in der Regulation von reaktiven Oxygen Spezies (ROS) hin, welche wiederum Pip-anhängige Signalwege regulieren. Zusammengenommen deuten die Daten aus diesem Projekt darauf hin, dass das 26S Proteasom durch den regulierten Proteinabbau zentral ist für die systemische erworbene Resistenz und dass die bisher wenig untersuchten E3-Ligasen PUB54 und ARI12 neue regulatorische Komponenten der pflanzlichen Immunabwehr darstellen. KW - defense priming KW - Arabidopsis KW - Ubiquitin-proteasome-system KW - E3-ubiquitin ligases KW - Arabidopsis KW - E3-Ubiquitin Ligasen KW - Ubiquitin-Proteasom-System KW - erworbene Immunantwort Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-505909 ER - TY - THES A1 - Sonat, Duygu T1 - Institutional change in the Turkish Social Assistance System BT - National Reforms, Street-Lavel Practices Y1 - 2021 ER - TY - THES A1 - Skowronski, Marika T1 - Sexualized media and self-objectification in women and adolescents T1 - Sexualisierte Medien und Selbstobjektifizierung bei Frauen und Jugendlichen BT - a multi-method approach BT - ein multimethodaler Ansatz N2 - Background: A growing body of research has documented negative effects of sexualization in the media on individuals’ self-objectification. This research is predominantly built on studies examining traditional media, such as magazines and television, and young female samples. Furthermore, longitudinal studies are scarce, and research is missing studying mediators of the relationship. The first aim of the present PhD thesis was to investigate the relations between the use of sexualized interactive media and social media and self-objectification. The second aim of this work was to examine the presumed processes within understudied samples, such as males and females beyond college age, thus investigating the moderating roles of age and gender. The third aim was to shed light on possible mediators of the relation between sexualized media and self-objectification. Method: The research aims were addressed within the scope of four studies. In an experiment, women’s self-objectification and body satisfaction was measured after playing a video game with a sexualized vs. a nonsexualized character that was either personalized or generic. The second study investigated the cross-sectional link between sexualized television use and self-objectification and consideration of cosmetic surgery in a sample of women across a broad age spectrum, examining the role of age in the relations. The third study looked at the cross-sectional link between male and female sexualized images on Instagram and their associations with self-objectification among a sample of male and female adolescents. Using a two-wave longitudinal design, the fourth study examined sexualized video game and Instagram use as predictors of adolescents’ self-objectification. Path models were conceptualized for the second, third and fourth study, in which media use predicted body surveillance via appearance comparisons (Study 4), thin-ideal internalization (Study 2, 3, 4), muscular-ideal internalization (Study 3, 4), and valuing appearance (all studies). Results: The results of the experimental study revealed no effect of sexualized video game characters on women’s self-objectification and body satisfaction. No moderating effect of personalization emerged. Sexualized television use was associated to consideration of cosmetic surgery via body surveillance and valuing appearance for women of all ages in Study 2, while no moderating effect of age was found. Study 3 revealed that seeing sexualized male images on Instagram was indirectly associated with higher body surveillance via muscular-ideal internalization for boys and girls. Sexualized female images were indirectly linked to higher body surveillance via thin-ideal internalization and valuing appearance over competence only for girls. The longitudinal analysis of Study 4 showed no moderating effect of gender: For boys and girls, sexualized video game use at T1 predicted body surveillance at T2 via appearance comparisons, thin-ideal internalization and valuing appearance over competence. Furthermore, the use of sexualized Instagram images at T1 predicted body surveillance at T2 via valuing appearance. Conclusion: The findings show that sexualization in the media is linked to self-objectification among a variety of media formats and within diverse groups of people. While the longitudinal study indicates that sexualized media predict self-objectification over time, the experimental null findings warrant caution regarding this temporal order. The results demonstrate that several mediating variables might be involved in this link. Possible implications for research and practice, such as intervention programs and policy-making, are discussed. N2 - Hintergrund: Mit einer wachsenden Zahl an Studien konnte gezeigt werden, dass mediale Sexualisierung negative Auswirkungen auf die Selbstobjektifzierung von Individuen hat. Die entsprechende Forschung stützt sich primär auf Studien zu traditionellen Medien (wie Magazine und Fernsehen) sowie junge weibliche Stichproben. Zudem mangelt es an längsschnittlichen Untersuchungen sowie Studien zu Mediatoren dieses Zusammenhangs. Das erste Ziel der vorliegenden Dissertation war somit die Untersuchung der Zusammenhänge zwischen der Nutzung sexualisierter interaktiver und sozialer Medien und Selbstobjektifzierung. Das zweite Ziel bestand darin, die angenommenen Prozesse anhand von wenig untersuchten Stichproben zu analysieren, wie etwa männliche Stichproben sowie weibliche Stichproben über das junge Erwachsenenalter hinaus. Somit konnte die Rolle von Alter und Geschlecht als Moderatoren geprüft werden. Das dritte Ziel war schließlich, mögliche Mediatoren der Beziehung zwischen sexualisierten Medien und Selbstobjektifizierung zu identifizieren. Methode: Die Forschungsziele wurden mit Hilfe von vier Studien addressiert. In einer experimentellen Studie spielten junge Frauen ein Videospiel mit einem sexualisierten oder einem nicht sexualisierten Charakter, der entweder personalisiert oder nicht personalisiert war. Anschließend wurden die Selbstobjektifizierung sowie die Körperzufriedenheit der Probandinnen gemessen. In einer zweiten Studie wurde der querschnittliche Zusammenhang zwischen sexualisiertem Fernsehkonsum, Selbstobjektifizierung und der Erwägung von Schönheitsoperationen untersucht. Die Stichprobe von Frauen über ein breites Altersspektrum erlaubte die Analyse der Rolle des Alters in diesem Zusammenhang. In der dritten Studie wurde geprüft, inwiefern männliche und weibliche sexualisierte Bilder auf Instagram mit der Selbstobjektifizierung männlicher und weiblicher Jugendlicher zusammenhängen. Weiterhin wurde als vierte Studie eine Längsschnittstudie mit zwei Messzeitpunkten durchgeführt, um sexualisierten Videospiel- und Instagramkonsum als Prädiktoren für die Selbstobjektifizierung von Jugendlichen zu untersuchen. Für die zweite, dritte und vierte Studie wurden Pfadmodelle konzeptualisiert, in denen Medienkonsum das körperbeobachtende Verhalten über die Mediatoren Aussehensvergleiche (Studie 4), Internalisierung des Schlankheitsideals (Studie 2,3,4), Internalisierung des muskulösen Ideals (Studie 3,4) und Höherbewertung des Aussehens (alle Studien) vorhersagte. Ergebnisse: Die Ergebnisse der Experimentalstudie zeigten keinen Effekt sexualisierter Videospielcharaktere auf Selbstobjektifzierung und Körperzufriedenheit von Frauen. Es konnte kein Moderatoreffekt der Personalisierung gefunden werden. Sexualisierter Fernsehkonsum war assoziiert mit der Erwägung von Schönheitsoperationen über körperbeobachtendes Verhalten und Höherbewertung des Aussehens für Frauen jeden Alters in Studie 2. Alter moderierte diesen Zusammenhang nicht. Studie 3 zeigte, dass der Konsum von sexualisierten männlichen Bildern auf Instagram indirekt mit höherem körperbeobachtenden Verhalten über die Internalisierung des muskulösen Ideals assoziiert war, sowohl für Jungen als auch für Mädchen. Sexualisierte weibliche Bilder hingen jedoch nur für Mädchen indirekt mit höherem körperbeobachtendem Verhalten über die Internalisierung des Schlankheitsideals und die Höherbewertung des Aussehens zusammen. Die längsschnittlichen Analysen der vierten Studie ergaben keinen Moderatoreffekt des Geschlechts: Für Jungen und Mädchen sagte sexualisierter Videospielkonsum zu T1 das körperbeobachtende Verhalten zu T2 über die Mediatoren Aussehensvergleiche, Internalisierung des Schlankheitsideals und Höherbewertung des Aussehens vorher. Weiterhin zeigte sich, dass sexualisierter Instagramkonsum zu T1 das körperbeobachtende Verhalten zu T2 über die Höherbewertung des Aussehens vorhersagte. Konklusion: Die Befunde zeigen, dass mediale Sexualisierung mit Selbstobjektifizierung zusammenhängt. Dieser Zusammenhang zeigte sich über eine Vielfalt von Medienformaten und bei diversen Nutzer*innengruppen. Die Ergebnisse der Längsschnittstudie indizieren, dass sexualisierter Medienkonsum Selbstobjektifizierung über die Zeit vorhersagt. Jedoch legen die experimentellen Nullbefunde Vorsicht bezüglich dieser zeitlichen Abfolge nahe. Die Ergebnisse demonstrieren, dass verschiedene Mediatorvariablen in diesem Zusammenhang involviert sein könnten. Mögliche Implikationen für Forschung und Praxis, wie etwa Interventionsprogramme und Politikgestaltung, werden diskutiert. KW - media KW - sexualization KW - self-objectification KW - body image KW - Körperbild KW - Medien KW - Selbstobjektifzierung KW - Sexualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-508926 ER - TY - THES A1 - Sikkens, Reinier T1 - An analysis of cultural entrepreneurship T1 - Eine Analyse des Kulturellen Unternehmertums BT - a balance between culture and business within media art BT - ein Gleichgewicht zwischen Kultur und Wirtschaft in der Medienkunst N2 - Media artists have been struggling for financial survival ever since media art came into being. The non-material value of the artwork, a provocative attitude towards the traditional arts world and originally anti-capitalist mindset of the movement makes it particularly difficult to provide a constructive solution. However, a cultural entrepreneurial approach can be used to build a framework in order to find a balance between culture and business while ensuring that the cultural mission remains the top priority. N2 - Medienkünstler kämpfen seit der Entstehung der Medienkunst um ihr finanzielles Überleben. Der immaterielle Wert des Kunstwerks, eine provokative Haltung gegenüber der traditionellen Kunstwelt und die ursprünglich antikapitalistische Denkweise der Bewegung machen es besonders schwierig, eine konstruktive Lösung zu finden. Ein kultureller unternehmerischer Ansatz kann jedoch verwendet werden, um einen Rahmen zu schaffen, um ein Gleichgewicht zwischen Kultur und Wirtschaft zu finden und gleichzeitig sicherzustellen, dass die Kulturelle Mission weiterhin oberste Priorität hat. KW - Multidisciplinarity KW - Mobility KW - Multiple stakeholder involvement KW - Cultural entrepreneurship KW - Balance KW - Multidisziplinarität KW - Mobilität KW - Involvierung mehrerer Interessengruppen KW - Kulturelles Unternehmertum KW - Bilanz Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-501879 ER - TY - THES A1 - Seidel, Karen T1 - Modelling binary classification with computability theory T1 - Binäre Klassifikation modellieren mit Berechenbarkeitstheorie N2 - We investigate models for incremental binary classification, an example for supervised online learning. Our starting point is a model for human and machine learning suggested by E.M.Gold. In the first part, we consider incremental learning algorithms that use all of the available binary labeled training data in order to compute the current hypothesis. For this model, we observe that the algorithm can be assumed to always terminate and that the distribution of the training data does not influence learnability. This is still true if we pose additional delayable requirements that remain valid despite a hypothesis output delayed in time. Additionally, we consider the non-delayable requirement of consistent learning. Our corresponding results underpin the claim for delayability being a suitable structural property to describe and collectively investigate a major part of learning success criteria. Our first theorem states the pairwise implications or incomparabilities between an established collection of delayable learning success criteria, the so-called complete map. Especially, the learning algorithm can be assumed to only change its last hypothesis in case it is inconsistent with the current training data. Such a learning behaviour is called conservative. By referring to learning functions, we obtain a hierarchy of approximative learning success criteria. Hereby we allow an increasing finite number of errors of the hypothesized concept by the learning algorithm compared with the concept to be learned. Moreover, we observe a duality depending on whether vacillations between infinitely many different correct hypotheses are still considered a successful learning behaviour. This contrasts the vacillatory hierarchy for learning from solely positive information. We also consider a hypothesis space located between the two most common hypothesis space types in the nearby relevant literature and provide the complete map. In the second part, we model more efficient learning algorithms. These update their hypothesis referring to the current datum and without direct regress to past training data. We focus on iterative (hypothesis based) and BMS (state based) learning algorithms. Iterative learning algorithms use the last hypothesis and the current datum in order to infer the new hypothesis. Past research analyzed, for example, the above mentioned pairwise relations between delayable learning success criteria when learning from purely positive training data. We compare delayable learning success criteria with respect to iterative learning algorithms, as well as learning from either exclusively positive or binary labeled data. The existence of concept classes that can be learned by an iterative learning algorithm but not in a conservative way had already been observed, showing that conservativeness is restrictive. An additional requirement arising from cognitive science research %and also observed when training neural networks is U-shapedness, stating that the learning algorithm does diverge from a correct hypothesis. We show that forbidding U-shapes also restricts iterative learners from binary labeled data. In order to compute the next hypothesis, BMS learning algorithms refer to the currently observed datum and the actual state of the learning algorithm. For learning algorithms equipped with an infinite amount of states, we provide the complete map. A learning success criterion is semantic if it still holds, when the learning algorithm outputs other parameters standing for the same classifier. Syntactic (non-semantic) learning success criteria, for example conservativeness and syntactic non-U-shapedness, restrict BMS learning algorithms. For proving the equivalence of the syntactic requirements, we refer to witness-based learning processes. In these, every change of the hypothesis is justified by a later on correctly classified witness from the training data. Moreover, for every semantic delayable learning requirement, iterative and BMS learning algorithms are equivalent. In case the considered learning success criterion incorporates syntactic non-U-shapedness, BMS learning algorithms can learn more concept classes than iterative learning algorithms. The proofs are combinatorial, inspired by investigating formal languages or employ results from computability theory, such as infinite recursion theorems (fixed point theorems). N2 - Wir untersuchen Modelle für inkrementelle binäre Klassifikation, ein Beispiel für überwachtes online Lernen. Den Ausgangspunkt bildet ein Modell für menschliches und maschinelles Lernen von E.M.Gold. Im ersten Teil untersuchen wir inkrementelle Lernalgorithmen, welche zur Berechnung der Hypothesen jeweils die gesamten binär gelabelten Trainingsdaten heranziehen. Bezogen auf dieses Modell können wir annehmen, dass der Lernalgorithmus stets terminiert und die Verteilung der Trainingsdaten die grundsätzliche Lernbarkeit nicht beeinflusst. Dies bleibt bestehen, wenn wir zusätzliche Anforderungen an einen erfolgreichen Lernprozess stellen, die bei einer zeitlich verzögerten Ausgabe von Hypothesen weiterhin zutreffen. Weiterhin untersuchen wir nicht verzögerbare konsistente Lernprozesse. Unsere Ergebnisse bekräftigen die Behauptung, dass Verzögerbarkeit eine geeignete strukturelle Eigenschaft ist, um einen Großteil der Lernerfolgskriterien zu beschreiben und gesammelt zu untersuchen. Unser erstes Theorem klärt für dieses Modell die paarweisen Implikationen oder Unvergleichbarkeiten innerhalb einer etablierten Auswahl verzögerbarer Lernerfolgskriterien auf. Insbesondere können wir annehmen, dass der inkrementelle Lernalgorithmus seine Hypothese nur dann verändert, wenn die aktuellen Trainingsdaten der letzten Hypothese widersprechen. Ein solches Lernverhalten wird als konservativ bezeichnet. Ausgehend von Resultaten über Funktionenlernen erhalten wir eine strikte Hierarchie von approximativen Lernerfolgskriterien. Hierbei wird eine aufsteigende endliche Zahl von \emph{Anomalien} (Fehlern) des durch den Lernalgorithmus vorgeschlagenen Konzepts im Vergleich zum Lernziel erlaubt. Weiterhin ergibt sich eine Dualität abhängig davon, ob das Oszillieren zwischen korrekten Hypothesen als erfolgreiches Lernen angesehen wird. Dies steht im Gegensatz zur oszillierenden Hierarchie, wenn der Lernalgorithmus von ausschließlich positiven Daten lernt. Auch betrachten wir einen Hypothesenraum, der einen Kompromiss zwischen den beiden am häufigsten in der naheliegenden Literatur vertretenen Arten von Hypothesenräumen darstellt. Im zweiten Teil modellieren wir effizientere Lernalgorithmen. Diese aktualisieren ihre Hypothese ausgehend vom aktuellen Datum, jedoch ohne Zugriff auf die zurückliegenden Trainingsdaten. Wir konzentrieren uns auf iterative (hypothesenbasierte) und BMS (zustandsbasierte) Lernalgorithmen. Iterative Lernalgorithmen nutzen ihre letzte Hypothese und das aktuelle Datum, um die neue Hypothese zu berechnen. Die bisherige Forschung klärt beispielsweise die oben erwähnten paarweisen Vergleiche zwischen den verzögerbaren Lernerfolgskriterien, wenn von ausschließlich positiven Trainingsdaten gelernt wird. Wir vergleichen verzögerbare Lernerfolgskriterien bezogen auf iterative Lernalgorithmen, sowie das Lernen von aussschließlich positiver oder binär gelabelten Daten. Bereits bekannt war die Existenz von Konzeptklassen, die von einem iterativen Lernalgorithmus gelernt werden können, jedoch nicht auf eine konservative Weise. U-shapedness ist ein in den Kognitionswissenschaften beobachtetes Phänomen, demzufolge der Lerner im Lernprozess von einer bereits korrekten Hypothese divergiert. Wir zeigen, dass iterative Lernalgorithmen auch durch das Verbieten von U-Shapes eingeschränkt werden. Zur Berechnung der nächsten Hypothese nutzen BMS-Lernalgorithmen ergänzend zum aktuellen Datum den aktuellen Zustand des Lernalgorithmus. Für Lernalgorithmen, die über unendlich viele mögliche Zustände verfügen, leiten wir alle paarweisen Implikationen oder Unvergleichbarkeiten innerhalb der etablierten Auswahl verzögerbarer Lernerfolgskriterien her. Ein Lernerfolgskriterium ist semantisch, wenn es weiterhin gilt, falls im Lernprozess andere Parameter ausgegeben werden, die jeweils für die gleichen Klassifikatoren stehen. Syntaktische (nicht-semantische) Lernerfolgskriterien, beispielsweise Konservativität und syntaktische Non-U-Shapedness, schränken BMS-Lernalgorithmen ein. Um die Äquivalenz der syntaktischen Lernerfolgskriterien zu zeigen, betrachten wir witness-based Lernprozesse. In diesen wird jeder Hypothesenwechsel durch einen später korrekt klassifizierten Zeugen in den Trainingsdaten gerechtfertig. Weiterhin sind iterative und BMS-Lernalgorithmen für die semantischen verzögerbaren Lernerfolgskriterien jeweils äquivalent. Ist syntaktische Non-U-Shapedness Teil des Lernerfolgskriteriums, sind BMS-Lernalgorithmen mächtiger als iterative Lernalgorithmen. Die Beweise sind kombinatorisch, angelehnt an Untersuchungen zu formalen Sprachen oder nutzen Resultate aus dem Gebiet der Berechenbarkeitstheorie, beispielsweise unendliche Rekursionstheoreme (Fixpunktsätze). KW - Binary Classification KW - Recursion KW - U-Shaped-Learning KW - Simulation KW - Binäre Klassifikation KW - Rekursion KW - U-Förmiges Lernen KW - Simulation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-529988 ER - TY - THES A1 - Seiberth, Luz Christopher T1 - Intentionality in Sellars BT - a Transcendental Account of Finite Knowledge T2 - Routledge studies in American philosophy N2 - This book argues that Sellars’ theory of intentionality can be understood as an advancement of a transcendental philosophical approach. It shows how Sellars develops his theory of intentionality through his engagement with the theoretical philosophy of Immanuel Kant. The book delivers a provocative reinterpretation of one of the most problematic and controversial concepts of Sellars' philosophy: the picturing-relation. Sellars' theory of intentionality addresses the question of how to reconcile two aspects that seem opposed: the non-relational theory of intellectual and linguistic content and a causal-transcendental theory of representation inspired by the philosophy of the early Wittgenstein. The author explains how both parts cohere in a transcendental account of finite knowledge. He claims that this can only be achieved by reading Sellars as committed to a transcendental methodology inspired by Kant. In a final step, he brings his interpretation to bear on the contemporary metaphilosophical debate on pragmatism and expressivism. Intentionality in Sellars will be of interest to scholars of Sellars and Kant, as well as researchers working in philosophy of mind, epistemology, and the history of nineteenth- and twentieth-century philosophy. Y1 - 2021 SN - 978-1-032-11493-4 SN - 978-1-032-11758-4 SN - 978-1-003-22136-4 U6 - https://doi.org/10.4324/9781003221364 PB - Routledge CY - New York, NY ER - TY - THES A1 - Seelig, Stefan T1 - Parafoveal processing of lexical information during reading T1 - Parafoveale Verarbeitung lexikalischer Informationen beim Lesen BT - from experiments to computational modeling BT - von Experimenten zu computationaler Modellierung N2 - During sentence reading the eyes quickly jump from word to word to sample visual information with the high acuity of the fovea. Lexical properties of the currently fixated word are known to affect the duration of the fixation, reflecting an interaction of word processing with oculomotor planning. While low level properties of words in the parafovea can likewise affect the current fixation duration, results concerning the influence of lexical properties have been ambiguous (Drieghe, Rayner, & Pollatsek, 2008; Kliegl, Nuthmann, & Engbert, 2006). Experimental investigations of such lexical parafoveal-on-foveal effects using the boundary paradigm have instead shown, that lexical properties of parafoveal previews affect fixation durations on the upcoming target words (Risse & Kliegl, 2014). However, the results were potentially confounded with effects of preview validity. The notion of parafoveal processing of lexical information challenges extant models of eye movements during reading. Models containing serial word processing assumptions have trouble explaining such effects, as they usually couple successful word processing to saccade planning, resulting in skipping of the parafoveal word. Although models with parallel word processing are less restricted, in the SWIFT model (Engbert, Longtin, & Kliegl, 2002) only processing of the foveal word can directly influence the saccade latency. Here we combine the results of a boundary experiment (Chapter 2) with a predictive modeling approach using the SWIFT model, where we explore mechanisms of parafoveal inhibition in a simulation study (Chapter 4). We construct a likelihood function for the SWIFT model (Chapter 3) and utilize the experimental data in a Bayesian approach to parameter estimation (Chapter 3 & 4). The experimental results show a substantial effect of parafoveal preview frequency on fixation durations on the target word, which can be clearly distinguished from the effect of preview validity. Using the eye movement data from the participants, we demonstrate the feasibility of the Bayesian approach even for a small set of estimated parameters, by comparing summary statistics of experimental and simulated data. Finally, we can show that the SWIFT model can account for the lexical preview effects, when a mechanism for parafoveal inhibition is added. The effects of preview validity were modeled best, when processing dependent saccade cancellation was added for invalid trials. In the simulation study only the control condition of the experiment was used for parameter estimation, allowing for cross validation. Simultaneously the number of free parameters was increased. High correlations of summary statistics demonstrate the capabilities of the parameter estimation approach. Taken together, the results advocate for a better integration of experimental data into computational modeling via parameter estimation. N2 - Während des Lesens springt der Blick von Wort zu Wort, um visuelle Informationen mithilfe der hohen Auflösung der Fovea aufzunehmen. Lexikalische Eigenschaften eines zurzeit fixierten Wortes wirken sich dabei auf die Fixationsdauer aus, was eine Interaktion von Wortverarbeitung mit okulomotorischer Bewegungsplanung impliziert. Während Low-Level-Eigenschaften eines parafovealen Wortes ebenfalls die Fixationsdauer beeinflussen können, sind Ergebnisse zu Einflüssen lexikalischer Eigenschaften parafoveler Worte uneindeutig (Drieghe et al., 2008; Kliegl et al., 2006). Experimentelle Untersuchungen solcher parafoveal-on-foveal-Effekte mittels des Boundary-Paradigmas zeigten stattdessen, dass sich lexikalische Eigenschaften parafovealer Worte auf Fixationsdauern auf den Target-Wörtern auswirken (Risse & Kliegl, 2014). Diese Ergebnisse waren jedoch möglicherweise mit den Effekten der Preview-Validität konfundiert. Die Möglichkeit parafovealer Verarbeitung lexikalischer Informationen stellt bestehende Modelle für Blickbewegungen beim Lesen vor Probleme. Modelle, die auf seriellen Wortverarbeitungsannahmen fußen, können derlei Effekte nicht schlüssig erklären, da in ihnen erfolgreiche Wortverarbeitung oft starr an Bewegungsplanung gekoppelt ist, was ein Überspringen des parafovealen Wortes zur Folge hätte. Obwohl Modelle mit paralleler Wortverarbeitung weniger eingeschränkt sind, kann im SWIFT-Modell (Engbert et al., 2002) nur die Verarbeitung fovealer Worte die Sakkadenplanung direkt hemmen. Wir verbinden in dieser Arbeit die Ergebnisse eines Boundary-Experiments (Kapitel 2) mit einem prädiktiven Modellierungsansatz mit dem SWIFT-Modell, in dem wir Mechanismen parafovealer Hemmung in einer Simulationsstudie erkunden (Kapitel 4). Wir konstruieren eine Likelihood-Funktion für das SWIFT-Modell und nutzen die Experimentaldaten in einem Bayesianischen Ansatz zur Parameterschätzung (Kapitel 3 & 4). In den Ergebnissen des Experiments zeigt sich ein substanzieller Frequenzeffekt des Previews auf die Fixationsdauer auf dem Target-Wort, der klar vom Effekt der Preview-Validität unterschieden werden kann. Mittels der Blickbewegungsdaten der Probanden demonstrieren wir die Praktikabilität des gewählten Ansatzes selbst mit nur wenigen freien Parametern, indem wir Statistiken der Probanden mit jenen aus Simulationen auf der Basis geschätzter Parameter vergleichen. Schließlich können wir zeigen, dass SWIFT die lexikalischen Preview-Effekte erzeugen kann, wenn das Modell zusätzlich mit einem Mechanismus parafovealer Inhibition ausgestattet wird. Die Effekte der Preview-Validität wurden hingegen am besten modelliert, wenn eine Möglichkeit zum Abbruch der Sakkadenplanung in Abhängigkeit von der Wortverarbeitung hinzugefügt wurde. In dieser Simulationsstudie wurden lediglich Daten der Kontrollbedingung des Experiments zur Parameterschätzung genutzt, wodurch eine Kreuzvalidierung der Güte der Simulationsdaten ermöglicht wurde. Gleichzeitig wurde die Zahl der freien Parameter erhöht. Hohe Korrelationen der Statistiken verdeutlichen das Potential des Parameterschätzungsansatzes. Zusammengenommen sprechen die Ergebnisse dafür, dass Experimentaldaten mehr zur computationalen Modellierung herangezogen werden sollten, indem Möglichkeiten der Parameterschätzung ausgenutzt werden. KW - reading KW - parafoveal processing KW - predictive modeling KW - boundary paradigm KW - eye tracking KW - MCMC KW - parameter estimation KW - computational modeling KW - interindividual differences KW - lexical processing KW - MCMC KW - computationale Modellierung KW - Eye-Tracking KW - Interindividuelle Unterschiede KW - Lexikalische Verarbeitung KW - Parafoveale Verarbeitung KW - Parameterschätzung KW - Lesen KW - Boundary-Paradigma Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-508743 ER - TY - THES A1 - Schutjajew, Konstantin T1 - Electrochemical sodium storage in non-graphitizing carbons - insights into mechanisms and synthetic approaches towards high-energy density materials T1 - Elektrochemische Natriumspeicherung in nicht-graphitisierbaren Kohlenstoffen - Untersuchungen zu Mechanismen und synthetische Ansätze für die Darstellung von Materialien mit hohen Energiedichten N2 - To achieve a sustainable energy economy, it is necessary to turn back on the combustion of fossil fuels as a means of energy production and switch to renewable sources. However, their temporal availability does not match societal consumption needs, meaning that renewably generated energy must be stored in its main generation times and allocated during peak consumption periods. Electrochemical energy storage (EES) in general is well suited due to its infrastructural independence and scalability. The lithium ion battery (LIB) takes a special place, among EES systems due to its energy density and efficiency, but the scarcity and uneven geological occurrence of minerals and ores vital for many cell components, and hence the high and fluctuating costs will decelerate its further distribution. The sodium ion battery (SIB) is a promising successor to LIB technology, as the fundamental setup and cell chemistry is similar in the two systems. Yet, the most widespread negative electrode material in LIBs, graphite, cannot be used in SIBs, as it cannot store sufficient amounts of sodium at reasonable potentials. Hence, another carbon allotrope, non-graphitizing or hard carbon (HC) is used in SIBs. This material consists of turbostratically disordered, curved graphene layers, forming regions of graphitic stacking and zones of deviating layers, so-called internal or closed pores. The structural features of HC have a substantial impact of the charge-potential curve exhibited by the carbon when it is used as the negative electrode in an SIB. At defects and edges an adsorption-like mechanism of sodium storage is prevalent, causing a sloping voltage curve, ill-suited for the practical application in SIBs, whereas a constant voltage plateau of relatively high capacities is found immediately after the sloping region, which recent research attributed to the deposition of quasimetallic sodium into the closed pores of HC. Literature on the general mechanism of sodium storage in HCs and especially the role of the closed pore is abundant, but the influence of the pore geometry and chemical nature of the HC on the low-potential sodium deposition is yet in an early stage. Therefore, the scope of this thesis is to investigate these relationships using suitable synthetic and characterization methods. Materials of precisely known morphology, porosity, and chemical structure are prepared in clear distinction to commonly obtained ones and their impact on the sodium storage characteristics is observed. Electrochemical impedance spectroscopy in combination with distribution of relaxation times analysis is further established as a technique to study the sodium storage process, in addition to classical direct current techniques, and an equivalent circuit model is proposed to qualitatively describe the HC sodiation mechanism, based on the recorded data. The obtained knowledge is used to develop a method for the preparation of closed porous and non-porous materials from open porous ones, proving not only the necessity of closed pores for efficient sodium storage, but also providing a method for effective pore closure and hence the increase of the sodium storage capacity and efficiency of carbon materials. The insights obtained and methods developed within this work hence not only contribute to the better understanding of the sodium storage mechanism in carbon materials of SIBs, but can also serve as guidance for the design of efficient electrode materials. N2 - Eine nachhaltige Energiewirtschaft kann nur durch die Abkehr von fossilen Brennstoffen als Energiequellen und den ausschließlichen Einsatz erneuerbarer Quellen für die Energieerzeugung erreicht werden. Da diese jedoch naturgemäß nur diskontinuierlich zur Verfügung stehen und sich die tageszeitliche Verfügbarkeit kaum mit dem Bedarf deckt, muss erneuerbar gewonnene Energie zwischengespeichert werden. Dies kann mittels elektrochemischer Energiespeicher geschehen, wobei sich die Lithium-Ionen-Batterie (LIB) aufgrund ihrer hohen Energiedichte und Effizienz besonders dafür eignet. Da jedoch Ressourcen, welche für entscheidende Zellkomponenten der LIB benötigt werden, knapper werden und oft in geopolitisch komplizierten Regionen vorkommen, muss auch dafür eine Alternative gefunden werden. Die Natrium-Ionen-Batterie (NIB) bietet sich als Nachfolger für LIBs an, da sich die Zellchemie der beiden Systeme ähnelt und somit Kenntnisse direkt aus der LIB-Forschung übernommen werden können. Es erweist sich allerdings als problematisch, dass das kommerziell wichtigste negative Elektrodenmaterial in LIBs, Graphit, nicht für die Anwendung in NIBs eignet und daher eine andere Kohlenstoffmodifikation, sogenannter nicht-graphitisierbarer Kohlenstoff, oder aus dem Englischen hard carbon (HC), verwendet werden muss. HC ist durch eine besondere Art der Fehlordnung geprägt und besteht im Wesentlichen aus Regionen, in denen die Kohlenstoffschichten parallel zueinander verlaufen und aus Regionen, in denen die Schichten innere Hohlräume, sogenannte geschlossene Poren bilden. Die Lade-Entladekurve von HCs ist geprägt von diesen Strukturmerkmalen, sodass sie in einen linear-abflachenden, aus dem Englischen sloping Bereich, und einen Plateaubereich unterteilt werden kann. Die Speicherung im für Energieanwendungen relevanteren Plateaubereich erfolgt durch Abscheidung quasimetallischer Natriumstrukturen in eingangs erwähnten geschlossenen Poren, bei geringen, konstanten Spannungen, wie zahlreiche Forschungsarbeiten unter Berufung auf verschiedene Strukturcharakterisierungsmethoden � uberzeugend nahelegen. Jedoch ist über den Einfluss der Größe und Form der geschlossenen Poren sowie derer chemischer Eigenschaften auf die Natriumspeicherung nur wenig bekannt. Eben diese Fragestellung soll in der vorliegenden Arbeit behandelt werden. Durch die Herstellung von Materialien mit genau definierter und bekannter Morphologie, Porenstruktur sowie chemischer Beschaffenheit wird die Bedeutung dieser Merkmale für die Natriumabscheidung bei geringen Potentialen beleuchtet. Mittels elektrochemischer Impedanzspektroskopie wird desweiteren der Natriumspeichermechanismus detailliert untersucht und die Kinetik der reversiblen Natriumspeicherung mit der der irreversiblen Metallabscheidung verglichen, wobei eine bemerkenswerte Ähnlichkeit der beiden Prozesse zu beobachten ist. Abschließend ist die gezielte Herstellung geschlossenporiger Materialien aus offenporigen Vorläufermaterialien gelungen, welche es nicht nur ermöglicht, geschlossen- und offenporige Materialien ansonsten gleicher Porenstruktur zu vergleichen und die Notwendigkeit geschlossener Poren nachzuweisen, sondern auch die Speicherkapazität und Effizienz der Elektrodenmaterialien zu erhöhen. Insgesamt tragen die im Rahmen der vorliegenden Dissertation gewonnenen Erkenntisse nicht nur zum tiefergehenden Verständnis des Natriumspeichermechanismus in HCs bei, sondern es werden auch synthetische und analytische Methoden vorgestellt, die der weiteren Forschung auf diesem Gebiet dienen werden. KW - sodium-ion batteries KW - energy storage KW - carbon KW - Natrium-Ionen-Akkumulator KW - Energiespeicher KW - Kohlenstoff Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541894 ER - TY - THES A1 - Schlegelmilch, Karola T1 - Grass or gravel? Influences on the visual categorization of naturalistic structures in infancy and early childhood T1 - Gras oder Geröll? Einflüsse auf die visuelle Kategorisierung von naturalistischen Strukturen im Säuglings- und Kleinkindalter N2 - Detecting and categorizing particular entities in the environment are important visual tasks that humans have had to solve at various points in our evolutionary time. The question arises whether characteristics of entities that were of ecological significance for humans play a particular role during the development of visual categorization. The current project addressed this question by investigating the effects of developing visual abilities, visual properties and ecological significance on categorization early in life. Our stimuli were monochromatic photographs of structure-like assemblies and surfaces taken from three categories: vegetation, non-living natural elements, and artifacts. A set of computational and rated visual properties were assessed for these stimuli. Three empirical studies applied coherent research concepts and methods in young children and adults, comprising (a) two card-sorting tasks with preschool children (age: 4.1-6.1 years) and adults (age: 18-50 years) which assessed classification and similarity judgments, (b) a gaze contingent eye-tracking search task which investigated the impact of visual properties and category membership on 8-month-olds' ability to segregate visual structure. Because eye-tracking with infants still provides challenges, a methodological study (c) assessed the effect of infant eye-tracking procedures on data quality with 8- to 12-month-old infants and adults. In the categorization tasks we found that category membership and visual properties impacted the performance of all participant groups. Sensitivity to the respective categories varied between tasks and over the age groups. For example, artifact images hindered infants' visual search but were classified best by adults, whereas sensitivity to vegetation was highest during similarity judgments. Overall, preschool children relied less on visual properties than adults, but some properties (e.g., rated depth, shading) were drawn upon similarly strong. In children and infants, depth predicted task performance stronger than shape-related properties. Moreover, children and infants were sensitive to variations in the complexity of low-level visual statistics. These results suggest that classification of visual structures, and attention to particular visual properties is affected by the functional or ecological significance these categories and properties may have for each of the respective age groups. Based on this, the project highlights the importance of further developmental research on visual categorization with naturalistic, structure-like stimuli. As intended with the current work, this would allow important links between developmental and adult research. N2 - Spezifische Objekte der Umwelt zu entdecken und zu erkennen, sind wichtige visuelle Aufgaben, die Menschen im Laufe der Evolution zu lösen hatten. Es stellt sich die Frage, ob Charakteristika von ökologisch wertvollen Entitäten in der Entwicklung der visuellen Kategorisierungsfähigkeit bei kleinen Kindern eine besondere Rolle spielen. Die vorliegende Dissertation untersucht, wie sich visuelle Fähigkeiten, visuelle Eigenschaften der Entitäten und Wertigkeit dieser Entitäten auf die frühe Kategorisierungs-fähigkeit auswirken. Als Stimuli dienten monochromatische Fotografien, die strukturähnliche Ausschnitte der drei Kategorien Vegetation, natürliche Elemente und Artefakte zeigen. Ein Set visueller Eigenschaften wurden für diese Stimuli computational und durch menschliche Einschätzung erstellt. In drei empirischen Studien wurden übergreifende Forschungskonzepte und -methoden bei Babys, Kindern und Erwachsenen angewandt: Diese beinhalteten (a) zwei Kartensortieraufgaben mit 4-6-jährigen Vorschulkindern und Erwachsenen, worin Klassifizie-rung und Ähnlichkeitsbeurteilungen erhoben wurden, (b) eine Eyetracking-Suchaufgabe, die den Einfluss visueller Eigenschaften und Kategoriezugehörigkeit auf die visuelle Segmentie-rung natürlicher Strukturen bei 8-Monate-alten Babys untersuchte. Da Eyetracking mit Babys methodisch anspruchsvoll ist, wurde (c) in einer Studie mit 8-12-Monate-alten Babys und mit Erwachsenen der Einfluss verschiedener Vorgehensweisen auf die Datenqualität untersucht. Die Kategorisierungsaufgaben zeigten, dass die Performanz aller Altersgruppen von Kategorie¬zugehörigkeit und visuellen Eigenschaften beeinflusst wurden. Sensitivität für die jeweiligen Kategorien variierte zwischen den Aufgaben und über die Altersgruppen hinweg. So erschwerten Bilder von Artefakten die visuelle Suche bei Babys, wurden aber von Erwachsenen am besten klassifiziert, während Vegetation Ähnlichkeitsurteile am stärksten beeinflusste. Insgesamt bezogen sich Vorschulkinder weniger als Erwachsene auf visuelle Eigen¬schaften, wobei aber einige davon (z. B. Tiefenwirkung, Schattierung) auch ähnlich stark beachtet wurden. Bei Kindern und Babys beeinflusste Tiefenwirkung die Performanz stärker als formbezogene Eigenschaften, zudem waren sie sensibel für Komplexitätsunterschiede bei statistischen Eigenschaften. Diese Ergebnisse deuten darauf hin, dass die Klassifizierung visueller Strukturen und die Aufmerksamkeit auf visuelle Eigenschaften von deren Wertigkeit für die jeweilige Altersgruppe beeinflusst sind. Damit unterstreicht das Projekt den Bedarf, visuelle Kategorisierung naturalistischer, strukturähnlicher Stimuli in weiteren entwicklungsbezogenen Studien vertiefend zu erforschen. Das würde wichtige Verbindungen zwischen Entwicklungs- und Erwachsenenforschung ermöglichen, wie es auch von der vorliegenden Arbeit angestrebt war. KW - Visual perception KW - Developmental psychology KW - Scene perception KW - Infancy KW - Early childhood KW - Visuelle Wahrnehmung KW - Entwicklungspsychologie KW - Wahrnehmung von Szenen KW - Baby- und Kleinkind Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-526370 ER - TY - THES A1 - Schjeide, Brit-Maren T1 - Development and characterization of the MoN-Light BoNT assay to determine the toxicity of botulinum neurotoxin in motor neurons differentiated from CRISPR-modified induced pluripotent stem cells T1 - Entwicklung und Charakterisierung des MoN-Light BoNT-Tests zur Bestimmung der Toxizität von Botulinum-Neurotoxin in Motorneuronen, die aus CRISPR-modifizierten induzierten pluripotenten Stammzellen differenziert wurden N2 - Botulinum neurotoxin (BoNT) is produced by the anaerobic bacterium Clostridium botulinum. It is one of the most potent toxins found in nature and can enter motor neurons (MN) to cleave proteins necessary for neurotransmission, resulting in flaccid paralysis. The toxin has applications in both traditional and esthetic medicine. Since BoNT activity varies between batches despite identical protein concentrations, the activity of each lot must be assessed. The gold standard method is the mouse lethality assay, in which mice are injected with a BoNT dilution series to determine the dose at which half of the animals suffer death from peripheral asphyxia. Ethical concerns surrounding the use of animals in toxicity testing necessitate the creation of alternative model systems to measure the potency of BoNT. Prerequisites of a successful model are that it is human specific; it monitors the complete toxic pathway of BoNT; and it is highly sensitive, at least in the range of the mouse lethality assay. One model system was developed by our group, in which human SIMA neuroblastoma cells were genetically modified to express a reporter protein (GLuc), which is packaged into neurosecretory vesicles, and which, upon cellular depolarization, can be released – or inhibited by BoNT – simultaneously with neurotransmitters. This assay has great potential, but includes the inherent disadvantages that the GLuc sequence was randomly inserted into the genome and the tumor cells only have limited sensitivity and specificity to BoNT. This project aims to improve these deficits, whereby induced pluripotent stem cells (iPSCs) were genetically modified by the CRISPR/Cas9 method to insert the GLuc sequence into the AAVS1 genomic safe harbor locus, precluding genetic disruption through non-specific integrations. Furthermore, GLuc was modified to associate with signal peptides that direct to the lumen of both large dense core vesicles (LDCV), which transport neuropeptides, and synaptic vesicles (SV), which package neurotransmitters. Finally, the modified iPSCs were differentiated into motor neurons (MNs), the true physiological target of BoNT, and hypothetically the most sensitive and specific cells available for the MoN-Light BoNT assay. iPSCs were transfected to incorporate one of three constructs to direct GLuc into LDCVs, one construct to direct GLuc into SVs, and one “no tag” GLuc control construct. The LDCV constructs fused GLuc with the signal peptides for proopiomelanocortin (hPOMC-GLuc), chromogranin-A (CgA-GLuc), and secretogranin II (SgII-GLuc), which are all proteins found in the LDCV lumen. The SV construct comprises a VAMP2-GLuc fusion sequence, exploiting the SV membrane-associated protein synaptobrevin (VAMP2). The no tag GLuc expresses GLuc non-specifically throughout the cell and was created to compare the localization of vesicle-directed GLuc. The clones were characterized to ensure that the GLuc sequence was only incorporated into the AAVS1 safe harbor locus and that the signal peptides directed GLuc to the correct vesicles. The accurate insertion of GLuc was confirmed by PCR with primers flanking the AAVS1 safe harbor locus, capable of simultaneously amplifying wildtype and modified alleles. The PCR amplicons, along with an insert-specific amplicon from candidate clones were Sanger sequenced to confirm the correct genomic region and sequence of the inserted DNA. Off-target integrations were analyzed with the newly developed dc-qcnPCR method, whereby the insert DNA was quantified by qPCR against autosomal and sex-chromosome encoded genes. While the majority of clones had off-target inserts, at least one on-target clone was identified for each construct. Finally, immunofluorescence was utilized to localize GLuc in the selected clones. In iPSCs, the vesicle-directed GLuc should travel through the Golgi apparatus along the neurosecretory pathway, while the no tag GLuc should not follow this pathway. Initial analyses excluded the CgA-GLuc and SgII-GLuc clones due to poor quality protein visualization. The colocalization of GLuc with the Golgi was analyzed by confocal microscopy and quantified. GLuc was strongly colocalized with the Golgi in the hPOMC-GLuc clone (r = 0.85±0.09), moderately in the VAMP2-GLuc clone (r = 0.65±0.01), and, as expected, only weakly in the no tag GLuc clone (r = 0.44±0.10). Confocal microscopy of differentiated MNs was used to analyze the colocalization of GLuc with proteins associated with LDCVs and SVs, SgII in the hPOMC-GLuc clone (r = 0.85±0.08) and synaptophysin in the VAMP2-GLuc clone (r = 0.65±0.07). GLuc was also expressed in the same cells as the MN-associated protein, Islet1. A significant portion of GLuc was found in the correct cell type and compartment. However, in the MoN-Light BoNT assay, the hPOMC-GLuc clone could not be provoked to reliably release GLuc upon cellular depolarization. The depolarization protocol for hPOMC-GLuc must be further optimized to produce reliable and specific release of GLuc upon exposure to a stimulus. On the other hand, the VAMP2-GLuc clone could be provoked to release GLuc upon exposure to the muscarinic and nicotinic agonist carbachol. Furthermore, upon simultaneous exposure to the calcium chelator EGTA, the carbachol-provoked release of GLuc could be significantly repressed, indicating the detection of GLuc was likely associated with vesicular fusion at the presynaptic terminal. The application of the VAMP2-GLuc clone in the MoN-Light BoNT assay must still be verified, but the results thus far indicate that this clone could be appropriate for the application of BoNT toxicity assessment. N2 - Botulinum neurotoxin (BoNT) wird von dem obligat anaeroben Bakterium Clostridium botulinum produziert. Es ist eines der giftigsten natürlich vorkommenden Toxine. Nach Aufnahme in den Körper dringt es in Motorneurone ein und spaltet spezifische Proteine, die für die Freisetzung des Neurotransmitters Acetylcholin notwendig sind. Dadurch kommt es zu einer schlaffen Lähmung der Muskulatur, die zu einer peripheren Asphyxie führt. Trotz seiner hohen Toxizität wird BoNT als Therapeutikum in der klassischen und kosmetischen Medizin genutzt. Da die Aktivität des biosynthetisch gewonnenen Toxins zwischen einzelnen Chargen trotz gleicher Proteinkonzentration stark variiert, muss die Aktivität jeder Präparation getestet werden. Dafür ist der Goldstandard der Mausletalitäts-Test, bei dem den Tieren unterschiedliche Dosen des Toxins injiziert werden und die Dosis ermittelt wird, bei der die Hälfte der Tiere verstirbt. Wegen der damit verbundenen ethischen Probleme wird nach Ersatzverfahren für diesen Tierversuch gesucht. Ein Ersatzverfahren muss folgende Bedingungen erfüllen: Es muss humanspezifisch sein; alle Teilschritte der BoNT-Wirkung messen; und eine hohe Empfindlichkeit haben, die in der gleichen Größenordnung wie der Maus-Letalitätstest liegt. Es wurde bereits ein Testsystem von unserer Gruppe entwickelt, bei dem humane SIMA-Neuroblastomzellen genetisch so modifiziert wurden, dass sie ein Reporterprotein (GLuc) exprimieren. Dieses wurde in neurosekretorische Vesikel verpackt und durch Depolarisation der Zellen gleichzeitig mit Neurotransmittern freigesetzt. Die Freisetzung wurde durch BoNT gehemmt. Obwohl dieser Assay großes Potential hat, wird seine Anwendbarkeit durch inhärente Nachteile eingeschränkt, da die GLuc-Sequenz zufällig in das Genom eingefügt wurde und die Tumorzellen nur eine begrenzte Sensitivität und Spezifität gegenüber BoNT haben. Diese Dissertation hatte zum Ziel, diese Defizite zu verbessern. Zu diesem Zweck wurden induzierte pluripotente Stammzellen (iPSCs) durch die CRISPR/Cas9-Methode genetisch modifiziert, um die GLuc-Sequenz in den genomischen Safe-Harbor-Lokus AAVS1 einzufügen, wodurch ausgeschlossen wird, dass durch unspezifische Integrationen ins Genom die Funktion anderer Gene gestört wird. Darüber hinaus wurde GLuc so modifiziert, dass sie mit Signalpeptiden versehen wurde, die sie zum Lumen sowohl von „Large Dense Core“ Vesikeln (LDCV), die Neuropeptide transportieren, als auch von synaptischen Vesikeln (SV), die Neurotransmitter verpacken, führen. Schließlich wurden die modifizierten iPSCs in Motorneurone (MNs) differenziert, der eigentlichen physiologischen Zielstruktur von BoNT, die mutmaßlich am empfindlichsten und spezifischsten auf BoNT reagieren und daher für den MoN-Light BoNT-Assay am geeignetsten sein sollten. iPSCs wurden transfiziert, um eines von drei Konstrukten zu integrieren. 1) ein Konstrukt, das GLuc in LDCVs leitet, 2) ein Konstrukt, das GLuc durch Fusion mit VAMP2 in SVs leitet und 3) ein "no tag" GLuc-Kontrollkonstrukt. Die LDCV-Konstrukte enthielten die Signalpeptide Proopiomelanocortin (hPOMC), Chromogranin-A (CgA) und Secretogranin II (SgII). Die VAMP2-GLuc-Fusion transportiert GLuc in SVs, so dass Neurotransmitter und GLuc gemeinsam und nicht, wie bei den anderen Konstrukten parallel, aus unterschiedlichen Vesikeln freigesetzt werden. Die "no tag GLuc"-Kontrolle wurde erstellt, um die Lokalisation von GLuc, die ohne Sortierungssignal in der Zelle exprimiert wird, mit der GLuc mit Sortierungssignalen für die unterschiedlichen Vesikel zu vergleichen. Die Klone wurden charakterisiert, um sicherzustellen, dass die GLuc-Sequenz ausschließlich in den AAVS1-Safe-Harbor-Lokus eingebaut wurde und dass die Signalpeptide GLuc zu den richtigen Vesikeln leiten. Die korrekte Insertion von GLuc wurde durch PCR mit Primern bestätigt, die den AAVS1-Lokus flankieren und in der Lage sind, gleichzeitig Wildtyp- und modifizierte Allele zu amplifizieren. Mögliche Integrationen außerhalb der Zielregion wurden mit der neu entwickelten dc-qcnPCR analysiert, wobei die Insert-DNA mittels qPCR gegen autosomal und geschlechts-chromosomal kodierte Gene quantifiziert wurde. Auch wenn die Mehrzahl der analysierten Klone Off-Target-Integrationen enthielt, konnte für jedes Konstrukt mindestens ein vollständig On-Target-homozygoter Klon identifiziert werden. Schließlich wurden die GLuc in ausgewählten Klonen durch Immunfluoreszenz lokalisiert. In iPSCs sollte die GLuc mit Sortierungssequenzen für Vesikel durch den Golgi-Apparat entlang des neurosekretorischen Weges wandern, während die „no tag“ GLuc diesem Weg nicht folgen sollte. Anfängliche Analysen schlossen die CgA-GLuc- und SgII-GLuc-Klone aufgrund der schlechten Qualität der Proteinvisualisierung aus. Die Kolokalisation von GLuc mit dem Golgi-Apparat wurde mittels konfokaler Mikroskopie analysiert und quantifiziert. GLuc war im hPOMC-GLuc-Klon sehr stark (r = 0,85±0,09), im VAMP2-GLuc-Klon mäßig (r = 0,65±0,01) und im no tag GLuc-Klon erwartungsgemäß nur schwach (r = 0,44±0,10) mit Golgi-Markern assoziiert. Nach der Differenzierung in MNs wurde die Koexpression von GLuc mit dem MN-assoziierten Protein Islet1 bestätigt. Konfokale Mikroskopie von MNs wurde angewandt, um die Kolokalisation von GLuc mit Proteinen zu quantifizieren, die mit LDCVs und SVs assoziiert sind, nämlich SgII mit der hPOMC-GLuc (r = 0,85±0,08) und Synaptophysin mit VAMP2-GLuc (r = 0,65±0,07). Ein signifikanter Anteil von GLuc wurde im richtigen Zelltyp und Kompartiment gefunden. Im MoN-Light BoNT-Assay wurde die GLuc jedoch nicht zuverlässig durch Depolarisation aus dem hPOMC-GLuc-Klon freigesetzt. Das für die SIMA-hPOMC-Gluc-Zellen entwickelte Depolarisationsprotokoll muss für hPOMC-GLuc weiter optimiert werden, um eine zuverlässige und spezifische Freisetzung von GLuc bei Exposition gegenüber einem Stimulus zu erreichen. Andererseits konnte die GLuc aus dem VAMP2-GLuc-Klon durch Stimulation mit dem muskarinischen und nikotinischen Agonisten Carbachol freigesetzt werden. Die Carbachol-abhängige Freisetzung der GLuc konnte mit dem Calcium-Chelator EGTA unterdrückt werden, was darauf hindeutet, dass die Freisetzung der GLuc wahrscheinlich von der Fusion synaptischer Vesikel am präsynaptischen Terminal abhängig ist. Die Anwendung des VAMP2-GLuc-Klons im MoN-Light BoNT-Assay muss noch verifiziert werden, aber die bisherigen Ergebnisse deuten darauf hin, dass dieser Klon für die Anwendung der BoNT-Toxizitätsbewertung geeignet sein könnte. KW - Induced pluripotent stem cells KW - Alternative to animal testing KW - Botulinum neurotoxin KW - Motor neurons KW - CRISPR/Cas9 KW - induzierte pluripotente Stammzellen KW - alternative zu Tierversuchen KW - Botulinumtoxine KW - Motorneurone KW - CRISPR/Cas9 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-516278 ER - TY - THES A1 - Schindler, Eva Marie T1 - "What we have done is just to put the people in form of a structure" T1 - "Wir haben die Leute einfach strukturiert" BT - The myth of participation and organisation of civil society BT - Der Mythos Partizipation und die Organisierung von Zivilgesellschaft N2 - Participation has become an orthodoxy in the field of development, an essential element of projects and programmes. This book analyses participation in development interventions as an institutionalised expectation – a rationalized myth – and examines how organisations on different levels of government process it. At least two different objectives of participation are appropriate and legitimate for international organisations in the field: the empowerment of local beneficiaries and the achievement of programme goals. Both integrate participatory forums into the organisational logic of development interventions. Local administrations react to the institutionalised expectation with means-ends decoupling, where participatory forums are implemented superficially but de facto remain marginalised in local administrative processes and activities. The book furthermore provides a thick description of the organisationality of participation in development interventions. Participatory forums are shown to be a form of partial organisation. They establish an order in the relationship between administrations and citizens through the introduction of rules and the creation of a defined membership. At the same time, this order is found to be fragile and subject to criticism and negotiation. N2 - Partizipation ist im Feld der Entwicklungszusammenarbeit eine Orthodoxie, ein unentbehrlicher Bestandteil von Projekten und Programmen. Die Arbeit versteht Partizipation in diesem Rahmen als Rationalitätsmythos und analysiert, wie diese institutionalisierte Erwartung von Verwaltungen auf verschiedenen Ebenen bearbeitet wird. Aus der Perspektive internationaler Organisationen existieren im Feld der Entwicklungszusammenarbeit mit dem Empowerment der lokalen Bevölkerung und der Erreichung von Programmzielen zwei angemessene und legitime Zielsetzungen von Partizipation. Beide ermöglichen eine Integration von Partizipation in die Logik von Projekten und Programmen. Lokale Verwaltungen begegnen der institutionalisierten Erwartung mit einer Zweck-Mittel-Entkopplung, bei der Partizipationsforen oberflächlich implementiert, aber in lokalen Verwaltungsprozessen und -aktivitäten de facto marginalisiert werden. Der Organisationsförmigkeit von Partizipation nähert sich die Arbeit durch dichte Beschreibung ihrer Organisationselemente. Die Partizipationsforen werden als eine Form partieller Organisation verstanden, die dem Verhältnis zwischen lokaler Verwaltung und Bürgern eine Ordnung aus Regeln und Mitgliedschaft auferlegt. Gleichzeitig zeigen die Forschungsergebnisse die Fragilität dieser Ordnung auf und legen dar, wie sie hinterfragt und verhandelt wird. KW - participation KW - development interventions KW - organisationality KW - organizational sociology KW - ethnography KW - interpretive research KW - Partizipation KW - Entwicklungszusammenarbeit KW - Organisationsförmigkeit KW - Organisationssoziologie KW - Ethnographie KW - interpretative Forschung Y1 - 2021 ER - TY - THES A1 - Schaarschmidt, Stephanie T1 - Evaluation and application of omics approaches to characterize molecular responses to abiotic stresses in plants T1 - Evaluierung und Anwendung von Omics-Methoden zur Charakterisierung von abiotischem Stress in Pflanzen auf molekularer Ebene N2 - Aufgrund des globalen Klimawandels ist die Gewährleistung der Ernährungssicherheit für eine wachsende Weltbevölkerung eine große Herausforderung. Insbesondere abiotische Stressoren wirken sich negativ auf Ernteerträge aus. Um klimaangepasste Nutzpflanzen zu entwickeln, ist ein umfassendes Verständnis molekularer Veränderungen in der Reaktion auf unterschiedlich starke Umweltbelastungen erforderlich. Hochdurchsatz- oder "Omics"-Technologien können dazu beitragen, Schlüsselregulatoren und Wege abiotischer Stressreaktionen zu identifizieren. Zusätzlich zur Gewinnung von Omics-Daten müssen auch Programme und statistische Analysen entwickelt und evaluiert werden, um zuverlässige biologische Ergebnisse zu erhalten. Ich habe diese Problemstellung in drei verschiedenen Studien behandelt und dafür zwei Omics-Technologien benutzt. In der ersten Studie wurden Transkript-Daten von den beiden polymorphen Arabidopsis thaliana Akzessionen Col-0 und N14 verwendet, um sieben Programme hinsichtlich ihrer Fähigkeit zur Positionierung und Quantifizierung von Illumina RNA Sequenz-Fragmenten („Reads“) zu evaluieren. Zwischen 92% und 99% der Reads konnten an die Referenzsequenz positioniert werden und die ermittelten Verteilungen waren hoch korreliert für alle Programme. Bei der Durchführung einer differentiellen Genexpressionsanalyse zwischen Pflanzen, die bei 20 °C oder 4 °C (Kälteakklimatisierung) exponiert wurden, ergab sich eine große paarweise Überlappung zwischen den Programmen. In der zweiten Studie habe ich die Transkriptome von zehn verschiedenen Oryza sativa (Reis) Kultivaren sequenziert. Dafür wurde die PacBio Isoform Sequenzierungstechnologie benutzt. Die de novo Referenztranskriptome hatten zwischen 38.900 bis 54.500 hoch qualitative Isoformen pro Sorte. Die Isoformen wurden kollabiert, um die Sequenzredundanz zu verringern und danach evaluiert z.B. hinsichtlich des Vollständigkeitsgrades (BUSCO), der Transkriptlänge und der Anzahl einzigartiger Transkripte pro Genloci. Für die hitze- und trockenheitstolerante Sorte N22 wurden ca. 650 einzigartige und neue Transkripte identifiziert, von denen 56 signifikant unterschiedlich in sich entwickelnden Samen unter kombiniertem Trocken- und Hitzestress exprimiert wurden. In der letzten Studie habe ich die Veränderungen in Metabolitprofilen von acht Reissorten gemessen und analysiert, die dem Stress hoher Nachttemperaturen (HNT) ausgesetzt waren und während der Trocken- und Regenzeit im Feld auf den Philippinen angebaut wurden. Es wurden jahreszeitlich bedingte Veränderungen im Metabolitspiegel sowie für agronomische Parameter identifiziert und mögliche Stoffwechselwege, die einen Ertragsrückgang unter HNT-Bedingungen verursachen, vorgeschlagen. Zusammenfassend konnte ich zeigen, dass der Vergleich der RNA-seq Programme den Pflanzenwissenschaftler*innen helfen kann, sich für das richtige Werkzeug für ihre Daten zu entscheiden. Die de novo Transkriptom-Rekonstruktion von Reissorten ohne Genomsequenz bietet einen gezielten, kosteneffizienten Ansatz zur Identifizierung neuer Gene, die durch verschiedene Stressbedingungen reguliert werden unabhängig vom Organismus. Mit dem Metabolomik-Ansatz für HNT-Stress in Reis habe ich stress- und jahreszeitenspezifische Metabolite identifiziert, die in Zukunft als molekulare Marker für die Verbesserung von Nutzpflanzen verwendet werden könnten. N2 - Due to global climate change providing food security for an increasing world population is a big challenge. Especially abiotic stressors have a strong negative effect on crop yield. To develop climate-adapted crops a comprehensive understanding of molecular alterations in the response of varying levels of environmental stresses is required. High throughput or ‘omics’ technologies can help to identify key-regulators and pathways of abiotic stress responses. In addition to obtain omics data also tools and statistical analyses need to be designed and evaluated to get reliable biological results. To address these issues, I have conducted three different studies covering two omics technologies. In the first study, I used transcriptomic data from the two polymorphic Arabidopsis thaliana accessions, namely Col-0 and N14, to evaluate seven computational tools for their ability to map and quantify Illumina single-end reads. Between 92% and 99% of the reads were mapped against the reference sequence. The raw count distributions obtained from the different tools were highly correlated. Performing a differential gene expression analysis between plants exposed to 20 °C or 4°C (cold acclimation), a large pairwise overlap between the mappers was obtained. In the second study, I obtained transcript data from ten different Oryza sativa (rice) cultivars by PacBio Isoform sequencing that can capture full-length transcripts. De novo reference transcriptomes were reconstructed resulting in 38,900 to 54,500 high-quality isoforms per cultivar. Isoforms were collapsed to reduce sequence redundancy and evaluated, e.g. for protein completeness level (BUSCO), transcript length, and number of unique transcripts per gene loci. For the heat and drought tolerant aus cultivar N22, I identified around 650 unique and novel transcripts of which 56 were significantly differentially expressed in developing seeds during combined drought and heat stress. In the last study, I measured and analyzed the changes in metabolite profiles of eight rice cultivars exposed to high night temperature (HNT) stress and grown during the dry and wet season on the field in the Philippines. Season-specific changes in metabolite levels, as well as for agronomic parameters, were identified and metabolic pathways causing a yield decline at HNT conditions suggested. In conclusion, the comparison of mapper performances can help plant scientists to decide on the right tool for their data. The de novo reconstruction of rice cultivars without a genome sequence provides a targeted, cost-efficient approach to identify novel genes responding to stress conditions for any organism. With the metabolomics approach for HNT stress in rice, I identified stress and season-specific metabolites which might be used as molecular markers for crop improvement in the future. KW - Arabidopsis thaliana KW - Oryza sativa KW - RNA-seq KW - PacBio IsoSeq KW - metabolomics KW - high night temperature KW - combined heat and drought stress KW - natural genetic variation KW - differential gene expression KW - Arabidopsis thaliana KW - Oryza sativa KW - PacBio IsoSeq KW - RNA-seq KW - kombinierter Hitze- und Trockenstress KW - erhöhte Nachttemperaturen KW - Differenzielle Genexpression KW - Metabolomik KW - natürliche genetische Variation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509630 ER - TY - THES A1 - Saussenthaler, Sophie T1 - The impact of DNA methylation on susceptibility to typ 2 diabetes in NZO mice N2 - The development of type 2 diabetes (T2D) is driven by genetic as well as life style factors. However, even genetically identical female NZO mice on a high-fat diet show a broad variation in T2D onset. The main objective of this study was to elucidate and investigate early epigenetic determinants of type 2 diabetes. Prior to other experiments, early fat content of the liver (<55.2 HU) in combination with blood glucose concentrations (>8.8 mM) were evaluated as best predictors of diabetes in NZO females. Then, DNA methylome and transcriptome were profiled to identify molecular pathophysiological changes in the liver before diabetes onset. The major finding of this thesis is that alterations in the hepatic DNA methylome precede diabetes onset. Of particular interest were 702 differentially methylated regions (DMRs), of which 506 DMRs had genic localization. These inter-individual DMRs were enriched by fivefold in the KEGG pathway type 2 diabetes mellitus, independent of the level of gene expression, demonstrating an epigenetic predisposition toward diabetes. Interestingly, among the list of hepatic DMRs, eleven DMRs were associated with known imprinted genes in the mouse genome. Thereby, six DMRs (Nap1l5, Mest, Plagl1, Gnas, Grb10 and Slc38a4) localized to imprinting control regions, including five iDMRs that exhibited hypermethylation in livers of diabetes-prone mice. This suggests that gain of DNA methylation in multiple loci of the paternal alleles has unfavourable metabolic consequences for the offspring. Further, the comparative liver transcriptome analysis demonstrated differences in expression levels of 1492 genes related to metabolically relevant pathways, such as citrate cycle and fatty acid metabolism. The integration of hepatic transcriptome and DNA methylome indicated that 449 differentially expressed genes were potentially regulated by DNA methylation, including genes implicated in insulin signaling. In addition, liver transcriptomic profiling of diabetes-resistant and diabetes-prone mice revealed a potential transcriptional dysregulation of 17 hepatokines, in particular Hamp. The hepatic expression of Hamp was decreased by 52% in diabetes-prone mice, on account of an increase in DNA methylation of promoter CpG-118. Hence, HAMP protein levels were lower in mice prone to develop diabetes, which correlated to higher liver triglyceride levels.. In sum, the identified DNA methylation changes appear to collectively favor the initiation and progression of diabetes in female NZO mice. In near future, epigenetic biomarkers are likely to contribute to improved diagnosis for T2D. KW - epigenetics KW - DNA methylation KW - RNAseq KW - fatty liver KW - type 2 diabetes KW - HAMP Y1 - 2021 ER - TY - THES A1 - Saretia, Shivam T1 - Modulating ultrathin films of semi-crystalline oligomers by Langmuir technique T1 - Modulation ultradünner Filme aus semikristalliner Oligomere durch Langmuir-Technik N2 - Polymeric films and coatings derived from semi-crystalline oligomers are of relevance for medical and pharmaceutical applications. In this context, the material surface is of particular importance, as it mediates the interaction with the biological system. Two dimensional (2D) systems and ultrathin films are used to model this interface. However, conventional techniques for their preparation, such as spin coating or dip coating, have disadvantages, since the morphology and chain packing of the generated films can only be controlled to a limited extent and adsorption on the substrate used affects the behavior of the films. Detaching and transferring the films prepared by such techniques requires additional sacrificial or supporting layers, and free-standing or self supporting domains are usually of very limited lateral extension. The aim of this thesis is to study and modulate crystallization, melting, degradation and chemical reactions in ultrathin films of oligo(ε-caprolactone)s (OCL)s with different end-groups under ambient conditions. Here, oligomeric ultrathin films are assembled at the air-water interface using the Langmuir technique. The water surface allows lateral movement and aggregation of the oligomers, which, unlike solid substrates, enables dynamic physical and chemical interaction of the molecules. Parameters like surface pressure (π), temperature and mean molecular area (MMA) allow controlled assembly and manipulation of oligomer molecules when using the Langmuir technique. The π-MMA isotherms, Brewster angle microscopy (BAM), and interfacial infrared spectroscopy assist in detecting morphological and physicochemical changes in the film. Ultrathin films can be easily transferred to the solid silicon surface via Langmuir Schaefer (LS) method (horizontal substrate dipping). Here, the films transferred on silicon are investigated using atomic force microscopy (AFM) and optical microscopy and are compared to the films on the water surface. The semi-crystalline morphology (lamellar thicknesses, crystal number densities, and lateral crystal dimensions) is tuned by the chemical structure of the OCL end-groups (hydroxy or methacrylate) and by the crystallization temperature (Tc; 12 or 21 °C) or MMAs. Compression to lower MMA of ~2 Å2, results in the formation of a highly crystalline film, which consists of tightly packed single crystals. Preparation of tightly packed single crystals on a cm2 scale is not possible by conventional techniques. Upon transfer to a solid surface, these films retain their crystalline morphology whereas amorphous films undergo dewetting. The melting temperature (Tm) of OCL single crystals at the water and the solid surface is found proportional to the inverse crystal thickness and is generally lower than the Tm of bulk PCL. The impact of OCL end-groups on melting behavior is most noticeable at the air-solid interface, where the methacrylate end-capped OCL (OCDME) melted at lower temperatures than the hydroxy end-capped OCL (OCDOL). When comparing the underlying substrate, melting/recrystallization of OCL ultrathin films is possible at lower temperatures at the air water interface than at the air-solid interface, where recrystallization is not visible. Recrystallization at the air-water interface usually occurs at a higher temperature than the initial Tc. Controlled degradation is crucial for the predictable performance of degradable polymeric biomaterials. Degradation of ultrathin films is carried out under acidic (pH ~ 1) or enzymatic catalysis (lipase from Pseudomonas cepcia) on the water surface or on a silicon surface as transferred films. A high crystallinity strongly reduces the hydrolytic but not the enzymatic degradation rate. As an influence of end-groups, the methacrylate end-capped linear oligomer, OCDME (~85 ± 2 % end-group functionalization) hydrolytically degrades faster than the hydroxy end capped linear oligomer, OCDOL (~95 ± 3 % end-group functionalization) at different temperatures. Differences in the acceleration of hydrolytic degradation of semi-crystalline films were observed upon complete melting, partial melting of the crystals, or by heating to temperatures close to Tm. Therefore, films of densely packed single crystals are suitable as barrier layers with thermally switchable degradation rates. Chemical modification in ultrathin films is an intricate process applicable to connect functionalized molecules, impart stability or create stimuli-sensitive cross-links. The reaction of end-groups is explored for transferred single crystals on a solid surface or amorphous monolayer at the air-water interface. Bulky methacrylate end-groups are expelled to the crystal surface during chain-folded crystallization. The density of end-groups is inversely proportional to molecular weight and hence very pronounced for oligomers. The methacrylate end-groups at the crystal surface, which are present at high concentration, can be used for further chemical functionalization. This is demonstrated by fluorescence microscopy after reaction with fluorescein dimethacrylate. The thermoswitching behavior (melting and recrystallization) of fluorescein functionalized single crystals shows the temperature-dependent distribution of the chemically linked fluorescein moieties, which are accumulated on the surfaces of crystals, and homogeneously dispersed when the crystals are molten. In amorphous monolayers at the air-water interface, reversible cross-linking of hydroxy-terminated oligo(ε-caprolactone) monolayers using dialdehyde (glyoxal) lead to the formation of 2D networks. Pronounced contraction in the area occurred for 2D OCL films in dependence of surface pressure and time indicating the reaction progress. Cross linking inhibited crystallization and retarded enzymatic degradation of the OCL film. Altering the subphase pH to ~2 led to cleavage of the covalent acetal cross-links. Besides as model systems, these reversibly cross-linked films are applicable for drug delivery systems or cell substrates modulating adhesion at biointerfaces. N2 - Ultradünne Filme/Beschichtungen aus semikristallinen oligomeren Makromolekülen sind für medizinische und pharmazeutische Anwendungen von Bedeutung. Dabei kommt der Materialoberfläche eine besondere Bedeutung zu, da diese die Interaktion mit dem umgebenden biologischen System ermöglicht. Zur Modellierung der Oberfläche werden 2D Systeme und ultradünne Filme verwendet. Herkömmlichen Techniken zu deren Präparation wie Spin-Coating oder Dip-Coating haben jedoch Nachteile, da sich die Morphologie und Kettenpackung der erzeugten Filme nur sehr bedingt kontrollieren lässt und sich die Adsorption auf dem verwendeten Substrat auf das Verhalten der Filme auswirkt. Zum Ablösen oder Übertragen der mit Hilfe dieser Techniken hergestellten Filme sind zusätzliche Opfer- oder Transferschichten erforderlich. Zudem können mit diesen Methoden nur freistehende oder selbsttragende Filme von sehr geringer lateraler Ausdehnung hergestellt werden. Das Ziel dieser Arbeit ist es, Kristallisation, Schmelzen, Abbau und chemische Reaktionen in ultradünnen Filmen von Oligo(ε-caprolacton)en (OCL)s mit unterschiedlichen Endgruppen unter Umgebungsbedingungen zu untersuchen und zu kontrollieren. Dazu wurden ultradünne Filme an der Luft-Wasser-Grenzfläche mit der Langmuir-Technik erzeugt. Die Wasseroberfläche erlaubt eine ungestörte Bewegung und Aggregation der Oligomere, was, im Gegensatz zu festen Substraten, dynamische physikalische und chemische Interaktion der Moleküle miteinander ermöglicht. Die Langmuir-Technik erlaubt mit Hilfe von Parametern wie Temperatur, Oberflächendruck (π) und Fläche pro Wiederholheinheit eine kontrollierte Manipulation der Oligomere. Kompressionsiothermen, Brewster-Winkelmikroskopie und Grenzflächen-Infrarotspektroskopie halfen beim Nachweis morphologischer und physikalisch-chemischer Veränderungen im Film. Die ultradünnen Filme wurden über das Langmuir-Schäfer-Verfahren (Kontakt mit Substrat in paralleler Orientierung zur Grenzfläche) auf Siliziumsubstrate übertragen. Danach wurden die übertragenen Filme mittels AFM und optischer Mikroskopie untersucht und mit Filmen an der Wasseroberfläche verglichen. Die teilkristalline Morphologie (Lamellendicke, Kristallzahldichte und laterale Dimension der Kristalle) von Polymerfilmen kann durch die chemische Struktur der OCL-Endgruppen (Hydroxy oder Methacrylat) und durch die Kristallisationstemperatur (Tc; 12 oder 21 °C) oder die Fläche pro Wiederholeinheit beeinflusst werden. Die Kompression auf eine sehr kleine Fläche pro Wiederholeinheit von ~2 Å2 führt zur Bildung eines hochkristallinen Films, der aus dicht gepackten Einkristallen besteht. Eine Synthese von derartigen Filmen im cm2 Maßstab ist mit herkömmlichen Techniken nicht möglich. Nach Übertragung auf eine feste Oberfläche behielten die teilkristallinen Filme ihre Morphologie, während amorphe Filme das für Polymere charakteristische Entnetzungsverhalten aufwiesen. Die Schmelztemperaturen (Tm) von OCL-Einkristallen an der Wasser- und Festkörperoberfläche waren proportional zur inversen Kristalldicke und im Allgemeinen niedriger als die Tm von PCL im Festkörper. Der Einfluss der OCL-Endgruppen auf das Schmelzverhalten war an der Luft-Feststoff-Grenzfläche am deutlichsten, wo OCL mit Methacrylat-Endgruppen bei niedrigeren Temperaturen schmolz als OCL mit Hydroxyl-Endgruppen. Das Schmelzen/Rekristallisieren ultradünner OCL-Filme an der Luft-Wasser-Grenzfläche erfolgte bei niedrigeren Temperaturen als an der Luft-Feststoff-Grenzfläche, wo keine Rekristallisation beobachtet wurde. Die Rekristallisation geschmolzener Filme an der Luft-Wasser-Grenzfläche erfolgte normalerweise bei einer höheren Temperatur als der anfänglichen Tc. Der kontrollierte Abbau ist entscheidend für die Performance von abbaubaren Polymeren als Biomaterialien. Der Abbau ultradünner Filme erfolgte hydrolytisch entweder unter saurer (pH ~ 1) oder enzymatischer Katalyse (Lipase aus Pseudomonas cepcia) auf der Wasseroberfläche oder als übertragene Filme auf Siliziumoberflächen. Eine hohe Kristallinität reduzierte die hydrolytische Abbaurate stark, aber die enzymatische dagegen wenig. Das lineare Oligomer mit Methacrylat Endgruppen (~85 ± 2 % Endgruppenfunktionalisierung) wurde bei unterschiedlichen Temperaturen schneller hydrolytisch abgebaut als das lineare Oligomer mit Hydroxyl Endgruppen (~95 ± 3 % Endgruppenfunktionalisierung). Unterschiede in der Beschleunigung des hydrolytischen Abbaus von teilkristallinen Filmen wurden beim vollständigen Schmelzen, teilweisen Schmelzen der Kristalle, oder durch erwärmen in die Nähe von Tm beobachtet. Daher eignen sich Filme aus dicht gepackten Einkristallen als Barriereschichten mit thermisch schaltbarer Degradationsrate. Chemische Reaktionen in ultradünnen Filmen können angewandt werden, um funktionalisierte Moleküle zu verbinden und ihnen Stabilität zu verleihen oder Stimuli-sensitive Vernetzungen zu erzeugen. Hier wurden die Reaktionen der Endgruppen transferierter Einkristalle auf festen Oberflächen und amorphen Monoschichten an der Luft-Wasser-Grenzfläche untersucht. Da die Kettenenden defekte in den Einkristallen darstellen würden, werden sie bei der Kristallisation an der Kristalloberfläche angeordnet. Die Dichte der Endgruppen ist umgekehrt proportional zum Molekulargewicht und daher bei Oligomeren besonders hoch. Hier wurden mit Methacrylatendgruppen versehene OCL Moleküle verwendet. Diese Gruppen können chemisch weiter umgesetzt und für eine Funktionalisierung der Kirstalle verwendet werden. Dies wurde fluoreszenz-mikroskopisch nach der Reaktion mit Fluoresceindimethacrylat nachgewiesen. Das thermische Schalten (Schmelzen und Umkristallisieren) von Fluorescein-funktionalisierten Einkristallen erzeugt eine temperaturabhängige Verteilung der chemisch verknüpften Fluorescein-Einheiten, die sich auf den Oberflächen der Kristalle ansammeln und beim Schmelzen der Kristalle homogen dispergiert werden. In amorphen Monoschichten an der Luft-Wasser-Grenzfläche führt die reversible Vernetzung von Hydroxy-terminierten Oligo(ε-caprolacton) Monoschichten unter Verwendung eines Dialdehyds (Glyoxal) zur Bildung von zweidimensionalen (2D) Netzwerken. Bei 2D-OCL-Filmen trat eine ausgeprägte Kontraktion der Fläche in Abhängigkeit von Oberflächendruck und Zeit auf, was den Fortschritt der Reaktion anzeigte. Die Vernetzung hemmte die Kristallisation und verzögerte den enzymatischen Abbau des OCL-Films. Eine Änderung des pH-Wertes der Subphase auf ~2 führte zur Spaltung der kovalenten Acetalvernetzungen. Außer als Modellsysteme wäre der Einsatz dieser reversibel vernetzten Filme für den Einsatz als Drug-Delivery-Systeme oder als Oberflächen zur Steuerung der Adhäsion von Zellen möglich. KW - polymer KW - poly(ε-caprolactone) KW - 2D material KW - ultrathin film KW - single crystals KW - crystallization KW - melting KW - degradation KW - hydrolysis KW - reactions KW - substrate KW - end-groups KW - hydroxy KW - methacrylate KW - Polymer KW - Poly(ε-caprolacton) KW - 2D-Material KW - Beschichtungen KW - Ultradünne Filme KW - Einkristalle KW - Kristallisation KW - Schmelz KW - Abbau KW - Hydrolyse KW - Reaktion KW - Substrat KW - Hydroxyl KW - Methacrylat Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-542108 ER - TY - THES A1 - Sanay, Berran T1 - Monomers and polymers based on renewable resources for new photopolymer coating N2 - The present work focuses on minimising the usage of toxic chemicals by integration of the biobased monomers, derived from fatty acid esters, to photopolymerization processes, which are known to be nature friendly. Internal double bond present in the oleic acid was converted to more reactive (meth)acrylate or epoxy group. Biobased starting materials, functionalized by different pendant groups, were used for photopolymerizing formulations to design of new polymeric structures by using ultraviolet light emitting diode (UV-LED) (395 nm) via free radical polymerization or cationic polymerization. New (meth)acrylates (2,3 and 4) consisting of two isomers, methyl 9-((meth)acryloyloxy)-10-hydroxyoctadecanoate / methyl 9-hydroxy-10-((meth)acryloyloxy)octadecanoate (2 and 3) and methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4), modified from oleic acid mix, and ionic liquid monomers (1a and 1b) bearing long alkyl chain were polymerized photochemically. New (meth)acrylates are based on vegetable oil, and ionic liquids (ILs) have nonvolatile behaviour. Therefore, both monomer types have green approach. Photoinitiated polymerization of new (meth)acrylates and ionic liquids was investigated in the presence of ethyl (2,4,6-trimethylbenzoyl) phenylphosphinate (Irgacure® TPO−L) or di(4-methoxybenzoyl)diethylgermane (Ivocerin®) as photoinitiator (PI). Additionally, the results were discussed in comparison with those obtained from commercial 1,6-hexanediol di(meth)acrylate (5 and 6) for deeper investigation of biobased monomer’s potential to substitute petroleum derived materials with renewable resources for possible coating applications. Kinetic study shows that methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4) and ionic liquids (1a and 1b) have quantitative conversion after irradiation process which is important for practical applications. On the other hand, heat generation occurs in a longer time during the polymerization of biobased systems or ILs. The poly(meth)acrylates modified from (meth)acrylated fatty acid methyl ester monomers generally show a low glass transition temperature because of the presence of long aliphatic chain in the polymer structure. However, poly(meth)acrylates containing aromatic group have higher glass transition temperature. Therefore, new 4-(4-methacryloyloxyphenyl)-butan-2-one (7) was synthesized which can be a promising candidate for the green techniques, such as light induced polymerization. Photokinetic investigation of the new monomer, 4-(4-methacryloyloxyphenyl)-butan-2-one (7), was discussed using Irgacure® TPO−L or Ivocerin® as photoinitiator. The reactivity of that monomer was compared to commercial 2-phenoxyethyl methacrylate (8) and phenyl methacrylate (9) basis of the differences on monomer structures. The photopolymer of 4-(4-methacryloyloxyphenyl)-butan-2-one (7) might be an interesting candidate for the coating application with the properties of quantitative conversion and high molecular weight. It also shows higher glass transition temperature. In addition to the linear systems based on renewable materials, new crosslinked polymers were also designed in this thesis. Therefore, isomer mixture consisting of ethane-1,2-diyl bis(9-methacryloyloxy-10-hydroxy octadecanoate), ethane-1,2-diyl 9-hydroxy-10-methacryloyloxy-9’-methacryloyloxy10’-hydroxy octadecanoate and ethane-1,2-diyl bis(9-hydroxy-10-methacryloyloxy octadecanoate) (10) was synthesized by derivation of the oleic acid which has not been previously described in the literature. Crosslinked material based on this biobased monomer was produced by photoinitiated free radical polymerization using Irgacure® TPO−L or Ivocerin® as photoinitiator. Furthermore, material properties were diversified by copolymerization of 10 with 4-(4-methacryloyloxyphenyl)-butan-2-one (7) or methyl 9-(1H-imidazol-1-yl)-10-(methacryloyloxy)octadecanoate / methyl 9-(methacryloyloxy)-10-(1H-imidazol-1-yl)octadecanoate (4). In addition to this, influence of comonomer with different chemical structure on the network system was investigated by analysis of thermo-mechanical properties, crosslink density and molecular weight between two crosslink junctions. An increase in the glass transition temperature caused by copolymerization of biobased monomer 10 with the excess amount of 4-(4-methacryloyloxyphenyl)-butan-2-one (7) was confirmed by both techniques, differential scanning calorimetry (DSC) and dynamic mechanical analysis (DMA). On the other hand, crosslink density decreased as a result of copolymerization reactions due to the reduction in the mean functionality of the system. Furthermore, surface characterization has been tested by contact angle measurements using solvents with different polarity. This work also contributes to the limited data reported about cationic photopolymerization of the epoxidized vegetable oils in the literature in contrast to the widely investigation of thermal curing of the biorenewable epoxy monomers. In addition to the 9,10-epoxystearic acid methyl ester (11), a new monomer of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) has been synthesized from oleic acid. These two biobased epoxies have been polymerized via cationic photoinitiated polymerization in the presence of bis(t-butyl)-iodonium-tetrakis(perfluoro-t-butoxy)aluminate ([Al(O-t-C4F9)4]-) and isopropylthioxanthone (ITX) as photinitiating system. Polymerization kinetic of 9,10-epoxystearic acid methyl ester (11) and bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) was investigated and compared with the kinetic of commercial monomers being 3,4-epoxycyclohexylmethyl-3’,4’-epoxycyclohexane carboxylate (13), 1,4-butanediol diglycidyl ether (14), and diglycidylether of bisphenol-A (15). Both biobased epoxies (11 and 12) showed higher conversion than cycloaliphatic epoxy (13), and lower reactivity than 1,4-butanediol diglycidyl ether (14). Additional network systems were designed by copolymerization of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) and diglycidylether of bisphenol-A (15) in different molar ratios (1:1; 1:5; 1:9). It addresses that, final conversion is dependent on polymerization rate as well as physical processes such as vitrification during polymerization. Moreover, low glass transition temperature of homopolymer derived from bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) was successfully increased by copolymerization with diglycidylether bisphenol-A (15). On the other hand, the surface produced from bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) shows hydrophobic character. Higher concentration of biobased diepoxy (12) in the copolymerizing mixture decreases surface free energy. Network systems were also investigated according to the rubber elasticity theory. Crosslinked polymer derived from the mixture of bis-(9,10-epoxystearic acid) 1,2-ethanediyl ester (12) and diglycidylether of bisphenol-A (15) (molar ratio=1:5) exhibits almost ideal polymer network. N2 - Die vorliegende Arbeit konzentriert sich auf die Minimierung des Einsatzes von giftigen Chemikalien durch die Integration von biobasierten Monomeren, die aus Fettsäureestern gewonnen werden, in Photopolymerisationsprozessen, die als naturfreundlich bekannt sind. Die in der Ölsäure vorhandene interne Doppelbindung wurde in eine reaktivere (Meth)acrylat- oder Epoxidgruppe umgewandelt. Biobasierte Ausgangsmaterialien, funktionalisiert durch verschiedene Seitengruppen, wurden für photopolymerisierende Formulierungen verwendet, um neue polymere Strukturen unter Verwendung einer ultravioletten lichtemittierenden Diode (UV-LED) (395 nm) über freie radikalische Polymerisation oder kationische Polymerisation zu entwickeln. Neue (Meth)acrylate, Methyl-9-((meth)acryloyloxy)-10-hydroxyoctadecanoat / Methyl-9-hydroxy-10-((meth)acryloyloxy)octadecanoat (2 und 3) und Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)octadecanoat / Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)octadecanoat (4), modifiziert aus einem Ölsäuregemisch und ionischen flüssigen Monomeren mit eine langen Alkylkette wurden photochemisch polymerisiert. Die neuen (Meth)acrylate basieren auf Pflanzenöl. Die ionischen Flüssigkeiten (ILs) haben ein nichtflüchtiges Verhalten. Daher haben beide Monomertypen einen grünen Ansatz. Photoinitiierte Polymerisationen von neuen (Meth)acrylaten und ionischen Flüssigkeiten wurden in Gegenwart von Ethyl-(2,4,6-trimethylbenzoyl)phenylphosphinat (Irgacure® TPO-L) oder Di(4-methoxybenzoyl)diethylgerman (Ivocerin®) als Photoinitiator untersucht. Zusätzlich wurden die Ergebnisse im Vergleich mit denen von kommerziellem 1,6-hexandiol di(meth)acrylat (5 und 6) diskutiert, um das Potenzial von biobasierten Monomeren zur Substitution von erdölbasierten Materialien durch erneuerbare Ressourcen für mögliche Beschichtungsanwendungen genauer zu untersuchen. Die kinetische Studie zeigt, dass Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)octadecanoat / Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)octadecanoat (4) und die ionischen Flüssigkeiten (1a und 1b) eine quantitative Umsetzung nach dem Bestrahlungsprozess aufweisen, was für praktische Anwendungen wichtig ist. Andererseits erfolgt die Wärmeentwicklung bei der Polymerisation von biobasierten Systemen oder ILs in einem längeren Zeitraum. Die aus Fettsäuren hergestelltem modifizierten Poly(meth)acrylate zeigen im Allgemeinen eine niedrige Glasübergangstemperatur aufgrund der Anwesenheit einer langen aliphatischen Kette in der Polymerstruktur. Poly(meth)acrylate, die eine aromatische Gruppe enthalten, haben jedoch eine höhere Glasübergangstemperatur. Daher wurde das neue 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) synthetisiert, das ein vielversprechender Kandidat für die grünen Techniken, wie zum Beispiel die lichtinduzierte Polymerisation, sein kann. Die photokinetische Untersuchung des neuen Monomers, 4-(4-Methacryloyloxyphenyl)-butan-2-on (7), wurde unter Verwendung von Irgacure® TPO-L oder Ivocerin® als Photoinitiator diskutiert. Die Reaktivität dieses Monomers wurde mit kommerziellem 2-Phenoxyethylmethacrylat (8) und Phenylmethacrylat (9) aufgrund der Unterschiede in der Monomerstruktur verglichen. Das Photopolymer von 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) könnte ein interessanter Kandidat und eine Alternative zu den herkömmlichen Monomeren für die Beschichtungsanwendung sein aufgrund der quantitativen Umsetzung des Monomeren und des hohen Molekulargewichts sowie einer höheren Glasübergangstemperatur des resultieren den Photopolymeren. Neben den linearen Systemen auf Basis nachwachsender Rohstoffe wurden in dieser Arbeit auch neue vernetzte Polymere entwickelt. So wurde ein Ethan-1,2-diyl bis(9-methacryloyloxy-10-hydroxy octadecanoate), Ethane-1,2-diyl 9-hydroxy-10-methacryloyloxy-9’-methacryloyloxy10’-hydroxy octadecanoat und Ethane-1,2-diyl bis(9-hydroxy-10-methacryloyloxy octadecanoat) (10) Monomer mit zwei funktionellen Gruppen durch weitere Derivatisierung der Ölsäure synthetisiert, das bisher in der Literatur nicht beschrieben wurde. Ein vernetztes Material Auf Basis dieses biobasierten Monomers wurde durch photoinitiierte, radikalische Polymerisation unter Verwendung von Irgacure® TPO-L oder Ivocerin® als Photoinitiator hergestellt. Darüber hinaus wurden die Materialeigenschaften durch Copolymerisation des 10 mit 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) oder Methyl-9-(1H-imidazol-1yl)-10-(methacryloyloxy)-octadecanoat /Methyl-9-(methacryloyloxy)-10-(1H-imidazol-1yl)-octadecanoat (4) variiert. Darüber hinaus wurde der Einfluss von Comonomeren mit unterschiedlicher chemischer Struktur auf das Netzwerksystem durch Analyse der mechanischen Eigenschaften, der Glasübergangstemperaturen, der Vernetzungsdichte und des Molekulargewichts zwischen zwei Vernetzungsstellen untersucht. Eine Erhöhung der Glasübergangstemperatur durch die Copolymerisation von 10 mit einem Überschuss von 4-(4-Methacryloyloxyphenyl)-butan-2-on (7) wurde durch DSC und DMA bestätigt. Andererseits verringerte sich die Vernetzungsdichte aufgrund der Verringerung der mittleren Funktionalität des Systems. Darüber hinaus wurde die Oberflächencharakterisierung durch Kontaktwinkelmessungen unter Verwendung von Lösungsmitteln mit unterschiedlicher Polarität getestet. Diese Arbeit trägt auch zur Erweiterung der in der Literatur über die kationische Photopolymerisation der epoxidierten Pflanzenöle berichteten Erkenntnisse bei, die, im Gegensatz zu den weit verbreiteten Untersuchungen zur thermischen Härtung der biobasierten Epoxidmonomere nur begrenzt verfügbar sind. Zusätzlich zum 9,10-Epoxystearinsäuremethylester (11) wurde ein neues Monomer Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) auf der Basis von Ölsäure synthetisiert. Diese beiden biobasierten Epoxide wurden durch kationische photoinitiierte Polymerisation in Gegenwart von Bis(t-butyl)-iodonium-tetrakis(perfluor-t-butoxy)aluminat ([Al(O-t-C4F9)4]-) und Isopropylthioxanthon (ITX) als photostimulierendes System polymerisiert. Die Polymerisationskinetik von 9,10-Epoxystearinsäuremethylester (11) und Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) wurde untersucht und mit der Kinetik der kommerziellen Monomere 3,4-Epoxycyclohexylmethyl-3',4'-epoxycyclohexancarboxylat (13), 1,4-Butandioldiglycidylether (14) und Diglycidylether von Bisphenol-A (15) verglichen. Beide biobasierten Epoxide (11 und 12) zeigten eine höhere Umwandlung als das cycloaliphatische Epoxid (13) und eine geringere als 1,4-Butandioldiglycidylether (14). Weitere Netzwerksysteme wurden durch Copolymerisation von Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) und Diglycidylether von Bisphenol-A (15) in verschiedenen molaren Verhältnissen (1:1; 1:5; 1:9) hergestellt. Es wird angesprochen, dass der endgültige Umsatz sowohl von der Polymerisationsgeschwindigkeit als auch von physikalischen Prozessen wie der Verglasung während der Polymerisation abhängig ist. Darüber hinaus wurde die niedrige Glasübergangstemperatur des Homopolymers aus Bis-(9,10-epoxystearinsäure)-1,2-ethandiylester (12) durch Copolymerisation mit Diglycidylether von Bisphenol-A (15) erfolgreich erhöht. Andererseits zeigt die aus Bis-(9,10-epoxystearinsäure) 1,2-ethan-diylester (12) hergestellte Oberfläche einen hydrophoben Charakter. Eine höhere Konzentration des biobasierten difunktionellen Epoxids (12) in der Copolymerisationsmischung verringert die freie Oberflächenenergie. Die Netzwerksysteme wurden auch unter Einsatz der Gummielastizitätstheorie untersucht. Das vernetzte Polymer, das aus der Mischung von Bis-(9,10-epoxystearinsäure) 1,2-ethan-diylester (12) und Diglycidylether von Bisphenol-A (15) (Molverhältnis=1:5) hergestellt wurde, zeigt ein nahezu ideales Polymernetzwerk. KW - Biobased Polymers KW - Renewable Resources KW - Coating Applications KW - Photopolymers KW - Photopolymerization KW - Biobasierte Polymere KW - Beschichtungsanwendung KW - Photoinitiierte Polymerisationen KW - Photopolymer KW - Erneuerbare Ressourcen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-518684 ER - TY - THES A1 - Salih, Chehab T1 - International Aviation Law for Aerodrome Planning N2 - The objective of this book is to provide ICAO, States, competent authorities and aerodrome operators with a comprehensive overview of legal challenges related to international aerodrome planning. Answers to derived legal questions as well as recommendations thereafter shall help to enhance regulatory systems and to establish a safer aerodrome environment worldwide. Compliant aerodrome planning has an immense impact on the safety of passengers, personnel, aircraft – and of course the airport. Achieving a high safety standard is crucial, as many incidents and accidents in aviation happen at or in the vicinity of airports. Currently, more than 40% of the ICAO Member States do not fully comply with international legal requirements for aerodrome planning. Representatives of ICAO and States, as well as aerodrome and authority personnel, will understand why compliance with the different legal facets of aerodrome planning is challenging and learn how shortcomings can be solved.​ KW - Airport planning KW - Airport operation KW - International law and Developing States KW - Amendment of the Chicago Convention KW - Performance-based Regulation KW - Enforcement of international law KW - Integration of international law into domestic law KW - Legal interpretation methods Y1 - 2021 SN - 978-3-030-56841-2 SN - 978-3-030-56842-9 U6 - https://doi.org/10.1007/978-3-030-56842-9 PB - Springer CY - Cham ER - TY - THES A1 - Sahlmann, Kristina T1 - Network management with semantic descriptions for interoperability on the Internet of Things T1 - Netzwerk Management mit semantischen Beschreibungen für Interoperabilität im Internet der Dinge N2 - The Internet of Things (IoT) is a system of physical objects that can be discovered, monitored, controlled, or interacted with by electronic devices that communicate over various networking interfaces and eventually can be connected to the wider Internet. [Guinard and Trifa, 2016]. IoT devices are equipped with sensors and/or actuators and may be constrained in terms of memory, computational power, network bandwidth, and energy. Interoperability can help to manage such heterogeneous devices. Interoperability is the ability of different types of systems to work together smoothly. There are four levels of interoperability: physical, network and transport, integration, and data. The data interoperability is subdivided into syntactic and semantic data. Semantic data describes the meaning of data and the common understanding of vocabulary e.g. with the help of dictionaries, taxonomies, ontologies. To achieve interoperability, semantic interoperability is necessary. Many organizations and companies are working on standards and solutions for interoperability in the IoT. However, the commercial solutions produce a vendor lock-in. They focus on centralized approaches such as cloud-based solutions. This thesis proposes a decentralized approach namely Edge Computing. Edge Computing is based on the concepts of mesh networking and distributed processing. This approach has an advantage that information collection and processing are placed closer to the sources of this information. The goals are to reduce traffic, latency, and to be robust against a lossy or failed Internet connection. We see management of IoT devices from the network configuration management perspective. This thesis proposes a framework for network configuration management of heterogeneous, constrained IoT devices by using semantic descriptions for interoperability. The MYNO framework is an acronym for MQTT, YANG, NETCONF and Ontology. The NETCONF protocol is the IETF standard for network configuration management. The MQTT protocol is the de-facto standard in the IoT. We picked up the idea of the NETCONF-MQTT bridge, originally proposed by Scheffler and Bonneß[2017], and extended it with semantic device descriptions. These device descriptions provide a description of the device capabilities. They are based on the oneM2M Base ontology and formalized by the Semantic Web Standards. The novel approach is using a ontology-based device description directly on a constrained device in combination with the MQTT protocol. The bridge was extended in order to query such descriptions. Using a semantic annotation, we achieved that the device capabilities are self-descriptive, machine readable and re-usable. The concept of a Virtual Device was introduced and implemented, based on semantic device descriptions. A Virtual Device aggregates the capabilities of all devices at the edge network and contributes therefore to the scalability. Thus, it is possible to control all devices via a single RPC call. The model-driven NETCONF Web-Client is generated automatically from this YANG model which is generated by the bridge based on the semantic device description. The Web-Client provides a user-friendly interface, offers RPC calls and displays sensor values. We demonstrate the feasibility of this approach in different use cases: sensor and actuator scenarios, as well as event configuration and triggering. The semantic approach results in increased memory overhead. Therefore, we evaluated CBOR and RDF HDT for optimization of ontology-based device descriptions for use on constrained devices. The evaluation shows that CBOR is not suitable for long strings and RDF HDT is a promising candidate but is still a W3C Member Submission. Finally, we used an optimized JSON-LD format for the syntax of the device descriptions. One of the security tasks of network management is the distribution of firmware updates. The MYNO Update Protocol (MUP) was developed and evaluated on constrained devices CC2538dk and 6LoWPAN. The MYNO update process is focused on freshness and authenticity of the firmware. The evaluation shows that it is challenging but feasible to bring the firmware updates to constrained devices using MQTT. As a new requirement for the next MQTT version, we propose to add a slicing feature for the better support of constrained devices. The MQTT broker should slice data to the maximum packet size specified by the device and transfer it slice-by-slice. For the performance and scalability evaluation of MYNO framework, we setup the High Precision Agriculture demonstrator with 10 ESP-32 NodeMCU boards at the edge of the network. The ESP-32 NodeMCU boards, connected by WLAN, were equipped with six sensors and two actuators. The performance evaluation shows that the processing of ontology-based descriptions on a Raspberry Pi 3B with the RDFLib is a challenging task regarding computational power. Nevertheless, it is feasible because it must be done only once per device during the discovery process. The MYNO framework was tested with heterogeneous devices such as CC2538dk from Texas Instruments, Arduino Yún Rev 3, and ESP-32 NodeMCU, and IP-based networks such as 6LoWPAN and WLAN. Summarizing, with the MYNO framework we could show that the semantic approach on constrained devices is feasible in the IoT. N2 - Ein Netzwerk von physischen Objekten (Dingen), die von elektronischen Geräten entdeckt, überwacht und gesteuert werden können, die über verschiedene Netzwerkschnittstellen kommunizieren und schließlich mit dem Internet verbunden werden können, bezeichnet man als Internet of Things (Internet der Dinge, IoT) [Guinard und Trifa, 2016]. Die elektronischen Geräte sind mit Sensoren und Aktuatoren ausgestattet und verfügen oft nur über begrenzte Rechenressourcen wie Leistung, Speicher, Netzwerkbandbreite und Energie. Interoperabilität ist die Fähigkeit verschiedener Systemtypen reibungslos zusammenzuarbeiten und kann helfen, heterogenen Geräte im IoT zu verwalten. Die Semantische Interoperabilität stellt sicher, dass die Bedeutung von Daten und das gemeinsame Verständnis des Vokabulars zwischen den Systemen vorhanden ist. Viele Organisationen und Unternehmen arbeiten an Standards und Lösungen für die Interoperabilität im IoT, bieten aber nur Insellösungen an. Die kommerziellen Lösungen führen jedoch zu einer Lieferantenbindung. Sie konzentrieren sich auf zentralisierte Ansätze wie Cloud-basierte Lösungen. Wir verfolgen einen dezentralen Ansatz, nämlich Edge Computing, und sehen die Verwaltung von IoT-Geräten aus der Perspektive des Netzwerkkonfigurationsmanagements. In dieser Arbeit wird ein Framework für das Netzwerkkonfigurationsmanagement heterogener IoT-Geräte mit begrenzten Rechenressourcen unter Verwendung semantischer Beschreibungen für die Interoperabilität vorgestellt. Das MYNO-Framework steht für die verwendeten Technologien MQTT, YANG, NETCONF und Ontologie. Das NETCONF-Protokoll ist der IETF-Standard für das Netzwerkkonfigurations-management und verwendet YANG als Datenmodellierungssprache. Das MQTT-Protokoll ist der De-facto-Standard im IoT. Die semantischen Beschreibungen enthalten eine detaillierte Liste der Gerätefunktionen. Sie basieren auf der oneM2M Base-Ontologie und verwenden Semantic Web Standards. Das Konzept eines Virtuellen Geräts wurde basierend auf den semantischen Gerätebeschreibungen eingeführt und implementiert. Der modellgesteuerte NETCONF Web-Client wird automatisch auf Basis von YANG generiert, das auf Basis der semantischen Gerätebeschreibung erstellt wird. Wir demonstrieren die Machbarkeit des MYNO Ansatzes in verschiedenen Anwendungsfällen: Sensor- und Aktuator-Szenarien sowie Ereigniskonfiguration und -auslösung. Eine der Sicherheitsaufgaben des Netzwerkmanagements ist die Verteilung von Firmware-Updates. Das MYNO Update Protocol (MUP) wurde auf den Geräten CC2538dk und 6LoWPAN Netzwerk entwickelt und evaluiert. Für die Bewertung der Leistung und Skalierbarkeit des MYNO-Frameworks wurde ein Precision Agriculture Demonstrator mit 10 ESP-32 NodeMCU Geräten eingerichtet. Zusammenfassend konnten wir mit dem MYNO-Framework zeigen, dass der semantische Ansatz für Geräte mit limitierten Rechenressourcen im Internet of Things machbar ist. KW - Internet of Things KW - Network Management KW - MQTT KW - Ontology KW - Interoperability KW - Netzwerk Management KW - Interoperabilität KW - Sensornetzwerke KW - Ontologie KW - 6LoWPAN KW - Semantic Web KW - IoT KW - NETCONF KW - oneM2M Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-529846 ER - TY - THES A1 - Runge, Alexandra T1 - Multispectral time series analyses with Landsat and Sentinel-2 to assess permafrost disturbances in North Siberia T1 - Multispektrale Zeitreihenanalyse mit Landsat und Sentinel-2 zur Einschätzung von Permafroststörungen in Nordsibirien N2 - Permafrost is warming globally, which leads to widespread permafrost thaw and impacts the surrounding landscapes, ecosystems and infrastructure. Especially ice-rich permafrost is vulnerable to rapid and abrupt thaw, resulting from the melting of excess ground ice. Local remote sensing studies have detected increasing rates of abrupt permafrost disturbances, such as thermokarst lake change and drainage, coastal erosion and RTS in the last two decades. All of which indicate an acceleration of permafrost degradation. In particular retrogressive thaw slumps (RTS) are abrupt disturbances that expand by up to several meters each year and impact local and regional topographic gradients, hydrological pathways, sediment and nutrient mobilisation into aquatic systems, and increased permafrost carbon mobilisation. The feedback between abrupt permafrost thaw and the carbon cycle is a crucial component of the Earth system and a relevant driver in global climate models. However, an assessment of RTS at high temporal resolution to determine the dynamic thaw processes and identify the main thaw drivers as well as a continental-scale assessment across diverse permafrost regions are still lacking. In northern high latitudes optical remote sensing is restricted by environmental factors and frequent cloud coverage. This decreases image availability and thus constrains the application of automated algorithms for time series disturbance detection for large-scale abrupt permafrost disturbances at high temporal resolution. Since models and observations suggest that abrupt permafrost disturbances will intensify, we require disturbance products at continental-scale, which allow for meaningful integration into Earth system models. The main aim of this dissertation therefore, is to enhance our knowledge on the spatial extent and temporal dynamics of abrupt permafrost disturbances in a large-scale assessment. To address this, three research objectives were posed: 1. Assess the comparability and compatibility of Landsat-8 and Sentinel-2 data for a combined use in multi-spectral analysis in northern high latitudes. 2. Adapt an image mosaicking method for Landsat and Sentinel-2 data to create combined mosaics of high quality as input for high temporal disturbance assessments in northern high latitudes. 3. Automatically map retrogressive thaw slumps on the landscape-scale and assess their high temporal thaw dynamics. We assessed the comparability of Landsat-8 and Sentinel-2 imagery by spectral comparison of corresponding bands. Based on overlapping same-day acquisitions of Landsat-8 and Sentinel-2 we derived spectral bandpass adjustment coefficients for North Siberia to adjust Sentinel-2 reflectance values to resemble Landsat-8 and harmonise the two data sets. Furthermore, we adapted a workflow to combine Landsat and Sentinel-2 images to create homogeneous and gap-free annual mosaics. We determined the number of images and cloud-free pixels, the spatial coverage and the quality of the mosaic with spectral comparisons to demonstrate the relevance of the Landsat+Sentinel-2 mosaics. Lastly, we adapted the automatic disturbance detection algorithm LandTrendr for large-scale RTS identification and mapping at high temporal resolution. For this, we modified the temporal segmentation algorithm for annual gradual and abrupt disturbance detection to incorporate the annual Landsat+Sentinel-2 mosaics. We further parametrised the temporal segmentation and spectral filtering for optimised RTS detection, conducted further spatial masking and filtering, and implemented a binary object classification algorithm with machine-learning to derive RTS from the LandTrendr disturbance output. We applied the algorithm to North Siberia, covering an area of 8.1 x 106 km2. The spectral band comparison between same-day Landsat-8 and Sentinel-2 acquisitions already showed an overall good fit between both satellite products. However, applying the acquired spectral bandpass coefficients for adjustment of Sentinel-2 reflectance values, resulted in a near-perfect alignment between the same-day images. It can therefore be concluded that the spectral band adjustment succeeds in adjusting Sentinel-2 spectral values to those of Landsat-8 in North Siberia. The number of available cloud-free images increased steadily between 1999 and 2019, especially intensified after 2016 with the addition of Sentinel-2 images. This signifies a highly improved input database for the mosaicking workflow. In a comparison of annual mosaics, the Landsat+Sentinel-2 mosaics always fully covered the study areas, while Landsat-only mosaics contained data-gaps for the same years. The spectral comparison of input images and Landsat+Sentinel-2 mosaic showed a high correlation between the input images and the mosaic bands, testifying mosaicking results of high quality. Our results show that especially the mosaic coverage for northern, coastal areas was substantially improved with the Landsat+Sentinel-2 mosaics. By combining data from both Landsat and Sentinel-2 sensors we reliably created input mosaics at high spatial resolution for comprehensive time series analyses. This research presents the first automatically derived assessment of RTS distribution and temporal dynamics at continental-scale. In total, we identified 50,895 RTS, primarily located in ice-rich permafrost regions, as well as a steady increase in RTS-affected areas between 2001 and 2019 across North Siberia. From 2016 onward the RTS area increased more abruptly, indicating heightened thaw slump dynamics in this period. Overall, the RTS-affected area increased by 331 % within the observation period. Contrary to this, five focus sites show spatiotemporal variability in their annual RTS dynamics, alternating between periods of increased and decreased RTS development. This suggests a close relationship to varying thaw drivers. The majority of identified RTS was active from 2000 onward and only a small proportion initiated during the assessment period. This highlights that the increase in RTS-affected area was mainly caused by enlarging existing RTS and not by newly initiated RTS. Overall, this research showed the advantages of combining Landsat and Sentinel-2 data in northern high latitudes and the improvements in spatial and temporal coverage of combined annual mosaics. The mosaics build the database for automated disturbance detection to reliably map RTS and other abrupt permafrost disturbances at continental-scale. The assessment at high temporal resolution further testifies the increasing impact of abrupt permafrost disturbances and likewise emphasises the spatio-temporal variability of thaw dynamics across landscapes. Obtaining such consistent disturbance products is necessary to parametrise regional and global climate change models, for enabling an improved representation of the permafrost thaw feedback. N2 - Permafrostböden erwärmen sich global, was zu weit verbreitetem Auftauen des Permafrosts führt und die angrenzenden Landschaften, Ökosysteme und Infrastruktur beeinflusst. Insbesondere eisreicher Permafrostboden ist anfällig für schnelles und abruptes Auftauen. Lokale Fernerkundungsstudien haben zunehmende Raten von abrupten Permafroststörungen festgestellt, was auf eine beschleunigte Degradation des Permafrostbodens hinweist. Vor allem Taurutschungen sind sehr abrupte Störungen, die sich jedes Jahr um bis zu mehreren Metern vergrößern und damit ihre Umgebung stark verändern. Unter anderem erhöht sich die Freisetzung von Kohlenstoff. Es ist daher wichtig zu bestimmen, wie viel und wie schnell Permafrostböden auftauen, um dieses auch in globale Klimamodelle einfließen lassen zu können. Primär, fehlen Untersuchungen mit vielen regelmäßigen Datenpunkten, um die zeitliche Entwicklung der Auftauprozesse zu bestimmen und die wichtigsten Taugründe zu ermitteln. Ferner fehlt die Untersuchung von abrupten Permafrosttauen für eine große Region. Die Fernerkundungsdatengrundlage für nördliche Breitengrade ist sehr gering, wodurch viele Untersuchungsalgorithmen nicht angewendet werden können. Das Hauptziel ist besser zu verstehen wo abrupte Permafroststörungen auftreten und wie schnell sie sich entwickeln und dies für eine große Region zu bestimmen. Folgende Forschungsziele wurden bearbeitet: 1. Die Bilddaten von Landsat und Sentinel-2 für eine gemeinsame Analysen in nördlichen hohen Breitengraden nutzen, 2. Eine Bildmosaik-Methode anpassen, so dass Landsat und Sentinel-2 Daten gemeinsam genutzt werden können, und 3. Automatisiert Identifizierung von Taurutschungen und die Untersuchung ihrer zeitlichen Entwicklung. Dafür haben wir Landsat-8 und Sentinel-2 Bilder verglichen und sie Werte bestimmt, um sie miteinander anzupassen. Des Weiteren haben wir Mosaike aus Landsat und Sentinel-2 Daten erstellt. Als letzten haben wir einen Algorithmus zur Erkennung von Permafroststörungen angepasst. Das Studiengebiet war Nordsibirien. Die Anpassungwerte von Landsat-8 und Sentinel-2 sorgen für eine gute Angleichung der Bilder. Die gemeinsamen Landsat und Sentinel-2 Mosaike decken das Untersuchungsgebiet gut ab und haben keine Datenlücken. Dies ist besonders für nördliche Küstenregionen eine Verbesserung. Mit den Landsat und Sentinel-2 Mosaiken kann der Algorithmus zur Erkennung von abrupten Permafroststörungen auf eine große Region angewendet werden. Wir haben 50.895 Taurutschungen hauptsächlich in eisreichen Permafrostregionen identifiziert. Die Fläche mit Taurutschungen hat sich von 2001 bis 2019 erhöht in Nordsibieren. Die Taurutschen waren ab 2016 besonders aktiv. Insgesamt ist die Fläche um 331 % angestiegen. Verschiedene lokale Untersuchungsgebiete zeigten, dass sich die Taurutschungen in manchen Jahren mehr und in anderen weniger entwickeln, was mit unterschiedlichen Taugründen zusammenhängt. Die meisten Taurutschungen gab es ab 2000 und nur wenig Neue entwickelten sich später. Dies zeigt, dass hauptsächlich bestehende Taurutschungen größer werden und zum Permafrosttauen beitragen. Insgesamt zeigte diese Untersuchung die Vorteile Landsat und Sentinel-2 Daten gemeinsam in nördlichen Breitengraden zu nutzen. Die gemeinsamen Mosaike helfen den Algorithmus zur Erkennung von Permafroststörungen anzuwenden. Unsere Ergebnisse zeigen die Taurutschungen in Nordsibirien und wie viel sie in den letzten 20 Jahren größer geworden sind. Die Taurutschungen entwickeln sich in verschiedenen Regionen zeitlich unterschiedlich. Dieses Ergebnis hilft Permafroststörungen besser in Klimamodelle einzubinden. KW - Remote Sensing KW - permafrost landscapes KW - time series KW - permafrost thaw disturbances KW - northern high latitudes KW - Fernerkundung KW - nördliche hohe Breitengrade KW - Permafrostlandschaften KW - Permafrost-Taustörungen KW - Zeitserie KW - Erdbeobachtung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-522062 ER - TY - THES A1 - Ruiz-Monroy, Ricardo T1 - Organic geochemical characterization of the Yacoraite Formation (NW-Argentina)-paleoenvironment and petroleum potential T1 - Organische geochemische Charakterisierung der Yacoraite-Formation (NW-Argentinien) – Paläoumgebung und Erdölpotenzial T1 - Caracterización geoquímica orgánica de la Formación Yacoraite (NO-Argentina) -paleoambiente y potencial petrolero N2 - This dissertation was carried out as part of the international and interdisciplinary graduate school StRATEGy. This group has set itself the goal of investigating geological processes that take place on different temporal and spatial scales and have shaped the southern central Andes. This study focuses on claystones and carbonates of the Yacoraite Fm. that were deposited between Maastricht and Dan in the Cretaceous Salta Rift Basin. The former rift basin is located in northwest Argentina and is divided into the sub-basins Tres Cruces, Metán-Alemanía and Lomas de Olmedo. The overall motivation for this study was to gain new knowledge about the evolution of marine and lacustrine conditions during the Yacoraite Fm. Deposit in the Tres Cruces and Metán-Alemanía sub-basins. Other important aspects that were examined within the scope of this dissertation are the conversion of organic matter from Yacoraite Fm. into oil and its genetic relationship to selected oils produced and natural oil spills. The results of my study show that the Yacoraite Fm. began to be deposited under marine conditions and that a lacustrine environment developed by the end of the deposition in the Tres Cruces and Metán-Alemanía Basins. In general, the kerogen of Yacoraite Fm. consists mainly of the kerogen types II, III and II / III mixtures. Kerogen type III is mainly found in samples from the Yacoraite Fm., whose TOC values are low. Due to the adsorption of hydrocarbons on the mineral surfaces (mineral matrix effect), the content of type III kerogen with Rock-Eval pyrolysis in these samples could be overestimated. Investigations using organic petrography show that the organic particles of Yacoraite Fm. mainly consist of alginites and some vitrinite-like particles. The pyrolysis GC of the rock samples showed that the Yacoraite Fm. generates low-sulfur oils with a predominantly low-wax, paraffinic-naphthenic-aromatic composition and paraffinic wax-rich oils. Small proportions of paraffinic, low-wax oils and a gas condensate-generating facies are also predicted. Here, too, mineral matrix effects were taken into account, which can lead to a quantitative overestimation of the gas-forming character. The results of an additional 1D tank modeling carried out show that the beginning (10% TR) of the oil genesis took place between ≈10 Ma and ≈4 Ma. Most of the oil (from ≈50% to 65%) was generated prior to the development of structural traps formed during the Plio-Pleistocene Diaguita deformation phase. Only ≈10% of the total oil generated was formed and potentially trapped after the formation of structural traps. Important factors in the risk assessment of this petroleum system, which can determine the small amounts of generated and migrated oil, are the generally low TOC contents and the variable thickness of the Yacoraite Fm. Additional risks are associated with a low density of information about potentially existing reservoir structures and the quality of the overburden. N2 - Diese Dissertation wurde im Rahmen des internationalen und interdisziplinären Graduiertenkollegs StRATEGy durchgeführt. Diese Gruppe hat sich zum Ziel gesetzt, geologische Prozesse zu untersuchen, die auf unterschiedlichen zeitlichen und räumlichen Skalen ablaufen und die südlichen Zentralanden geprägt haben. Diese Studie konzentriert sich auf die Tonsteine und Karbonate der Yacoraite Fm., die zwischen Maastricht und Dan im kreidezeitlichen Salta-Grabenbecken abgelagert wurden. Das ehemalige Riftbecken liegt im Nordwesten Argentiniens und gliedert sich in die Teilbecken Tres Cruces, Metán-Alemanía und Lomas de Olmedo. Die übergreifende Motivation für diese Studie war es, neue Erkenntnisse über die Entwicklung der marinen und lakustrinen Bedingungen während der Ablagerung der Yacoraite Fm. in den Tres Cruces und Metán-Alemanía Sub-Becken zu gewinnen. Weitere wichtige Aspekte, die im Rahmen dieser Dissertation untersucht wurden, sind die Umwandlung von organischer Materie der Yacoraite Fm. in Öl sowie deren genetische Beziehung zu ausgewählten produzierten Ölen und natürlichen Ölaustritten. Die Ergebnisse meiner Studie zeigen, dass die Ablagerung der Yacoraite Fm. unter marinen Bedingungen begann und sich bis zum Ende der Ablagerung in den Tres Cruces- und Metán-Alemanía-Becken ein lakustrines Milieu entwickelte. Im Allgemeinen besteht das Kerogen der Yacoraite Fm. überwiegend aus den Kerogentypen II, III und II/III-Mischungen. Der Kerogentyp III findet sich vor allem in Proben aus der Yacoraite Fm., deren TOC-Werte niedrig sind. Aufgrund der Adsorption von Kohlenwasserstoffen an den Mineraloberflächen (Mineralmatrixeffekt) könnte der Gehalt an Typ-III-Kerogen mit der Rock-Eval-Pyrolyse in diesen Proben überschätzt werden. Untersuchungen mittels organischer Petrographie zeigen, dass die organischen Partikel der Yacoraite Fm. hauptsächlich aus Alginiten und einigen Vitrinit-artigen Partikeln bestehen. Die Pyrolyse-GC der Gesteinsproben zeigte, dass die Yacoraite Fm. schwefelarme Öle mit einer überwiegend Wachs-armen paraffinisch-naphthenisch-aromatischen Zusammensetzung und paraffinische Wachs-reiche Öle generiert. Geringe Anteile paraffinischer, Wachs-armer Öle und einer Gaskondensat-generierenden Fazies werden ebenfalls vorausgesagt. Auch hier wurden Mineralmatrixeffekte berücksichtigt, die zu einer quantitativen Überschätzung des gasbildenden Charakters führen können. Die Ergebnisse einer zusätzlich durchgeführten 1D-Beckenmodellierung zeigen, dass der Beginn (10 %TR) der Ölgenese zwischen ≈10 Ma und ≈4 Ma stattfand. Der größte Teil des Öls (von ≈50 % bis 65 %) wurde vor der Entwicklung struktureller Fallen gebildet, die während der plio-pleistozänen Diaguita Deformatiosphase gebildet wurden. Nur ≈10 % des insgesamt generierten Öls wurde nach der Entstehung struktureller Fallen gebildet und potentiell darin gefangen. Wichtige Faktoren in der Risikobewertung dieses Erdölsystems, welche die geringen Mengen an generiertem und migriertem Öl bestimmen können, stellen die allgemein niedrigen TOC-Gehalte und die variable Mächtigkeit der Yacoraite Fm. dar. Weitere Risiken sind mit einer niedrigen Informationsdichte über potentiell vorhandene Reservoirstrukturen und die Qualität der Deckgesteine verbunden. N2 - This dissertation was carried out within the framework of the international and interdisciplinary research training group StRATEGy whose aim is to study geological processes occurring at different times and spatial scales that have shaped the southern Central Andes. The study focuses on the shales and carbonates of the Yacoraite Fm. deposited in the Salta rift basin (NW Argentina) during the Maastrichtian to Danian, and is divided into the Tres Cruces, Metán-Alemanía, and Lomas de Olmedo sub-basins. The Yacoraite Fm. is considered the potential source rock for most oil fields in NW Argentina. The overall motivation for this research was to provide new insights into the occurrence of marine and lacustrine settings during the deposition of the Yacoraite Fm. in the Tres Cruces and Metán-Alemanía sub-basins. Other important aspects assessed in this research are the likely transformation of organic matter of the Yacoraite Fm. into oil as well as its genetic relation to selected produced oils and natural oil seep samples. Fifty-two outcropping samples from the Yacoraite Fm. collected in the Tres Cruces and Metán-Alemanía sub-basins, seven oil seep samples from the Tres Cruces and Lomas de Olmedo sub-basins and eight produced oils from the latter sub-basin were evaluated. Characterization of the depositional environment and kerogen types of the Yacoraite Fm. was performed using various geochemical analyses encompassing pyrolysis, chromatography, spectrometry and petrography. Minerals were analyzed by X-ray diffraction. The elemental composition of rock samples was determined by X-ray fluorescence and more precise quantification was done by ICP-MS analysis. The study of the hydrocarbon potential of the Yacoraite Fm. was addressed by the following analyses of its organic matter and modeling procedures: • The assessment of the amount, quality, and thermal maturity of the organic matter; • Measurement of the rate of thermal cracking (bulk kinetics) of the organic matter into oil; • The extrapolation of high heating rate kinetics to low heating rates at geological conditions using the first-order kinetic approach provided by the Arrhenius equation; • The prediction of the composition (compositional kinetics) and the phase behavior of its first-formed petroleum; • The specific activation energy distribution of the bulk kinetics of representative samples collected in the Tres Cruces sub-basin were used in the 1D-basin modeling, enabling a comparison between the timing of oil generation and the timing of the formation of structural traps. Subsequently, the implications of these variables on the accumulation of oil in the Tres Cruces sub-basin were assessed. The characterization of produced oils and oil seep samples was carried out by chromatographic and spectrometric techniques. Genetic relationships (source rock-oil correlation) of the oil seep samples in the Tres Cruces sub-basin was studied by comparing their compositional affinities to rock extracts from outcropping samples of the Yacoraite Fm. in the same sub-basin. Since no rock samples were available from the Lomas de Olmedo sub-basin, the source-rock correlation for the oil seep samples and the produced oils assume that the Yacoraite Fm. in this sub-basin has similar organofacies as in the Tres Cruces and Metán-Alemanía sub-basins. The results of this research indicate that the deposition of the Yacoraite Fm. began in marine environments. Lacustrine settings developed during the middle part and predominated towards the end of the deposition in the Tres Cruces and Metán-Alemanía sub-basins. In general, the kerogen of the Yacoraite Fm. is predominantly composed of Type II, II/III, and Type III kerogens. The latter is largely found in samples from the Yacoraite Fm. whose TOC values were low. In these samples, the content of Type III kerogen could be overestimated with Rock-Eval pyrolysis due to hydrocarbon adsorption on mineral surfaces (mineral-matrix effect). Organic petrography showed that the organic particles of the Yacoraite Fm. correspond mainly to alginites and some vitrinite-like particles. Pyrolysis-GC of whole-rock samples indicated that the Yacoraite Fm. generates low sulphur oils with a mainly Paraffinic-Naphthenic-Aromatic Low Wax composition and Paraffinic High Wax oils. Minor contributions of Paraffinic Low Wax Oil and Gas condensate-generating facies are also predicted. Mineral-matrix effects can lead to an overestimation of the gas-prone character and were considered. Extrapolation of bulk kinetics experiments to a geological heating rate of 3 K/Myr reveals that the oil generation from the Yacoraite Fm. in the Tres Cruces sub-basin occurs in a range of approximately 60 °C. The onset (10%TR) of oil generation occurs at geological temperatures from 108 °C to 132 °C. The complete transformation of the organic matter into oil (90%TR) is reached at temperatures between 142 °C and 169 °C. The gas exsolution from the oil occurs at pressures below 200 bar as predicted from PVT-compatible compositional kinetics with subsequent separation of two phases and the increase in liquid viscosity at depths <1.8 km. The analysis of outcrop samples of the Yacoraite Fm. collected in the Metán-Alemanía and Tres Cruces sub-basins document that their maturity is at least at the onset of oil generation. The formation is more mature in the deeper buried centers of the basins being in the main oil window, as indicated by the presence of genetically related oil seep samples and supported by predictions of thermal modeling. The results of 1D-basin modeling indicate that the onset (10%TR) of oil generation occurred between ≈10 Ma and ≈4 Ma. Most of the oil (from ≈50% to 65%) was generated before the structural traps associated with the Diaguita tectonic phase (c.a. 2.5 Ma) formed. The amount of oil generated after the formation of structural traps and potentially accumulated in them accounts for ≈10%. The petroleum system risk assessment identifies the generally low TOC content and variable thickness of Yacoraite Fm. as important factors that may determine the low volumes of generated and migrated oil. Additional risks are associated with the lack of information regarding the existence of reservoirs and the quality of the seals. Oil-source rock correlations based on depositional-, age- and maturity-related biomarkers show that the oil samples of the Caimancito oil field and from Well-10 of the Martinez del Tineo oil field were generated from the Yacoraite Fm., while partial correlations are determined between this formation and the oil samples from Well-18 and Chirete x100-1. The oil samples from well-11 and Río Pescado show no correlation and were sourced from a different rock. According to the project partners, it is most likely the Devonian Los Monos Fm. The oil-oil correlations reflect the source oil-source rock correlations mentioned above and were supported by the ratios of light hydrocarbons using the classical approach of Halpern (1995). The Río Pescado and well-11 oil samples lack most of the biomarkers, which distinguishes them from the rest of the oils. The sample from well-11 was found to be a mixture of oils of varying thermal maturity. The least mature oil in this mixture contains stigmastane and correlates with the oil sample from the Caimancito-21 well. The most mature sample is characterized by higher concentrations of diamantanes and adamantanes. An anomalously high uranium content was measured in one sample at the base of the Yacoraite Fm. in the west sector of the Metán-Alemanía sub-basin. High radiation doses appear to be the cause for the very low hydrocarbon generation during Rock-Eval pyrolysis. The sample is composed mainly of alginites with minor amounts of terrigenous material and plots in the field of Type IV kerogen in a pseudo-Van Krevelen diagram. Since radiation induces aromatization in the kerogen structure, it potentially mimics higher thermal maturity as determined by vitrinite reflectance. The higher Tmax is caused by the high adsorption of hydrocarbons on the highly-aromatized kerogen and the contribution of hydrocarbons adsorption on mineral surfaces. The lack of biomarkers in the solvent-extracted portion (bitumen) of the same highly-irradiated sample prevents the characterization of kerogen type and the depositional environment. However, unlike Py-GC results for kerogen, GC-FID analysis on extracted bitumen still shows n-alkanes, pristane, and phytane. This may not only indicate a different response of bitumen and kerogen to radiation, at least in the magnitude, but also offers an alternative for kerogen typing in samples where the kerogen is highly affected by radiation which makes its classification unreliable. In this example, the ratios of pristane/n-C17 and phytane/n-C18 in bitumen indicate that a Type II/III kerogen composes this sample, which is consistent with the presence of alginite as the main organic component and some vitrinite-like particles. In conclusion, molecular geochemical analyses have documented the presence of gammacerane in extracts of the Yacoraite Fm. which indicate the development of hypersaline conditions as well as the changing depositional environment of the Yacoraite Fm. from marine towards lacustrine settings. The variability of organofacies of this formation in the Tres Cruces and Metán-Alemanía sub-basins is a consequence of the changes in the depositional environment. Future work may provide insights into the evolution of paleosalinity during Yacoraite Fm. deposition by using specific proxies e.g., methyltrimethyltridecylchromans. Future research may include characterizing the NSO fraction of these oils as well as elucidating possible fractionation during expulsion, migration, and accumulation. A regional study is needed to clarify the uncertainties associated with the existence of the reservoir, the quality of the seals and to improve the data-input for thermal modeling for the Tres Cruces sub-basin. Studies that aim to increase the database of the concentration of methyldiamantanes (3- + 4-) and methyladamantanes (1- + 2-) in produced oils will provide a threshold for the assessment of oil cracking. Further research is aimed at helping to understand how the distribution of uranium can affect the different responses of bitumen and kerogen to radiation. KW - Yacoraite Formation KW - Argentina KW - Caimancito oil field KW - Salta basin KW - Cretaceous basin KW - Martinez del Tineo KW - Chirete KW - Ramos X-11 KW - Río Pescado KW - radiolysis KW - kerogen kinetics KW - PhaseKinetics KW - radiation and chemical properties KW - oil seeps KW - organofacies KW - organofacies KW - mineral matrix KW - age-related biomarkers KW - maturity-related biomarkers KW - biodegradation KW - Diaguita KW - Argentinien KW - Caimancito-Ölfeld KW - Chirete KW - Kreidebecken KW - Diaguita KW - Martinez del Tineo KW - Phasenkinetik KW - Ramos X-11 KW - Río Pescado KW - Salta-Becken KW - Yacoraite Formation KW - biologischer Abbau KW - Kerogenkinetik KW - Reifegradbezogene Biomarker KW - mineralische Matrix KW - natürlichen Ölaustritten KW - Organofazies KW - radiolyse KW - Strahlung und chemische Eigenschaften KW - Argentina KW - Campo petrolero Caimancito KW - Chirete KW - Cuenca Cretácica KW - Diaguita KW - Martinez del Tineo KW - Cinética de fases KW - Formación Yacoraite KW - biomarcadores diagnósticos de edad KW - biodegradación KW - Cinética del querógeno KW - biomarcadores diagnósticos de madurez KW - matríz mineral KW - manaderos de petróleo KW - radiólisis KW - radiación y propiedades químicas Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-518697 ER -