TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Zimmermann, Marc T1 - Multifunctional patchy silica particles via microcontact printing T1 - Multifunktionale Patchy Silika Partikel mithilfe des Mikrokontaktdruckverfahrens N2 - This research addressed the question, if it is possible to simplify current microcontact printing systems for the production of anisotropic building blocks or patchy particles, by using common chemicals while still maintaining reproducibility, high precision and tunability of the Janus-balance Chapter 2 introduced the microcontact printing materials as well as their defined electrostatic interactions. In particular polydimethylsiloxane stamps, silica particles and high molecular weight polyethylenimine ink were mainly used in this research. All of these components are commercially available in large quantities and affordable, which gives this approach a huge potential for further up-scaling developments. The benefits of polymeric over molecular inks was described including its flexible influence on the printing pressure. With this alteration of the µCP concept, a new method of solvent assisted particle release mechanism enabled the switch from two-dimensional surface modification to three-dimensional structure printing on colloidal silica particles, without changing printing parameters or starting materials. This effect opened the way to use the internal volume of the achieved patches for incorporation of nano additives, introducing additional physical properties into the patches without alteration of the surface chemistry. The success of this system and its achievable range was further investigated in chapter 3 by giving detailed information about patch geometry parameters including diameter, thickness and yield. For this purpose, silica particles in a size range between 1µm and 5µm were printed with different ink concentrations to change the Janus-balance of these single patched particles. A necessary intermediate step, consisting of air-plasma treatment, for the production of trivalent particles using "sandwich" printing was discovered and comparative studies concerning the patch geometry of single and double patched particles were conducted. Additionally, the usage of structured PDMS stamps during printing was described. These results demonstrate the excellent precision of this approach and opens the pathway for even greater accuracy as further parameters can be finely tuned and investigated, e.g. humidity and temperature during stamp loading. The performance of these synthesized anisotropic colloids was further investigated in chapter 4, starting with behaviour studies in alcoholic and aqueous dispersions. Here, the stability of the applied patches was studied in a broad pH range, discovering a release mechanism by disabling the electrostatic bonding between particle surface and polyelectrolyte ink. Furthermore, the absence of strong attractive forces between divalent particles in water was investigated using XPS measurements. These results lead to the conclusion that the transfer of small PDMS oligomers onto the patch surface is shielding charges, preventing colloidal agglomeration. However, based on this knowledge, further patch modifications for particle self-assembly were introduced including physical approaches using magnetic nano additives, chemical patch functionalization with avidin-biotin or the light responsive cyclodextrin-arylazopyrazoles coupling as well as particle surface modification for the synthesis of highly amphiphilic colloids. The successful coupling, its efficiency, stability and behaviour in different solvents were evaluated to find a suitable coupling system for future assembly experiments. Based on these results the possibility of more sophisticated structures by colloidal self-assembly is given. Certain findings needed further analysis to understand their underlying mechanics, including the relatively broad patch diameter distribution and the decreasing patch thickness for smaller silica particles. Mathematical assumptions for both effects are introduced in chapter 5. First, they demonstrate the connection between the naturally occurring particle size distribution and the broadening of the patch diameter, indicating an even higher precision for this µCP approach. Second, explaining the increase of contact area between particle and ink surface due to higher particle packaging, leading to a decrease in printing pressure for smaller particles. These calculations ultimately lead to the development of a new mechanical microcontact printing approach, using centrifugal forces for high pressure control and excellent parallel alignment of printing substrates. First results with this device and the comparison with previously conducted by-hand experiments conclude this research. It furthermore displays the advantages of such a device for future applications using a mechanical printing approach, especially for accessing even smaller nano particles with great precision and excellent yield. In conclusion, this work demonstrates the successful adjustment of the µCP approach using commercially available and affordable silica particles and polyelectrolytes for high flexibility, reduced costs and higher scale-up value. Furthermore, its was possible to increase the modification potential by introducing three-dimensional patches for additional functionalization volume. While keeping a high colloidal stability, different coupling systems showed the self-assembly capabilities of this toolbox for anisotropic particles. N2 - Diese Forschungsarbeit befasste sich mit der Frage, ob es möglich ist, bekannte Mikrokontaktdruckverfahren, zur Herstellung von anisotropen Bausteinen (Patchy Partikel), weiter zu vereinfachen. Dabei sollten gängige Chemikalien verwendet werden ohne einen Verlust in Reproduzierbarkeit, hoher Präzision und Feineinstellung der Janus-Balance zu erleiden. In Kapitel 2 wurden die verwendeten Mikrokontaktdruckmaterialien sowie deren elektrostatische Wechselwirkungen vorgestellt. Insbesondere handelte es sich dabei um Polydimethylsiloxan Stempel, Silikapartikel und hoch molekulare Polyethylenimin Tinte. All diese Produkte sind kommerziel in großen und bezahlbaren Mengen erhältlich. Nicht nur die Vorteile von polymeren Tinten im Gegensatz zu molekularen Tinten wurde beschrieben, sondern auch die hohe Flexibilität dieses Verfahrens bezüglich der verwendeten Druckkraft. Mit dieser Anpassung des Mikrokontaktdrucks, wurde eine neue Methode der Lösungsmittel unterstützten Partikelablösung ermöglicht, mit deren Hilfe ein einfaches Schalten zwischen zwei dimensionaler Oberflächenfunktionalisierung und drei dimensionalem Strukturdrucks möglich war, ohne Druckparameter oder Startchemikalien zu verändern. Dadurch konnte neu erschaffenes internes Volumen verwendet werden um Nanoadditive einzuführen und so zusätzliche physikalische Eigenschaften zu integrieren, ohne die Oberflächenchemie der Patches verändert wurde. Der Erfolg dieses Systems und seine erreichbaren Grenzen wurde gründlichst in Kapitel 3 erforscht, indem detaillierte Geometrieparameter der Patches einschließlich Durchmesser, Dicke und Ausbeute, erworben wurden. Hierfür wurden Silikapartikel in einem Größenbereich von 1µm bis 5µm mit unterschiedlichen Tintenkonzentrationen bedruckt, um Veränderungen erforschen zu können. Ein notwendiger Luftplasma Ätzschritt für die Produktion von trivalenten Partikeln, mit Hilfe des sogenannten ,,Sandwich‘‘-Drucks, wurde erläutert und vergleichende Untersuchen von einfach und zweifach modifizierten Bausteinen wurden durchgeführt. Zusätzlich dazu, wurde die Verwendung von strukturierten Stempel beschrieben. Die Ergebnisse verdeutlichen die exzellente Genauigkeit dieser Methode und öffnet den Weg um eine hoch höhere Präzision zu erreichen da weitere Parametere genau eingestellt und untersucht werden können, z.B. Luftfeuchtigkeit und Temperature während der Stempelbeladung. Die Performance der herstellten anisotropen Partikel wurde in Kapitel 4 mit Verhaltensstudien in alkoholischen und wässrigen Dispersionen getestet. Dabei wurde die Stabilität der Oberflächenfunktionalisierungen in einem breiten pH Bereich untersucht. Dadurch wurde ein Ablösungsmechanismus bei sehr hohen bzw. niedrigen pH-Werten entdeckt, der zur Deaktivierung elektrostatischer Wechselwirkungen zwischen Partikeloberfläche und Polyelektrolyte Tinte führte. Desweitern wurden die Abwesenheit starker Wechselwirkung der divalenten Partikel in Wasser mit Hilfe von XPS untersucht. Das Resultat zeigte, dass der Transfer kleinster PDMS Oligomere auf die Patchoberfläche zu einer Ladungsabschirmung führte. Dadurch konnte Agglomeration verhindert werden. Aufgrund dieser Ergebnisse wurden weitere Modifikationen für Partikelassemblierung durchgeführt. Hierfür wurde die Einführung von magnetischen Nanoadditiven, die Funktionalisierung mit Avidin-Biotin sowie dem Lichtschaltbaren Cyclodextrin-Arylazopyrazol Komplexen und die Partikeloberflächenfunktionalisierung zur Herstellung amphiphiler Teilchen untersucht. Die Effizienz der Kopplung, deren Stabilität sowie das Verhalten in unterschiedlichen Lösungsmittel wurde beschrieben. Basierend auf diesen Ergebnissen können noch anspruchsvollere Strukturen durch kolloidale Selbstassemblierung erzeugt werden. Einige Ergebnisse dieser Arbeit benötigten zusätzlicher Analyse um die zugrundeliegenden Mechaniken verstehen zu können. Dazu gehörte die relative hohe Streuung des Durchmessers für unterschiedliche Partikelsysteme, sowie das Ausdünnen des Patches mit kleineren Silikapartikeln. Mathematische Modelle in Kapitel 5 beschreiben beide Effekte. Dadurch war es möglich einen Zusammenhang zwischen der natürlichen Partikelgrößenverteilung sowie der Verbreitung des Patchdurchmessers festzustellen. Des Weiteren konnte eine Verkleinerung der Druckkraft durch eine Erhöhung der Packungsdichte für kleine Partikel beschrieben werden, wodurch eine Erklärung der Ausdünnung möglich war. All diese Berechnung führten schlussendlich zur Entwicklung eines neuen mechanischen Mikrokontaktdruckverfahrens, welches mit Hilfe von Zentrifugalkräften eine hohe Druckkontrolle und eine exzellente parallele Ausrichtung zwischen den Substraten ermöglicht. Erste Ergebnisse, sowie deren Vergleich mit bisher erhaltenen Resultaten schließen diese Forschung ab. Des Weiteren zeigt es die Vorteile einer solchen Vorrichtung für kommende Applikationen, besonders um noch kleinere Nanopartikel mit einer hohen Präzision modifizieren zu können. Zusammenfassend ist zu sagen, dass diese Forschung die erfolgreiche Anpassung des Mikrokontaktdruckverfahrens mit kommerziell erhältlichen und bezahlbaren Silikapartikeln und Polyelektrolyten demonstriert, um hohe Flexibilität, reduzierte Kosten und ein erweitertes Skalierungspotential zu bieten. Zusätzlich ist es gelungen, die Funktionalisierungsdichte zu erhöhen, indem drei dimensionaler Strukturdruck bisher ungenutztes Volumen schaffen konnte. Während eine hohe kolloidale Stabilität erhalten blieb, ist es gelungen unterschiedliche Kopplungssysteme zu nutzen, um das Selbstorganisationspotential dieser Toolbox für anisotrope Partikel aufzuzeigen. KW - patchy particles KW - microcontact printing KW - silica particles KW - anisotropic colloids KW - polyelectrolytes KW - Patchy Partikel KW - Mikrokontaktdruck KW - Silika Partikel KW - Anisotrope Kolloide KW - Polyelektrolyte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427731 ER - TY - THES A1 - Zimmermann, Beate T1 - Spatial and temporal variability of the soil saturated hydraulic conductivity in gradients of disturbance T1 - Räumliche und zeitliche Variabilität der gesättigten Bodenwasserleitfähigkeit in Störungsgradienten N2 - As land-cover conversion continues to expand into ever more remote areas in the humid tropics, montane rainforests are increasingly threatened. In the south Ecuadorian Andes, they are not only subject to man-made disturbances but also to naturally occurring landslides. I was interested in the impact of this ecosystem dynamics on a key parameter of the hydrologic cycle, the soil saturated hydraulic conductivity (synonym: permeability; Ks from here on), because it is a sensitive indicator for soil disturbances. My general objective was to quantify the effects of the regional natural and human disturbances on the saturated hydraulic conductivity and to describe the resulting spatial-temporal patterns. The main hypotheses were: 1) disturbances cause an apparent displacement of the less permeable soil layer towards the surface, either due to a loss of the permeable surface soil after land-sliding, or as a consequence of the surface soil compaction under cattle pastures; 2) ‘recovery’ from disturbance, either because of landslide re-vegetation or because of secondary succession after pasture abandonment, involves an apparent displacement of the less permeable layer back towards the original depth an 3) disturbances cause a simplification of the Ks spatial structure, i.e. the spatially dependent random variation diminishes; the subsequent recovery entails the re-establishment of the original structure. In my first study, I developed a synthesis of recent geostatistical research regarding its applicability to soil hydraulic data, including exploratory data analysis and variogram estimation techniques; I subsequently evaluated the results in terms of spatial prediction uncertainty. Concerning the exploratory data analysis, my main results were: 1) Gaussian uni- and bivariate distributions of the log-transformed data; 2) the existence of significant local trends; 3) no need for robust estimation; 4) no anisotropic variation. I found partly considerable differences in covariance parameters resulting from different variogram estimation techniques, which, in the framework of spatial prediction, were mainly reflected in the spatial connectivity of the Ks-field. Ignoring the trend component and an arbitrary use of robust estimators, however, would have the most severe consequences in this respect. Regarding variogram modeling, I encouraged restricted maximum likelihood estimation because of its accuracy and independence on the selected lags needed for experimental variograms. The second study dealt with the Ks spatial-temporal pattern in the sequences of natural and man-made disturbances characteristic for the montane rainforest study area. To investigate the disturbance effects both on global means and the spatial structure of Ks, a combined design-and model-based sampling approach was used for field-measurements at soil depths of 12.5, 20, and 50 cm (n=30-150/depth) under landslides of different ages (2 and 8 years), under actively grazed pasture, fallows following pasture abandonment (2 to 25 years of age), and under natural forest. Concerning global means, our main findings were 1) global means of the soil permeability generally decrease with increasing soil depth; 2) no significant Ks differences can be observed among landslides and compared to the natural forest; 3) a distinct permeability decrease of two orders of magnitude occurs after forest conversion to pasture at shallow soil depths, and 4) the slow regeneration process after pasture abandonment requires at least one decade. Regarding the Ks spatial structure, we found that 1) disturbances affect the Ks spatial structure in the topsoil, and 2) the largest differences in spatial patterns are associated with the subsoil permeability. In summary, the regional landslide activity seems to affect soil hydrology to a marginal extend only, which is in contrast to the pronounced drop of Ks after forest conversion. We used this spatial-temporal information combined with local rain intensities to assess the partitioning of rainfall into vertical and lateral flowpaths under undisturbed, disturbed, and regenerating land-cover types in the third study. It turned out that 1) the montane rainforest is characterized by prevailing vertical flowpaths in the topsoil, which can switch to lateral directions below 20 cm depth for a small number of rain events, which may, however, transport a high portion of the annual runoff; 2) similar hydrological flowpaths occur under the landslides except for a somewhat higher probability of impermeable layer formation in the topsoil of a young landslide, and 3) pronounced differences in runoff components can be observed for the human disturbance sequence involving the development of near-surface impeding layers for 24, 44, and 8 % of rain events for pasture, a two-year-old fallow, and a ten-year-old fallow, respectively. N2 - Der tropische Bergregenwald in den Südecuadorianischen Anden unterliegt sowohl anthropogenen Eingriffen, d.h. der Umwandlung von Naturwald in Rinderweiden, als auch natürlichen Störungen in der Form von Hangrutschen. Ziel meiner Arbeit war es, die Auswirkungen dieser regionalen Störungsdynamik auf einen Schlüsselparameter des hydrologischen Kreislaufs, die gesättigte hydraulische Wasserleitfähigkeit (Ks), zu untersuchen und die resultierenden raum-zeitlichen Muster zu beschreiben. In der ersten Studie habe ich eine Synthese aktueller geostatistischer Forschung hinsichtlich ihrer Eignung für die Analyse bodenhydrologischer Daten entwickelt. Diese beinhaltet explorative Datenanalyse und verschiedene Techniken zur Schätzung der Kovarianzparameter; die Ergebnisse habe ich in Bezug auf die Ungenauigkeit räumlicher Vorhersagen bewertet. Es hat sich dabei herausgestellt, dass die Schätztechniken teilweise beachtliche Unterschiede in den Parametern hervorrufen, welche sich hauptsächlich in der räumlichen Konnektivität widergespiegeln. Die wichtigste Rolle im Zusammenhang mit der räumlichen Vorhersage kommt jedoch den vorgeordneten explorativen Analyseschritten zu. In der zweiten Studie habe ich mich mit der Beschreibung des raum-zeitlichen Muster der Wasserleitfähigkeit in den anthropogenen und natürlichen Störungsgradienten beschäftigt. Wichtigste Ergebnisse waren, dass es keine signifikanten Unterschiede der Wasserleitfähigkeit zwischen den verschieden alten Hangrutschen und dem Naturwald gibt. Daraus lässt sich schließen, dass die natürlichen Störungen im Untersuchungsgebiet lediglich marginale Auswirkungen auf die Bodenhydrology haben. Das steht in starkem Kontrast zum anthropogenen Störungskreislauf: die Wasserleitfähigkeit im Weideboden hat gegenüber dem Naturwald um zwei Größenordnungen abgenommen; eine „Erholung“ nach Nutzungsaufgabe scheint mindestens ein Jahrzehnt in Anspruch zu nehmen. Die räumlichen Abhängigkeit von Ks in den Oberböden von Wald und einer alten Brache ist stärker als in jenen der gestörten Flächen, was auf eine störungsbedingte Beeinträchtigung der räumlichen Struktur in geringer Bodentiefe schließen lässt. In der dritten Studie habe ich diese raum-zeitlichen Informationen mit dem örtlichen Niederschlagsregime in Verbindung gebracht, um Rückschlüsse auf die Auswirkungen der störungsbedingten Änderungen von Ks auf hydrologische Fließwege zu ziehen. Es hat sich gezeigt, dass im tropischen Bergregenwald und unter Hangrutschen ubiquitäre Tiefenversickerung dominiert, es allerdings zu einer Verschiebung in laterale Fließrichtungen für die seltenen intensiven Regenereignisse kommen kann. Anthropogene Störungen gehen mit einer um bis zu 50 Prozent erhöheren Wahrscheinlichkeit des Auftretens oberflächennaher Stauschichten einher, was die Bedeutung lateraler Fließwege erhöht. Dies trifft in vergleichbarer Größenordnung auch auf ein Vergleichsökosystem im Tieflandregenwald zu. KW - Bodenhydrologie KW - Tropen KW - Landnutzungswandel KW - Geostatistik KW - Abflussbildung KW - soil hydrology KW - tropics KW - landuse change KW - geostatistics KW - runoff generation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16402 ER - TY - THES A1 - Zimmermann, Alexander T1 - Rainfall redistribution and change of water quality in tropical forest canopies : patterns and persistence T1 - Umverteilung von Regenwasser und Änderung der Wasserqualität in Kronendächern Tropischer Wälder : Muster und Persistenz N2 - Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator. N2 - Motivation und Zielsetzung: Wenn Regen durch ein Kronendach fällt lassen sich zwei Prozesse beobachten: das Regenwasser wird umverteilt und die chemische Qualität des Wassers verändert sich erheblich. Die Prozesse im Kronenraum resultieren in einer hohen Variabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung. Bestandsniederschlag beeinflusst eine Reihe von physikalischen, chemischen und biologischen Prozessen am Waldboden. Daher können Untersuchungen zur Variabilität und zu Mustern im Bestandsniederschlag helfen, bodennahe Prozesse besser zu verstehen. Diese Dissertation behandelt hauptsächlich drei Aspekte. Erstens, die Arbeit beschäftigt sich mit der Erfassung der Variabilität im Bestandsniederschlag und dessen chemischer Zusammensetzung, zudem werden Einflussfaktoren dieser Variabilität untersucht. Des Weiteren beschäftigt sich die Arbeit mit räumlichen Mustern des Bestandsniederschlagswassers, und drittens wird die zeitliche Stabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung betrachtet. Untersuchungsgebiete und Methoden: Diese Dissertation basiert auf Untersuchungen in einem tropischen Bergregenwald in Ecuador, sowie Studien in tropischen Tieflandregenwäldern in Brasilien und Panama. Die ersten zwei Studien untersuchen Bestandsniederschlag und dessen chemische Zusammensetzung mit Hilfe deterministischer Methoden. Die Arbeit in Panama nutzt geostatistische Methoden zur Beschreibung von Bestandsniederschlagsmustern und verfolgt somit einen stochastischen Ansatz. Ergebnisse und Schlussfolgerungen: Die Variabilität des Bestandsniederschlages ist hoch; das heißt, die Menge des auf den Waldboden tropfenden Wassers kann sich je nach Standort stark unterscheiden. Diese räumliche Variabilität des Bestandsniederschlags ist in tropischen Wäldern höher als in vielen gemäßigten Waldökosystemen, was nicht allein auf verschiedenen Eigenschaften der Ökosysteme zurückzuführen ist. Vielmehr erklären sich die Unterschiede auch aus verschiedenen Waldnutzungen. Abgesehen von biologischen Faktoren beeinflusst die Regenmenge die Variabilität des Bestandsniederschlags erheblich. Die chemische Zusammensetzung des Bestandsniederschlags weist eine noch höhere Variabilität als der Bestandsniederschlag selbst auf. Unterschiede zwischen tropischen und gemäßigten Wäldern lassen sich hier allerdings nicht erkennen, weshalb die hohe Diversität tropischer Ökosysteme die Heterogenität der chemischen Zusammensetzung des Bestandsniederschlags nicht ausreichend erklärt. Eine Vielzahl anderer Faktoren kontrolliert deshalb die Variabilität der Bestandsniederschlagschemie, beispielsweise die Konzentration gelöster Stoffe im Regenwasser oder die Dauer von Trockenperioden. Deren hohe temporale Variabilität ist verantwortlich für die geringe zeitliche Stabilität von Depositionsmessungen. Im Gegensatz dazu ist die temporale Persistenz von Messungen der Bestandsniederschlagsmenge hoch. Insbesondere die Ergebnisse aus Panama zeigen, dass feuchte und trockene Messpunkte über einen Zeitraum von zwei Regenzeiten fortbestehen. Die räumlichen Bestandsniederschlagsmuster im letztgenannten Untersuchungsgebiet sind schwach bzw. weisen die Struktur eines reinen Nugget-Models auf. Die geostatistische Analyse zeigt, dass vor allem die Daten großer Regenereignisse eine robuste Modellierung des Variogramms erfordern, wenn die willkürliche Entfernung von Fernpunkten in den Daten vermieden werden soll. Dieses Resultat ist insbesondere deshalb von Bedeutung, da alle bisherigen Bestandsniederschlagsstudien den klassischen, nicht-robusten Schätzer benutzen, obwohl das Auftreten von Extremwerten in Bestandsniederschlagsdaten für viele Ökosysteme zu erwarten ist. KW - Bestandsniederschlag KW - Stoffdeposition KW - tropische Waldökosysteme KW - Geostatistik KW - throughfall KW - solute deposition KW - tropical forests KW - geostatistics Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-32556 ER - TY - THES A1 - Zillmer, Rüdiger T1 - Statistical properties and scaling of the Lyapunov exponents in stochastic systems N2 - Die vorliegende Arbeit umfaßt drei Abhandlungen, welche allgemein mit einer stochastischen Theorie für die Lyapunov-Exponenten befaßt sind. Mit Hilfe dieser Theorie werden universelle Skalengesetze untersucht, die in gekoppelten chaotischen und ungeordneten Systemen auftreten. Zunächst werden zwei zeitkontinuierliche stochastische Modelle für schwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke ('coupling sensitivity of chaos') zu untersuchen. Mit Hilfe des Fokker-Planck-Formalismus werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird gezeigt, daß 'coupling sensitivity' im Fall gekoppelter ungeordneter Ketten auftritt, wobei der Effekt sich durch ein singuläres Anwachsen der Lokalisierungslänge äußert. Numerische Ergebnisse für gekoppelte Anderson-Modelle werden bekräftigt durch analytische Resultate für gekoppelte raumkontinuierliche Schrödinger-Gleichungen. Das resultierende Skalengesetz für die Lokalisierungslänge ähnelt der Skalierung der Lyapunov-Exponenten gekoppelter chaotischer Systeme. Schließlich wird die Statistik der exponentiellen Wachstumsrate des linearen Oszillators mit parametrischem Rauschen studiert. Es wird gezeigt, daß die Verteilung des zeitabhängigen Lyapunov-Exponenten von der Normalverteilung abweicht. Mittels der verallgemeinerten Lyapunov-Exponenten wird der Parameterbereich bestimmt, in welchem die Abweichungen von der Normalverteilung signifikant sind und Multiskalierung wesentlich wird. N2 - This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential. KW - Lyapunov-Exponenten KW - Chaos KW - ungeordnete Systeme KW - Lokalisierung KW - stochastische Systeme KW - 'coupling sensitivity' KW - parametrisch erregter Oszillator KW - Lyapunov exponents KW - chaos KW - disordered systems KW - localization KW - stochastic systems KW - coupling sensitivity KW - parametrically excited oscillator Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001147 ER - TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Ziemann, Niklas T1 - Four essays on the role of distance for economic decision-making T1 - Vier Studien zur Rolle von Distanzen für ökonomisches Entscheidungsverhalten N2 - Distances affect economic decision-making in numerous situations. The time at which we make a decision about future consumption has an impact on our consumption behavior. The spatial distance to employer, school or university impacts the place where we live and vice versa. The emotional closeness to other individuals influences our willingness to give money to them. This cumulative thesis aims to enrich the literature on the role of distance for economic decision-making. Thereby, each of my research projects sheds light on the impact of one kind of distance for efficient decision-making. N2 - Distanzen beeinflussen ökonomische Entscheidungen in vielen Situationen. Der Zeitpunkt an dem wir uns für zukünftige Ausgaben entscheiden, beeinflusst unser Konsumverhalten. Die räumliche Distanz zum Arbeitsgeber, zur Schule oder Universität beeinflusst die Wahl unseres Wohnortes und umgekehrt. Die emotionale Nähe zu anderen Menschen entscheidet darüber, ob wir diese finanziell unterstützen. Mit dieser kumulativen Doktorarbeit möchte ich die Literatur, die sich mit der Rolle von Distanzen für ökonomisches Entscheidungsverhalten beschäftigt, bereichern. Ich schaue mir in jedem meiner Forschungsprojekt an, wie eine Art von Distanz die Effizienz von Entscheidungen beeinflusst. KW - lab experiment KW - individual choices KW - Distanz KW - individuelle Entscheidungen KW - Laborexperiment KW - distance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591073 ER - TY - THES A1 - Ziehe, Andreas T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings. N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt. KW - Signaltrennung KW - Mischung KW - Diagonalisierung KW - Bioelektrisches Signal KW - Magnetoencephalographie KW - Elektroencephalographie KW - Signalquellentrennung KW - Matrizen-Eigenwertaufgabe KW - Simultane Diagonalisierung KW - Optimierungsproblem KW - blind source separation KW - BSS KW - ICA KW - independent component analysis KW - approximate joint diagonalization KW - EEG KW - MEG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Ziege, Ricardo T1 - Growth dynamics and mechanical properties of E. coli biofilms T1 - Wachstumsdynamik und mechanische Eigenschaften von E. coli Biofilmen N2 - Biofilms are complex living materials that form as bacteria get embedded in a matrix of self-produced protein and polysaccharide fibres. The formation of a network of extracellular biopolymer fibres contributes to the cohesion of the biofilm by promoting cell-cell attachment and by mediating biofilm-substrate interactions. This sessile mode of bacteria growth has been well studied by microbiologists to prevent the detrimental effects of biofilms in medical and industrial settings. Indeed, biofilms are associated with increased antibiotic resistance in bacterial infections, and they can also cause clogging of pipelines or promote bio-corrosion. However, biofilms also gained interest from biophysics due to their ability to form complex morphological patterns during growth. Recently, the emerging field of engineered living materials investigates biofilm mechanical properties at multiple length scales and leverages the tools of synthetic biology to tune the functions of their constitutive biopolymers. This doctoral thesis aims at clarifying how the morphogenesis of Escherichia coli (E. coli) biofilms is influenced by their growth dynamics and mechanical properties. To address this question, I used methods from cell mechanics and materials science. I first studied how biological activity in biofilms gives rise to non-uniform growth patterns. In a second study, I investigated how E. coli biofilm morphogenesis and its mechanical properties adapt to an environmental stimulus, namely the water content of their substrate. Finally, I estimated how the mechanical properties of E. coli biofilms are altered when the bacteria express different extracellular biopolymers. On nutritive hydrogels, micron-sized E. coli cells can build centimetre-large biofilms. During this process, bacterial proliferation and matrix production introduce mechanical stresses in the biofilm, which release through the formation of macroscopic wrinkles and delaminated buckles. To relate these biological and mechanical phenomena, I used time-lapse fluorescence imaging to track cell and matrix surface densities through the early and late stages of E. coli biofilm growth. Colocalization of high cell and matrix densities at the periphery precede the onset of mechanical instabilities at this annular region. Early growth is detected at this outer annulus, which was analysed by adding fluorescent microspheres to the bacterial inoculum. But only when high rates of matrix production are present in the biofilm centre, does overall biofilm spreading initiate along the solid-air interface. By tracking larger fluorescent particles for a long time, I could distinguish several kinematic stages of E. coli biofilm expansion and observed a transition from non-linear to linear velocity profiles, which precedes the emergence of wrinkles at the biofilm periphery. Decomposing particle velocities to their radial and circumferential components revealed a last kinematic stage, where biofilm movement is mostly directed towards the radial delaminated buckles, which verticalize. The resulting compressive strains computed in these regions were observed to substantially deform the underlying agar substrates. The co-localization of higher cell and matrix densities towards an annular region and the succession of several kinematic stages are thus expected to promote the emergence of mechanical instabilities at the biofilm periphery. These experimental findings are predicted to advance future modelling approaches of biofilm morphogenesis. E. coli biofilm morphogenesis is further anticipated to depend on external stimuli from the environment. To clarify how the water could be used to tune biofilm material properties, we quantified E. coli biofilm growth, wrinkling dynamics and rigidity as a function of the water content of the nutritive substrates. Time-lapse microscopy and computational image analysis revealed that substrates with high water content promote biofilm spreading kinetics, while substrates with low water content promote biofilm wrinkling. The wrinkles observed on biofilm cross-sections appeared more bent on substrates with high water content, while they tended to be more vertical on substrates with low water content. Both wet and dry biomass, accumulated over 4 days of culture, were larger in biofilms cultured on substrates with high water content, despite extra porosity within the matrix layer. Finally, the micro-indentation analysis revealed that substrates with low water content supported the formation of stiffer biofilms. This study shows that E. coli biofilms respond to the water content of their substrate, which might be used for tuning their material properties in view of further applications. Biofilm material properties further depend on the composition and structure of the matrix of extracellular proteins and polysaccharides. In particular, E. coli biofilms were suggested to present tissue-like elasticity due to a dense fibre network consisting of amyloid curli and phosphoethanolamine-modified cellulose. To understand the contribution of these components to the emergent mechanical properties of E. coli biofilms, we performed micro-indentation on biofilms grown from bacteria of several strains. Besides showing higher dry masses, larger spreading diameters and slightly reduced water contents, biofilms expressing both main matrix components also presented high rigidities in the range of several hundred kPa, similar to biofilms containing only curli fibres. In contrast, a lack of amyloid curli fibres provides much higher adhesive energies and more viscoelastic fluid-like material behaviour. Therefore, the combination of amyloid curli and phosphoethanolamine-modified cellulose fibres implies the formation of a composite material whereby the amyloid curli fibres provide rigidity to E. coli biofilms, whereas the phosphoethanolamine-modified cellulose rather acts as a glue. These findings motivate further studies involving purified versions of these protein and polysaccharide components to better understand how their interactions benefit biofilm functions. All three studies depict different aspects of biofilm morphogenesis, which are interrelated. The first work reveals the correlation between non-uniform biological activities and the emergence of mechanical instabilities in the biofilm. The second work acknowledges the adaptive nature of E. coli biofilm morphogenesis and its mechanical properties to an environmental stimulus, namely water. Finally, the last study reveals the complementary role of the individual matrix components in the formation of a stable biofilm material, which not only forms complex morphologies but also functions as a protective shield for the bacteria it contains. Our experimental findings on E. coli biofilm morphogenesis and their mechanical properties can have further implications for fundamental and applied biofilm research fields. N2 - Biofilme sind komplexe lebende Materialien, die sich bilden, wenn Bakterien in eine Matrix aus selbstproduzierten Protein- und Polysaccharidfasern eingebettet werden. Die Bildung eines Netzwerks aus extrazellulären Biopolymerfasern trägt zum Zusammenhalt des Biofilms bei, indem sie die Zell-Zell-Anhaftung fördert und die Wechselwirkungen zwischen Biofilm und Substrat vermittelt. Diese sessile Form des Bakterienwachstums wurde von Mikrobiologen eingehend untersucht, um die schädlichen Auswirkungen von Biofilmen in der Medizin und Industrie zu verhindern. Biofilme werden nämlich mit einer erhöhten Antibiotikaresistenz bei bakteriellen Infektionen in Verbindung gebracht, und sie können auch zur Verstopfung von Rohrleitungen führen oder Biokorrosion fördern. Biofilme sind jedoch auch für die Biophysik von Interesse, da sie während ihres Wachstums komplexe morphologische Muster bilden können. In jüngster Zeit werden auf dem aufstrebenden Gebiet der künstlich hergestellten lebenden Materialien die mechanischen Eigenschaften von Biofilmen auf verschiedenen Längenskalen untersucht und die Werkzeuge der synthetischen Biologie genutzt, um die Funktionen ihrer konstitutiven Biopolymere zu beeinflussen. In dieser Doktorarbeit soll geklärt werden, wie die Morphogenese von Escherichia coli (E. coli)-Biofilmen durch deren Wachstumsdynamik und mechanische Eigenschaften beeinflusst wird. Um dieser Frage nachzugehen, habe ich Methoden aus der Zellmechanik und der Materialwissenschaft verwendet. Zunächst habe ich untersucht, wie die biologische Aktivität in Biofilmen zu ungleichmäßigen Wachstumsmustern führt. In einer zweiten Studie untersuchte ich, wie sich die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften an einen Umweltstimulus, nämlich den Wassergehalt des Substrats, anpassen. Schließlich habe ich abgeschätzt, wie sich die mechanischen Eigenschaften von E. coli-Biofilmen verändern, wenn die Bakterien verschiedene extrazelluläre Biopolymere exprimieren. Auf nährstoffhaltigen Hydrogelen können mikrometergroße E. coli-Zellen zentimetergroße Biofilme bilden. Während dieses Prozesses führen die bakterielle Vermehrung und die Matrixproduktion zu mechanischen Spannungen im Biofilm, die sich durch die Bildung von makroskopischen Falten und delaminierten Knicken entladen. Um diese biologischen und mechanischen Phänomene miteinander in Beziehung zu setzen, habe ich mit Hilfe von Zeitraffer-Fluoreszenzaufnahmen die Zell- und Matrixoberflächendichte in den frühen und späten Phasen des E. coli-Biofilmwachstums verfolgt. Die Kolokalisierung hoher Zell- und Matrixdichten an der Peripherie geht dem Auftreten mechanischer Instabilitäten in diesem ringförmigen Bereich voraus. An diesem äußeren Ring wird ein frühes Wachstum festgestellt, das durch Zugabe von fluoreszierenden Mikrokugeln zum bakteriellen Inokulum analysiert wurde. Aber nur wenn im Zentrum des Biofilms hohe Raten der Matrixproduktion vorhanden sind, beginnt die Ausbreitung des gesamten Biofilms entlang der Feststoff-Luft-Grenzfläche. Indem ich größere fluoreszierende Partikel über einen längeren Zeitraum verfolgte, konnte ich mehrere kinematische Stadien der E. coli-Biofilmexpansion unterscheiden und einen Übergang von nichtlinearen zu linearen Geschwindigkeitsprofilen beobachten, der dem Auftreten von Falten an der Biofilmperipherie vorausgeht. Die Zerlegung der Partikelgeschwindigkeiten in ihre radialen und umlaufenden Komponenten ergab ein letztes kinematisches Stadium, in dem die Bewegung des Biofilms hauptsächlich auf die radialen delaminierten Knicke gerichtet ist, die sich vertikalisieren. Die in diesen Regionen berechneten Druckspannungen verformen die darunter liegenden Agarsubstrate erheblich. Die gleichzeitige Ansammlung höherer Zell- und Matrixdichten in einer ringförmigen Region und die Abfolge mehrerer kinematischer Stadien dürften somit das Entstehen mechanischer Instabilitäten an der Biofilm-Peripherie fördern. Diese experimentellen Ergebnisse werden voraussichtlich zukünftige Modellierungsansätze der Biofilmmorphogenese voranbringen. Die Morphogenese des E. coli-Biofilms wird voraussichtlich auch von externen Stimuli aus der Umwelt abhängen. Um zu klären, wie das Wasser zur Einstellung der Materialeigenschaften von Biofilmen genutzt werden könnte, haben wir das Wachstum, die Faltenbildung und die Steifigkeit von E. coli-Biofilmen in Abhängigkeit vom Wassergehalt der Nährsubstrate quantifiziert. Zeitraffermikroskopie und computergestützte Bildanalyse zeigten, dass Substrate mit hohem Wassergehalt die Ausbreitungskinetik des Biofilms fördern, während Substrate mit niedrigem Wassergehalt die Faltenbildung des Biofilms begünstigen. Die auf Biofilm-Querschnitten beobachteten Falten erschienen auf Substraten mit hohem Wassergehalt stärker gebogen, während sie auf Substraten mit niedrigem Wassergehalt eher vertikal verliefen. Sowohl die feuchte als auch die trockene Biomasse, die während der 4-tägigen Kultur akkumuliert wurde, war in Biofilmen, die auf Substraten mit hohem Wassergehalt gezüchtet wurden, größer, trotz der zusätzlichen Porosität innerhalb der Matrixschicht. Schließlich ergab die Mikroindentationsanalyse, dass Substrate mit niedrigem Wassergehalt die Bildung von steiferen Biofilmen begünstigten. Diese Studie zeigt, dass E. coli-Biofilme auf den Wassergehalt ihres Substrats reagieren, was für die Abstimmung ihrer Materialeigenschaften im Hinblick auf weitere Anwendungen genutzt werden könnte. Die Materialeigenschaften von Biofilmen hängen außerdem von der Zusammensetzung und Struktur der Matrix aus extrazellulären Proteinen und Polysacchariden ab. Insbesondere wurde vermutet, dass E. coli-Biofilme aufgrund eines dichten Fasernetzwerks aus Amyloid-Curli und Phosphoethanolamin-modifizierter Cellulose eine gewebeähnliche Elastizität aufweisen. Um den Beitrag dieser Komponenten zu den entstehenden mechanischen Eigenschaften von E. coli-Biofilmen zu verstehen, führten wir an Biofilmen, die aus Bakterien verschiedener Stämme gewachsen waren, Mikroeindrücke durch. Biofilme, die beide Hauptmatrixkomponenten enthalten, wiesen nicht nur eine höhere Trockenmasse, einen größeren Ausbreitungsdurchmesser und einen leicht verringerten Wassergehalt auf, sondern auch eine hohe Steifigkeit im Bereich von mehreren hundert kPa, ähnlich wie Biofilme, die nur Curli-Fasern enthalten. Das Fehlen von Amyloid-Curli-Fasern führt dagegen zu deutlich höheren Adhäsionsenergien und einem viskoelastischeren, flüssigkeitsähnlichen Materialverhalten. Die Kombination von Amyloid-Curli-Fasern und Phosphoethanolamin-modifizierten Cellulosefasern impliziert daher die Bildung eines Verbundmaterials, bei dem die Amyloid-Curli-Fasern den E. coli-Biofilmen Steifigkeit verleihen, während die Phosphoethanolamin-modifizierte Cellulose eher als Klebstoff wirkt. Diese Ergebnisse motivieren zu weiteren Studien mit gereinigten Versionen dieser Protein- und Polysaccharidkomponenten, um besser zu verstehen, wie ihre Interaktionen die Funktionen des Biofilms unterstützen. Alle drei Studien zeigen verschiedene Aspekte der Biofilm-Morphogenese, die miteinander verbunden sind. Die erste Arbeit zeigt den Zusammenhang zwischen ungleichmäßigen biologischen Aktivitäten und dem Auftreten mechanischer Instabilitäten im Biofilm auf. Die zweite Arbeit bestätigt die Anpassungsfähigkeit der Morphogenese des E. coli-Biofilms und seiner mechanischen Eigenschaften an einen Umweltreiz, nämlich Wasser. Die letzte Studie schließlich zeigt die komplementäre Rolle der einzelnen Matrixkomponenten bei der Bildung eines stabilen Biofilmmaterials, das nicht nur komplexe Morphologien bildet, sondern auch als Schutzschild für die darin enthaltenen Bakterien fungiert. Unsere experimentellen Erkenntnisse über die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften können weitere Auswirkungen auf grundlegende und angewandte Biofilm-Forschungsbereiche haben. KW - biofilm KW - E. coli KW - living materials KW - mechanobiology KW - E. coli KW - Biofilm KW - lebende Materialien KW - Mechanobiologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559869 ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Zhou, Xiangqian T1 - Modeling of spatially distributed nitrate transport to investigate the effects of drought and river restoration in the Bode catchment, Central Germany N2 - The European Water Framework Directive (WFD) has identified river morphological alteration and diffuse pollution as the two main pressures affecting water bodies in Europe at the catchment scale. Consequently, river restoration has become a priority to achieve the WFD's objective of good ecological status. However, little is known about the effects of stream morphological changes, such as re-meandering, on in-stream nitrate retention at the river network scale. Therefore, catchment nitrate modeling is necessary to guide the implementation of spatially targeted and cost-effective mitigation measures. Meanwhile, Germany, like many other regions in central Europe, has experienced consecutive summer droughts from 2015-2018, resulting in significant changes in river nitrate concentrations in various catchments. However, the mechanistic exploration of catchment nitrate responses to changing weather conditions is still lacking. Firstly, a fully distributed, process-based catchment Nitrate model (mHM-Nitrate) was used, which was properly calibrated and comprehensively evaluated at numerous spatially distributed nitrate sampling locations. Three calibration schemes were designed, taking into account land use, stream order, and mean nitrate concentrations, and they varied in spatial coverage but used data from the same period (2011–2019). The model performance for discharge was similar among the three schemes, with Nash-Sutcliffe Efficiency (NSE) scores ranging from 0.88 to 0.92. However, for nitrate concentrations, scheme 2 outperformed schemes 1 and 3 when compared to observed data from eight gauging stations. This was likely because scheme 2 incorporated a diverse range of data, including low discharge values and nitrate concentrations, and thus provided a better representation of within-catchment heterogenous. Therefore, the study suggests that strategically selecting gauging stations that reflect the full range of within-catchment heterogeneity is more important for calibration than simply increasing the number of stations. Secondly, the mHM-Nitrate model was used to reveal the causal relations between sequential droughts and nitrate concentration in the Bode catchment (3200 km2) in central Germany, where stream nitrate concentrations exhibited contrasting trends from upstream to downstream reaches. The model was evaluated using data from six gauging stations, reflecting different levels of runoff components and their associated nitrate-mixing from upstream to downstream. Results indicated that the mHM-Nitrate model reproduced dynamics of daily discharge and nitrate concentration well, with Nash-Sutcliffe Efficiency ≥ 0.73 for discharge and Kling-Gupta Efficiency ≥ 0.50 for nitrate concentration at most stations. Particularly, the spatially contrasting trends of nitrate concentration were successfully captured by the model. The decrease of nitrate concentration in the lowland area in drought years (2015-2018) was presumably due to (1) limited terrestrial export loading (ca. 40% lower than that of normal years 2004-2014), and (2) increased in-stream retention efficiency (20% higher in summer within the whole river network). From a mechanistic modelling perspective, this study provided insights into spatially heterogeneous flow and nitrate dynamics and effects of sequential droughts, which shed light on water-quality responses to future climate change, as droughts are projected to be more frequent. Thirdly, this study investigated the effects of stream restoration via re-meandering on in-stream nitrate retention at network-scale in the well-monitored Bode catchment. The mHM-Nitrate model showed good performance in reproducing daily discharge and nitrate concentrations, with median Kling-Gupta values of 0.78 and 0.74, respectively. The mean and standard deviation of gross nitrate retention efficiency, which accounted for both denitrification and assimilatory uptake, were 5.1 ± 0.61% and 74.7 ± 23.2% in winter and summer, respectively, within the stream network. The study found that in the summer, denitrification rates were about two times higher in lowland sub-catchments dominated by agricultural lands than in mountainous sub-catchments dominated by forested areas, with median ± SD of 204 ± 22.6 and 102 ± 22.1 mg N m-2 d-1, respectively. Similarly, assimilatory uptake rates were approximately five times higher in streams surrounded by lowland agricultural areas than in those in higher-elevation, forested areas, with median ± SD of 200 ± 27.1 and 39.1 ± 8.7 mg N m-2 d-1, respectively. Therefore, restoration strategies targeting lowland agricultural areas may have greater potential for increasing nitrate retention. The study also found that restoring stream sinuosity could increase net nitrate retention efficiency by up to 25.4 ± 5.3%, with greater effects seen in small streams. These results suggest that restoration efforts should consider augmenting stream sinuosity to increase nitrate retention and decrease nitrate concentrations at the catchment scale. N2 - Die Europäische Wasserrahmenrichtlinie hat die morphologischen Veränderungen der Flüsse und die diffuse Verschmutzung als die Hauptprobleme der Gewässer in Europa identifiziert. Um diese Probleme anzugehen, hat die Renaturierung von Fließgewässern hohe Priorität. Es ist jedoch nur wenig darüber bekannt, wie sich Veränderungen der Flussform, wie z. B. die Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässer auswirken. Deutschland hat in den letzten Jahren Dürreperioden erlebt, die zu Veränderungen der Nitratkonzentration in den Fließgewässern geführt haben. Es gibt jedoch nur wenig Erkenntnisse darüber, wie sich diese Dürreperioden auf die Nitratkonzentration auswirken. Zur Untersuchung dieser Einflüsse kann eine Modellierung des Nitrat-Transports und -Rückhalts in Einzugsgebieten wichtige Hinweise zu wirksamen Reduzierungsmaßnahmen liefern. In dieser Studie wurde ein prozessbasiertes hydrologisches Wasserqualitätsmodell (mHM-Nitrate) verwendet, um die Nitratdynamik im Einzugsgebiet der Bode (3200 km2) zu simulieren. Das Modell wurde anhand von Daten aus verschiedenen Teileinzugsgebieten kalibriert und bewertet. Es wurden drei Kalibrierungsvarianten entwickelt, die die Flächennutzung, die Ordnung der Fließgewässer und die mittleren Nitratkonzentrationen mit unterschiedlichem Detaillierungsgrad berücksichtigten. Die Modellierungsgüte für den Abfluss war bei allen drei Kalibrierungsvarianten ähnlich, während sich bei den Nitratkonzentrationen deutliche Unterschiede ergaben. Die Studie zeigte, dass die Auswahl von Messstationen, die die charakteristischen Gebietseigenschaften widerspiegeln, für die Nitrat-Kalibrierung wichtiger ist als die reine Anzahl der Messstationen. Das Modell wurde auch verwendet, um die Beziehung zwischen Dürreperioden und der Nitratdynamik im Bodegebiet zu untersuchen. Das Modell gab die Dynamik von Abfluss und Nitrat sehr gut wider und erfasste hierbei auch die räumlichen Unterschiede in den Nitratkonzentrationen sehr gut. Die Studie ergab, dass Dürreperioden zu niedrigeren Nitratkonzentrationen in den landwirtschaftlich genutzten Gebieten im Tiefland führten, was auf einen geringeren terrestrischen Export und einen erhöhten Rückhalt in den Fließgewässern zurückzuführen war. Die Untersuchung liefert Erkenntnisse über die Auswirkungen von Dürren auf den Nitrataustrag, was für das Verständnis der Auswirkungen des künftigen Klimawandels wichtig ist. Darüber hinaus untersuchte die Studie die Auswirkungen der Renaturierung von Fließgewässern, insbesondere der Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässernetz. Die Untersuchung zeigte, dass der gewässerinterne Nitratrückhalt in landwirtschaftlichen Tieflandgebieten höher war als in bewaldeten Gebieten. Die Wiederherstellung natürlich meandrierender Fließgewässer erhöhte die Nitratretention und verringerte die Nitratkonzentration im Fließgewässer, insbesondere in kleinen Bächen in landwirtschaftlichen Gebieten. Dies deutet darauf hin, dass bei Sanierungsmaßnahmen die Erhöhung der Gewässersinuosität berücksichtigt werden sollte, um den Nitratrückhalt und die Wasserqualität insbesondere in den Teiflandgebieten zu erhöhen. KW - multi-site calibration KW - spatiotemporal validation KW - uncertainty KW - parameter transferability KW - drought KW - catchment hydrology Water quality model KW - river restoration KW - stream sinuosity KW - mHM-Nitrate model KW - stream denitrification KW - assimilatory uptake KW - Kalibrierung an mehreren Standorten KW - räumlich-zeitliche Validierung KW - Ungewissheit KW - Übertragbarkeit der Parameter KW - Dürre KW - Einzugsgebietshydrologie Wasserqualitätsmodell KW - Restaurierung von Flüssen KW - Strömungsneigung KW - mHM-Nitrat-Modell KW - Bachdenitrifikation KW - assimilatorische Aufnahme Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621059 ER - TY - THES A1 - Zhou, Bin T1 - On the assessment of surface urban heat island T1 - Bewertung des urbanen Hitzeinseleffekts BT - size, urban form, and seasonality BT - Stadtgröße, Stadtform, und Seasonalität N2 - Inwiefern Städte unter den Megatrends der Urbanisierung und des Klimawandels nachhaltig gestaltet werden können, bleibt umstritten. Dies ist zum Teil auf unzureichende Kenntnisse der Mensch-Umwelt-Interaktionen zurückzuführen. Als die am vollständigsten dokumentierte anthropogene Klimamodifikation ruft der Urbane Hitzeinsel (UHI) Effekt weltweit Sorgen hinsichtlich der Gesundheit der Bevölkerung hervor. Dazu kommt noch ein immer häufigeres und intensiveres Auftreten von Hitzewellen, wodurch das Wohlbefinden der Stadtbewohner weiter beeinträchtigt wird. Trotz eines deutlichen Anstiegs der Zahl der UHI-bezogenen Veröffentlichungen in den letzten Jahrzehnten haben die unterschiedlichen Definitionen von städtischen und ländlichen Gebieten in bisherigen Studien die allgemeine Vergleichbarkeit der Resultate stark erschwert. Darüber hinaus haben nur wenige Studien den UHI-Effekt und seine Einflussfaktoren anhand einer Kombination der Landnutzungsdaten und der thermischen Fernerkundung systematisch untersucht. Diese Arbeit stellt einen allgemeinen Rahmen zur Quantifizierung von UHI-Intensitäten mittels eines automatisierten Algorithmus vor, wobei Städte als Agglomerationen maximal räumlicher Kontinuität basierend auf Landnutzungsdaten identifiziert, sowie deren ländliche Umfelder analog definiert werden. Durch Verknüpfung der Landnutzungsdaten mit Landoberflächentemperaturen von Satelliten kann die UHI-Intensität robust und konsistent berechnet werden. Anhand dieser Innovation wurde nicht nur der Zusammenhang zwischen Stadtgröße und UHI-Intensität erneut untersucht, sondern auch die Auswirkungen der Stadtform auf die UHI-Intensität quantifiziert. Diese Arbeit leistet vielfältige Beiträge zum tieferen Verständnis des UHI-Phänomens. Erstens wurde eine log-lineare Beziehung zwischen UHI-Intensität und Stadtgröße unter Berücksichtigung der 5,000 europäischen Städte bestätigt. Werden kleinere Städte auch berücksichtigt, ergibt sich eine log-logistische Beziehung. Zweitens besteht ein komplexes Zusammenspiel zwischen der Stadtform und der UHI-Intensität: die Stadtgröße stellt den stärksten Einfluss auf die UHI-Intensität dar, gefolgt von der fraktalen Dimension und der Anisometrie. Allerdings zeigen ihre relativen Beiträge zur UHI-Intensität eine regionale Heterogenität, welche die Bedeutung räumlicher Muster während der Umsetzung von UHI-Anpassungsmaßnahmen hervorhebt. Des Weiteren ergibt sich eine neue Saisonalität der UHI-Intensität für individuelle Städte in Form von Hysteresekurven, die eine Phasenverschiebung zwischen den Zeitreihen der UHI-Intensität und der Hintergrundtemperatur andeutet. Diese Saisonalität wurde anhand von Luft- und Landoberflächentemperaturen untersucht, indem die Satellitenbeobachtung und die Modellierung der urbanen Grenzschicht mittels des UrbClim-Modells kombiniert wurden. Am Beispiel von London ist die Diskrepanz der Saisonalitäten zwischen den beiden Temperaturen vor allem auf die mit der einfallenden Sonnenstrahlung verbundene Besonderheit der Landoberflächentemperatur zurückzuführen. Darüber hinaus spielt das regionale Klima eine wichtige Rolle bei der Entwicklung der UHI. Diese Arbeit ist eine der ersten Studien dieser Art, die eine systematische und statistische Untersuchung des UHI-Effektes ermöglicht. Die Ergebnisse sind von besonderer Bedeutung für die allgemeine räumliche Planung und Regulierung auf Meso- und Makroebenen, damit sich Vorteile der rapiden Urbanisierung nutzbar machen und zeitgleich die folgende Hitzebelastung proaktiv vermindern lassen. N2 - To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors. Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity. This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures. Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI. This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress. KW - urban heat island effect KW - surface urban heat island effect KW - UHI KW - urban form KW - der Urbane Hitzeinsel Effekt KW - der Städtische Wärmeinseleffekt KW - der Urbane Hitzeinsel Effekt basierend auf Landoberflächentemperatur KW - UHI KW - die Stadtform Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404383 ER - TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zhelavskaya, Irina T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - THES A1 - Zhang, Xiaolin T1 - Evaluation of nitrogen dynamics in high-order streams and rivers based on high-frequency monitoring T1 - Bewertung der Stickstoffdynamik in Fliessgewässern 4.-6. Ordnung auf der Grundlage zeitlich hochaufgelöster Sensormessungen N2 - Nutrient storage, transform and transport are important processes for achieving environmental and ecological health, as well as conducting water management plans. Nitrogen is one of the most noticeable elements due to its impacts on tremendous consequences of eutrophication in aquatic systems. Among all nitrogen components, researches on nitrate are blooming because of widespread deployments of in-situ high-frequency sensors. Monitoring and studying nitrate can become a paradigm for any other reactive substances that may damage environmental conditions and cause economic losses. Identifying nitrate storage and its transport within a catchment are inspiring to the management of agricultural activities and municipal planning. Storm events are periods when hydrological dynamics activate the exchange between nitrate storage and flow pathways. In this dissertation, long-term high-frequency monitoring data at three gauging stations in the Selke river were used to quantify event-scale nitrate concentration-discharge (C-Q) hysteretic relationships. The Selke catchment is characterized into three nested subcatchments by heterogeneous physiographic conditions and land use. With quantified hysteresis indices, impacts of seasonality and landscape gradients on C-Q relationships are explored. For example, arable area has deep nitrate legacy and can be activated with high intensity precipitation during wetting/wet periods (i.e., the strong hydrological connectivity). Hence, specific shapes of C-Q relationships in river networks can identify targeted locations and periods for agricultural management actions within the catchment to decrease nitrate output into downstream aquatic systems like the ocean. The capacity of streams for removing nitrate is of both scientific and social interest, which makes the quantification motivated. Although measurements of nitrate dynamics are advanced compared to other substances, the methodology to directly quantify nitrate uptake pathways is still limited spatiotemporally. The major problem is the complex convolution of hydrological and biogeochemical processes, which limits in-situ measurements (e.g., isotope addition) usually to small streams with steady flow conditions. This makes the extrapolation of nitrate dynamics to large streams highly uncertain. Hence, understanding of in-stream nitrate dynamic in large rivers is still necessary. High-frequency monitoring of nitrate mass balance between upstream and downstream measurement sites can quantitatively disentangle multi-path nitrate uptake dynamics at the reach scale (3-8 km). In this dissertation, we conducted this approach in large stream reaches with varying hydro-morphological and environmental conditions for several periods, confirming its success in disentangling nitrate uptake pathways and their temporal dynamics. Net nitrate uptake, autotrophic assimilation and heterotrophic uptake were disentangled, as well as their various diel and seasonal patterns. Natural streams generally can remove more nitrate under similar environmental conditions and heterotrophic uptake becomes dominant during post-wet seasons. Such two-station monitoring provided novel insights into reach-scale nitrate uptake processes in large streams. Long-term in-stream nitrate dynamics can also be evaluated with the application of water quality model. This is among the first time to use a data-model fusion approach to upscale the two-station methodology in large-streams with complex flow dynamics under long-term high-frequency monitoring, assessing the in-stream nitrate retention and its responses to drought disturbances from seasonal to sub-daily scale. Nitrate retention (both net uptake and net release) exhibited substantial seasonality, which also differed in the investigated normal and drought years. In the normal years, winter and early spring seasons exhibited extensive net releases, then general net uptake occurred after the annual high-flow season at later spring and early summer with autotrophic processes dominating and during later summer-autumn low-flow periods with heterotrophy-characteristics predominating. Net nitrate release occurred since late autumn until the next early spring. In the drought years, the late-autumn net releases were not so consistently persisted as in the normal years and the predominance of autotrophic processes occurred across seasons. Aforementioned comprehensive results of nitrate dynamics on stream scale facilitate the understanding of instream processes, as well as raise the importance of scientific monitoring schemes for hydrology and water quality parameters. N2 - Die Speicherung, Umwandlung und der Transport von Nährstoffen sind wichtige Prozesse, welche den ökologische Status der Fließgewässer bestimmen. Aufgrund seiner Auswirkungen auf die Eutrophierung von aquatischen Systemen ist hierbei Stickstoff eines der wichtigsten Elemente. Durch neue Entwicklungen in der Sensortechnik zeigt die Forschung zum Nitrat derzeit eine besonders große Dynamik. In dieser Dissertation werden die hysteretischen Beziehungen zwischen Nitratkonzentration und Abfluss (C-Q) an drei Pegeln der Selke im Bodegebiet analysiert, um die Dynamik von Nitratspeicherung und -transport während Hochwasserereignissen in einem genesteten Einzugsgebiet zu untersuchen. Verschiedene Kombinationen der C-Q-Hysterese-Indizes deuten auf unterschiedliche Muster des Nitrat-Transports und seiner Einflussfaktoren hin. Die Hysterese im Uhrzeigersinn tritt eher während der Trockenzeit auf, was auf eine geringe hydrologische Konnektivität vom Land zum Fließgewässer auf den Export distaler Nitratquellen hinweist. Im untersten Einzugsgebiet der Selke dominieren Verdünnungseffekte, die möglicherweise durch Abflüsse aus flussaufwärts gelegenen Teileinzugsgebieten während der Niederschlagsereignisse oder durch schnelle Abflüsse von befestigten Flächen beeinflusst wurden. Unterschiede in der Reaktion des Nitratexports auf Abflussereignisse können während sommerlicher Trockenperioden verstärkt werden, wenn sich die hydrologische Konnektivität und die biogeochemischen Prozesse stark verändern. Daher können spezifische Formen von C-Q-Beziehungen in Fließgewässern zur Verortung und Bestimmung von Zeiträume für landwirtschaftliche Bewirtschaftungsmaßnahmen innerhalb des Wassereinzugsgebiets genutzt werden, um den Nitrateintrag in die Fließ- und Standgewässer zu verringern. Die Fähigkeit von Fließgewässern, Nitrat zu entfernen, ist sowohl von wissenschaftlichem als auch von gesellschaftlichem Interesse. Obwohl die Untersuchungen der Nitratdynamik im Vergleich zu anderen Wasserinhaltsstoffen fortgeschritten sind, ist die Methodik zur direkten Quantifizierung der Nitrataufnahme- und -retention räumlich und zeitlich nicht vollständig verstanden. Das Hauptproblem ist die komplexe Verflechtung von hydrologischen und biogeochemischen Prozessen. In-situ-Messungen (z. B. Isotopenanreicherung) sind aufgrund methodischer Beschränkungen in der Regel auf kleine Fließgewässer mit konstanten Strömungsverhältnissen beschränkt. Dadurch ist die Extrapolation der Nitratdynamik auf große Bäche und kleine Flüsse mit großen Unsicherheiten behaftet. Daher bestehen große Defizite beim Verständnis der Nitratdynamik in größeren Fließgewässer. Die hochfrequente Messung der Nitrat-Massenbilanz zwischen flussaufwärts und flussabwärts gelegenen Messstellen kann die Dynamik der Nitrataufnahme über unterschiedliche Aufnahme- und Retentionspfade anhand der gezielten Untersuchung von Gewässerabschnitten (3-8 km) quantitativ erfassen. In dieser Dissertation wurde dieser Ansatz in Fließgewässern mittlerer Größe mit unterschiedlichen hydro-morphologischen und saisonalen Bedingungen eingesetzt. Die Ergebnisse erlaubten eine Aufschlüsselung der unterschiedlichen Nitrataufnahmewege und ihrer zeitlichen Dynamik. Die Netto-Nitrataufnahme, die autotrophe Assimilation und die heterotrophe Aufnahme sowie ihre unterschiedlichen tages- und jahreszeitlichen Muster konnten analysiert werden. Natürliche Fließgewässer können im Allgemeinen unter ähnlichen Umweltbedingungen mehr Nitrat entfernen als anthropogen überprägte Fließgewässer. Es konnte gezeigt werden, dass die heterotrophe Aufnahme während der trockenen Jahreszeit dominiert. Auf der Basis von gezielten Untersuchungen von Gewässerabschnitten lieferte die Zwei-Stationen-Methode neue Einblicke in die Prozesse der Nitrataufnahme in größeren Fließgewässern. Die langfristige Nitratdynamik in Fließgewässern kann auch durch die zusätzliche Anwendung von Wasserqualitätsmodellen analysiert werden. Dies ist eines der ersten Forschungsvorhaben, bei dem die Zwei-Stationen-Methode in größeren Fließgewässern mit komplexer Strömungsdynamik im Rahmen einer zeitliche hochaufgelösten Langzeitüberwachung eingesetzt wird, um den Nitratrückhalt im Fließgewässer und den Einfluss von Niedrigwasserbedingungen hinsichtlich saisonaler und diurnaler Zeitskalen zu untersuchen. Der Nitratrückhalt (sowohl die Nettoaufnahme als auch die Nettoabgabe) wies erhebliche saisonale Schwankungen auf, die sich auch in den untersuchten normalen Jahren und Jahren mit ausgeprägten Niedrigwasserbedingungen unterschieden. In den normalen Jahren kam es im Winter und zu Beginn des Frühjahrs zu einer umfangreichen Freisetzung von Stickstoff, während die Nettoaufnahme nach der jährlichen abflussreichen Winterperiode im späteren Frühjahr und im Frühsommer am höchsten war, wobei autotrophe Prozesse dominierten. Während der Niedrigwasserperioden im Spätsommer und Herbst dominierte bei der Netto-Stickstoffretention die heterotrophe Aufnahme. Die Netto-Nitratfreisetzung erfolgte vom Spätherbst bis zum folgenden Frühjahr. In den Dürrejahren war die Netto-Nitratfreisetzung im Spätherbst weniger konstant wie in den Normaljahren, und die autotrophen Prozesse dominierten über die Jahreszeiten hinweg. Diese umfassenden Ergebnisse der Nitratdynamik in größeren Fließgewässern verbessern das Verständnis von gewässerinternen Umsetzungsprozessen und zeigen die Möglichkeiten auf, die der gezielte Einsatz von zeitlich hochaufgelöster Sensormessungen in der Gewässerüberwachung bieten kann. KW - high-frequency monitoring KW - in-stream nitrogen dynamics KW - high-order streams and rivers KW - Bäche und Flüsse hoher Ordnung KW - Stickstoffdynamik in Fliessgewässern KW - zeitlich hochaufgelöste Sensormessungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607642 ER - TY - THES A1 - Zhang, Jianrui T1 - Completely water-based emulsions as compartmentalized systems via pickering stabilization N2 - Completely water-based systems are of interest for the development of novel material for various reasons: On one hand, they provide benign environment for biological systems and on the other hand they facilitate effective molecular transport in a membrane-free environment. In order to investigate the general potential of aqueous two-phase systems (ATPSs) for biomaterials and compartmentalized systems, various solid particles were applied to stabilize all-aqueous emulsion droplets. The target ATPS to be investigated should be prepared via mixing of two aqueous solutions of water-soluble polymers, which turn biphasic when exceeding a critical polymer concentration. Hydrophilic polymers with a wide range of molar mass such as dextran/poly(ethylene glycol) (PEG) can therefore be applied. Solid particles adsorbed at the interfaces can be exceptionally efficient stabilizers forming so-called Pickering emulsions, and nanoparticles can bridge the correlation length of polymer solutions and are thereby the best option for water-in-water emulsions. The first approach towards the investigation of ATPS was conducted with all aqueous dextran-PEG emulsions in the presence of poly(dopamine) particles (PDP) in Chapter 4. The water-in-water emulsions were formed with a PEG/dextran system via utilizing PDP as stabilizers. Studies of the formed emulsions were performed via laser scanning confocal microscope (CLSM), optical microscope (OM), cryo-scanning electron microscope (SEM) and tensiometry. The stable emulsions (at least 16 weeks) were demulsified easily via dilution or surfactant addition. Furthermore, the solid PDP at the water-water interface were crosslinked in order to inhibit demulsification of the Pickering emulsion. Transmission electron microscope (TEM) and scanning electron microscope (SEM) were used to visualize the morphology of PDP before and after crosslinking. PDP stabilized water-in-water emulsions were utilized in the following Chapter 5 to form supramolecular compartmentalized hydrogels. Here, hydrogels were prepared in pre-formed water-in-water emulsions and gelled via α-cyclodextrin-PEG (α-CD-PEG) inclusion complex formation. Studies of the formed complexes were performed via X-ray powder diffraction (XRD) and the mechanical properties of the hydrogels were measured with oscillatory shear rheology. In order to verify the compartmentalized state and its triggered decomposition, hydrogels and emulsions were assessed via OM, SEM and CLSM. The last chapter broadens the investigations from the previous two systems by utilizing various carbon nitrides (CN) as different stabilizers in ATPS. CN introduces another way to trigger demulsification, namely irradiation with visible light. Therefore, emulsification and demulsification with various triggers were probed. The investigated all aqueous multi-phase systems will act as model for future fabrication of biocompatible materials, cell micropatterning as well as separation of compartmentalized systems. N2 - Komplett wässrige Systeme sind aus vielerlei Hinsicht interessant für die Entwicklung neuer Materialien: Zum Einen eignet sich die wässrige Umgebung für Anwendung in biologischen System und zum Anderen ermöglicht eine Membran-freie Umgebung erleichterten Stofftransport. In dieser Arbeit wurden verschiedene Partikeltypen zur Stabilisierung von Wasser-in-Wasser Emulsionströpfchen eingesetzt, um das Potenzial von ATPSs (Aqueous two-phase systems (DE: Wässrige Zweiphasensysteme)) für Biomaterialien und kompartmentalisierte Systeme zu untersuchen. Das zu untersuchende ATPS sollte durch Mischen von zwei wässrigen Lösungen wasserlöslicher Polymere hergestellt werden und bei Überschreiten einer kritischen Polymerkonzentration zweiphasig werden. Als hydrophile Polymer wurden Dextran und Poly(ethylenglycol) (PEG) für die Bildung des ATPS angewendet. Die Grenzfläche zwischen den beiden Phasen in ATPSs ist undefiniert und erstreckt sich über einen Bereich, deshalb müssen Partikel für die Stabilisierung des ATPS eingesetzt werden. Die an den Grenzflächen adsorbierten Partikel können effizient als Stabilisatoren fungieren und die sogenannten Pickering-Emulsionen bilden. Der erste Ansatz der Untersuchung von Wasser-in-Wasser Emulsionen wurde mit dem Dextran-PEG-System in Gegenwart von Poly(dopamin)-Partikeln (PDP) als Stabilisatoren durchgeführt. Die bis zu 16 Wochen stabilen Emulsionen konnten mittels Verdünnung oder Tensidzugabe gebrochen werden. Weiterhin wurde die stabilisierenden PDP vernetzt, um eine Deemulgierung der Pickering-Emulsion zu verhindern. Des Weiteren wurden PDP stabiliserte Emulsionen verwednet, um supramolekulare kompartmentalisierte Hydrogele herzustellen. Hier wurden Hydrogele in vorgeformten Wasser-in-Wasser-Emulsionen hergestellt und über die Bildung des α-Cyclodextrin-PEG Komplexes geliert. Die gebildeten Komplexe wurden mittels XRD erforscht und die mechanischen Eigenschaften der Hydrogele mit Rheologie gemessen. Zuletzt wurde die Forschung der zwei vorherigen erwähnten Systemen erweitert, indem verschiedene Kohlenstoffnitride (CN) als Stabilisatoren in ATPS verwendet wurden. Der Einsatz von CN ermöglichte dabei einen weiteren Stimulus zur Deemulgierung, nämlich sichtbares Licht. So wurden Emulgierung und Deemulgierung mit verschiedenen äußeren Reizen untersucht. Die verschiedenen Wasser-in-Wasser Emulsionen werden ein Modell für die zukünftige Herstellung biokompatibler Materialien, die örtlche Zellstrukturierung sowie die Trennung von Kompartimentsystemen liefern. T2 - Vollständig wasserbasierte Pickeringemulsionen als Kompartimentsysteme KW - emulsion KW - water-in-water KW - ATPS KW - Emulsionen KW - Wasser-in-Wasser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476542 ER - TY - THES A1 - Zhang, Bo T1 - Magnetic fields near microstructured surfaces : application to atom chips T1 - Magnetische Felder in der Nähe von microstrukturierten Oberflächen : Anwendung auf Atomchips N2 - Microfabricated solid-state surfaces, also called atom chip', have become a well-established technique to trap and manipulate atoms. This has simplified applications in atom interferometry, quantum information processing, and studies of many-body systems. Magnetic trapping potentials with arbitrary geommetries are generated with atom chip by miniaturized current-carrying conductors integrated on a solid substrate. Atoms can be trapped and cooled to microKelvin and even nanoKelvin temperatures in such microchip trap. However, cold atoms can be significantly perturbed by the chip surface, typically held at room temperature. The magnetic field fluctuations generated by thermal currents in the chip elements may induce spin flips of atoms and result in loss, heating and decoherence. In this thesis, we extend previous work on spin flip rates induced by magnetic noise and consider the more complex geometries that are typically encountered in atom chips: layered structures and metallic wires of finite cross-section. We also discuss a few aspects of atom chips traps built with superconducting structures that have been suggested as a means to suppress magnetic field fluctuations. The thesis describes calculations of spin flip rates based on magnetic Green functions that are computed analytically and numerically. For a chip with a top metallic layer, the magnetic noise depends essentially on the thickness of that layer, as long as the layers below have a much smaller conductivity. Based on this result, scaling laws for loss rates above a thin metallic layer are derived. A good agreement with experiments is obtained in the regime where the atom-surface distance is comparable to the skin depth of metal. Since in the experiments, metallic layers are always etched to separate wires carrying different currents, the impact of the finite lateral wire size on the magnetic noise has been taken into account. The local spectrum of the magnetic field near a metallic microstructure has been investigated numerically with the help of boundary integral equations. The magnetic noise significantly depends on polarizations above flat wires with finite lateral width, in stark contrast to an infinitely wide wire. Correlations between multiple wires are also taken into account. In the last part, superconducting atom chips are considered. Magnetic traps generated by superconducting wires in the Meissner state and the mixed state are studied analytically by a conformal mapping method and also numerically. The properties of the traps created by superconducting wires are investigated and compared to normal conducting wires: they behave qualitatively quite similar and open a route to further trap miniaturization, due to the advantage of low magnetic noise. We discuss critical currents and fields for several geometries. N2 - Mikrotechnologische Oberflächen, sogenannte Atomchips, sind eine etablierte Methode zum Speichern und Manipulieren von Atomen geworden. Das hat Anwendungen in der Atom-Interferometrie, Quanteninformationsverarbeitung und Vielteilchensystemen vereinfacht. Magnetische Fallenpotentiale mit beliebigen Geometrien werden durch Atomchips mit miniaturisierten stromführenden Leiterbahnen auf einer Festkörperunterlage realisiert. Atome können bei Temperaturen im $\mu$ K oder sogar nK-Bereich in einer solchen Falle gespeichert und gekühlt werden. Allerdings können kalte Atome signifikant durch die Chip-Oberfläche gestört werden, die sich typischerweise auf Raumtemperatur befindet. Die durch thermische Ströme im Chip erzeugten magnetischen Feldfluktuationen können Spin-Flips der Atome induzieren und Verlust, Erwärmung und Dekohärenz zur Folge haben. In dieser Dissertation erweitern wir frühere Arbeiten über durch magnetisches Rauschen induzierte Spin-Flip-Ratenund betrachten kompliziertere Geometrien, wie sie typischerweise auf einem Atom-Chip anzutreffen sind: Geschichtete Strukturen und metallische Leitungen mit endlichem Querschnitt. Wir diskutieren auch einige Aspekte von Aomchips aus Supraleitenden Strukturen die als Mittel zur Unterdrückung magnetischer Feldfluktuationen vorgeschlagen wurden. Die Arbeit beschreibt analytische und numerische Rechnungen von Spin-Flip Raten auf Grundlage magnetischer Greensfunktionen. Für einen Chip mit einem metallischen Top-Layer hängt das magnetische Rauschen hauptsächlich von der Dicke des Layers ab, solange die unteren Layer eine deutlich kleinere Leitfähigkeit haben. Auf Grundlage dieses Ergebnisses werden Skalengesetze für Verlustraten über einem dünnen metallischen Leiter hergeleitet. Eine gute Übereinstimmung mit Experimenten wird in dem Bereich erreicht, wo der Abstand zwischen Atom und Oberfläche in der Größenordnung der Eindringtiefe des Metalls ist. Da in Experimenten metallische Layer immer geätzt werden, um verschiedene stromleitende Bahnen vonenander zu trennen, wurde der Einfluß eines endlichen Querschnittsauf das magnetische Rauschen berücksichtigt. Das lokale Spektrum des magnetischen Feldes in der Nähe einer metallischen Mikrostruktur wurde mit Hilfe von Randintegralen numerisch untersucht. Das magnetische Rauschen hängt signifikant von der Polarisierung über flachen Leiterbahnen mit endlichem Querschnitt ab, im Unterschied zu einem unendlich breiten Leiter. Es wurden auch Korrelationen zwischen mehreren Leitern berücksichtigt. Im letzten Teil werden supraleitende Atomchips betrachtet. Magnetische Fallen, die von supraleitenden Bahnen im Meissner Zustand und im gemischten Zustand sind werden analytisch durch die Methode der konformen Abbildung und numerisch untersucht. Die Eigenschaften der durch supraleitende Bahnen erzeugten Fallen werden erforscht und mit normal leitenden verglichen: Sie verhalten sich qualitativ sehr ähnlich und öffnen einen Weg zur weiteren Miniaturisierung von Fallen, wegen dem Vorteil von geringem magnetischem Rauschen. Wir diskutieren kritische Ströme und Felder für einige Geometrien. KW - Magnetische Felder KW - Atom chip KW - Supraleiter KW - magnetisches Rauschen KW - microstrukturierte Oberfläche KW - magnetic fields KW - atom chip KW - superconductors KW - magnetic noise KW - microstructured surface Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-28984 ER - TY - THES A1 - Zhang, Baichen T1 - Dissection of phloem transport in cucurbitaceae by metabolomic analysis T1 - Analyse des Phloemtransports bei Cucurbitaceae mittels Metabolomics N2 - This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem. N2 - Phloem transportiert ein ausgedehntes Spektrum an Molekülen zwischen Pflanzenorganen, um Wachstum und Entwicklung zu koordinieren. Folglich ist eine umfassende und unvoreingenommene Metabolom-Analyse notwendig, um unser Verständnis über den Transport von Stoffwechselprodukten sowie über Phloemtransport zu vertiefen. Phloemexsudate von Kürbispflanzen werden unter Verwendung der Metabolom-Analyse analysiert. Bei diesen Pflanzen wird angenommen, dass sie symplastische Beladungswege verwenden, um Photoassmilate als Ausgangsschritt des Phloemtransportes zu konzentrieren. Zwei neue Familien Callose-verwandter Substanzen, 1,3-Overknüpfte Glycane, sowie eine Reihe anderer kleinerer Metabolite werden in den Phloemexsudaten detektiert. Metabolom-Daten und physiologische Experimente widersprechen früher berichtetem Verständnis des Phloemexsudationsprozesses in Kürbispflanzen. Folglich bestätigt sich der Phloemexsudationsprozeß durch Kombination unterschiedlicher mikroskopischer Techniken. Kürbispflanzen besitzen zwei Phloemsysteme mit eindeutigen anatomischen Eigenschaften. Es zeigt sich, daß Phloemexsudate in Kürbissen hauptsächlich vom extrafaszikulären Phloem, nicht vom zentralen Phloem, stammen. In den letzten Jahrzehnten wurde gewöhnlich mißverstanden, daß Phloemexsudate vom zentralen Phloem stammen. Die eindeutigen metabolischen Profile der unterschiedlichen Phloemsysteme, die durch Metabolom-Analysen in der räumlichen Auflösung beobachtet werden, bestätigen die unterschiedlichen physiologischen Funktionen der zwei unterschiedlichen Phloemsysteme: das zentrale Phloem transportiert hauptsächlich Zucker, während das extrafaszikuläre Phloem ein ausgedehntes Spektrum von Metaboliten transportiert. Es kann auch ein unterschiedliches metabolisches Profil kleiner Moleküle zwischen internem und externem zentralem Phloem beobachtet werden. Von Strukturproteinen des zentralen Phloems wurden auch Proben genommen und mittels Massenspektrometrie analysiert. Diese Proteine erweisen sich als neuartige Proteine, die sich zu denen im extrafaszikulären Phloem unterscheiden. Dies bestätigt ferner den Funktionsunterschied der unterschiedlichen Phloemsysteme in Kürbispflanzen. Basierend auf diesen neuartigen Entdeckungen des Phloem-Metaboloms und dem vorhergehenden Wissen über den Phloemtransport in Kürbispflanzen, wird ein neues Modell vorgeschlagen, um den Mechanismus des Phloemtransports in der symplastischen Beladung zu verstehen. KW - phloem KW - metabolomics KW - cucurbits KW - phloem proteins KW - phloem KW - symplastic loading KW - metabolomic analysis KW - p-proteins KW - phloem architecture Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6644 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Zenichowski, Karl T1 - Quantum dynamical study of Si(100) surface-mounted, STM-driven switches at the atomic and molecular scale T1 - Quantendynamische Untersuchung von Si(100) Oberflächen-gebundenen, STM-gesteuerten atomaren und molekularen Schaltern N2 - The aim of this thesis is the quantum dynamical study of two examples of scanning tunneling microscope (STM)-controllable, Si(100)(2x1) surface-mounted switches of atomic and molecular scale. The first example considers the switching of single H-atoms between two dangling-bond chemisorption sites on a Si-dimer of the Si(100) surface (Grey et al., 1996). The second system examines the conformational switching of single 1,5-cyclooctadiene molecules chemisorbed on the Si(100) surface (Nacci et al., 2008). The temporal dynamics are provided by the propagation of the density matrix in time via an according set of equations of motion (EQM). The latter are based on the open-system density matrix theory in Lindblad form. First order perturbation theory is used to evaluate those transition rates between vibrational levels of the system part. In order to account for interactions with the surface phonons, two different dissipative models are used, namely the bilinear, harmonic and the Ohmic bath model. IET-induced vibrational transitions in the system are due to the dipole- and the resonance-mechanism. A single surface approach is used to study the influence of dipole scattering and resonance scattering in the below-threshold regime. Further, a second electronic surface was included to study the resonance-induced switching in the above-threshold regime. Static properties of the adsorbate, e.g., potentials and dipole function and potentials, are obtained from quantum chemistry and used within the established quantum dynamical models. N2 - Die vorliegende Doktorarbeit befasst sich mit kleinsten schaltbaren Einheiten in Form des Moleküls Cyclooctadien (COD) und dem Wasserstoff-Atom, die chemisch fest mit einer Oberfläche aus kristallinem Silizium verbunden sind. Jeder dieser Schalter kann mittels einer winzigen Spitze, eines so genannten Rastertunnelmikroskops (RTM), von atomarem Durchmesser in zwei unterscheidbare und stabile Schaltpositionen gebracht werden. Dabei besteht das Schalten entweder in einer Änderung der Geometrie des molekularen Schalters oder im Brechen und Neu-knüpfen chemischer Bindungen. Dabei ist es entscheidend, dass durch die geringe Grösse dieser Schalter eine hohe Anzahl dieser Schalter auf einer Oberfläche deponiert werden können. Mit der in den Schaltern speicherbaren Informationen an oder aus, 0 oder 1 ließen sich sehr hohe Speicherkapazitäten erreichen. Vor einer Anwendung dieser Art ist es wichtig zunächst ein grundlegendes Verständnis der Schaltprozesse auf der Oberfläche zu gewinnen. Wenn alle wesentlichen Faktoren berücksichtigt wurden und der Mechanismus des Schaltens verstanden ist, kann das Ergebnis des Experiments mit Hilfe eines theoretischen Modells vorhergesagt werden. Für die Handhabbarkeit muss sich das theoretisches Modell auf wesentliche Einflüsse beschränken und diese so einfach wie möglich beschreiben. So wurde die simultane Bewegung der 12 Atome des COD in die Bewegung eines gemittelten Massenpunktes entlang von einer oder von zwei räumlichen Freiheitsgraden übersetzt. Dabei kann der Massenpunkt im klassischen Bild anschaulich als eine rollende Kugel beschrieben werden, die in einer Seite einer Doppelmulde gefangen ist. Die Kugel kann durch äußere Anregung zum Schwingen gebracht werden und schließlich über eine Barriere in die benachbarte Mulde schalten. Nun muss die Schwingung der Kugel gebremst werden, um ein Zurück-Schwingen der Kugel zu verhindern. Die Anregung erfolgt durch elektrische Ladungen die von der Spitze des RTM zur Oberfläche wandern oder durch eine schwingende, d.h. warme Oberfläche. Das Bremsen wird über die elastische Bindung zu einer kalten Oberfläche vermittelt. Um Quanteneffekte wie das Tunneln der Kugel durch die Barriere zu beschreiben wurde die Kugel durch ein Wellenpaket beschrieben und dessen Aufenthaltswahrscheinlichkeit in der Doppelmulde untersucht. Im Fall des Wasserstoffatoms war die experimentelle Prüfung des entworfenen Modells für ein Schalten bei starkem Strom leider nicht möglich. Für das COD Molekül konnte jedoch nicht nur die Übereinstimmung mit den experimentellen Befunden, sondern im Fall des Schaltens in Abhängigkeit der Oberflächentemperatur auch die Vorhersagefähigkeit des Modells unter Beweis gestellt werden. KW - Kerndynamik KW - molekulare Schalter KW - Nanotechnologie KW - STM KW - Oberflächen KW - Quantum dynamics KW - molecular switches KW - nanotechnology KW - STM KW - surfaces Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62156 ER - TY - THES A1 - Zemanová, Lucia T1 - Structure-function relationship in hierarchical model of brain networks T1 - Das Verhältnis von Struktur und Funktion in hierarchischem Model der Hirn-Netzwerken N2 - The mammalian brain is, with its numerous neural elements and structured complex connectivity, one of the most complex systems in nature. Recently, large-scale corticocortical connectivities, both structural and functional, have received a great deal of research attention, especially using the approach of complex networks. Here, we try to shed some light on the relationship between structural and functional connectivities by studying synchronization dynamics in a realistic anatomical network of cat cortical connectivity. We model the cortical areas by a subnetwork of interacting excitable neurons (multilevel model) and by a neural mass model (population model). With weak couplings, the multilevel model displays biologically plausible dynamics and the synchronization patterns reveal a hierarchical cluster organization in the network structure. We can identify a group of brain areas involved in multifunctional tasks by comparing the dynamical clusters to the topological communities of the network. With strong couplings of multilevel model and by using neural mass model, the dynamics are characterized by well-defined oscillations. The synchronization patterns are mainly determined by the node intensity (total input strengths of a node); the detailed network topology is of secondary importance. The biologically improved multilevel model exhibits similar dynamical patterns in the two regimes. Thus, the study of synchronization in a multilevel complex network model of cortex can provide insights into the relationship between network topology and functional organization of complex brain networks. N2 - Das Gehirn von Säugetieren stellt mit seinen zahlreichen, hochgradig vernetzten Neuronen ein natürliches Netzwerk von immenser Komplexität dar. In der jüngsten Vergangenheit sind die großflächige kortikale Konnektivitäten, sowohl unter strukturellen wie auch funktionalen Gesichtspunkten, in den Fokus der Forschung getreten. Die Verwendung von komplexe Netzwerke spielt hierbei eine entscheidende Rolle. In der vorliegenden Dissertation versuchen wir, das Verhältnis von struktureller und funktionaler Konnektivität durch Untersuchung der Synchronisationsdynamik anhand eines realistischen Modells der Konnektivität im Kortex einer Katze näher zu beleuchten. Wir modellieren die Kortexareale durch ein Subnetzwerk interagierender, erregbarer Neuronen (multilevel model) und durch ein Modell von Neuronenensembles (population model). Bei schwacher Kopplung zeigt das multilevel model eine biologisch plausible Dynamik und die Synchronisationsmuster lassen eine hierarchische Organisation der Netzwerkstruktur erkennen. Indem wir die dynamischen Cluster mit den topologischen Einheiten des Netzwerks vergleichen, sind wir in der Lage die Hirnareale, die an der Bewältigung komplexer Aufgaben beteiligt sind, zu identifizieren. Bei starker Kopplung im multilevel model und unter Verwendung des Ensemblemodells weist die Dynamik klare Oszillationen auf. Die Synchronisationsmuster werden hauptsächlich durch die Eingangsstärke an den einzelnen Knoten bestimmt, während die genaue Netzwerktopologie zweitrangig ist. Eine Erweiterung des Modells auf andere biologisch relevante Faktoren bestätigt die vorherigen Ergebnisse. Die Untersuchung der Synchronisation in einem multilevel model des Kortex ermöglicht daher tiefere Einblicke in die Zusammenhänge zwischen Netzwerktopologie und funktionaler Organisation in komplexen Hirn-Netzwerken. KW - komplexe Hirnnetzwerke KW - Verhältnis der Struktur und Funktion KW - hierarchisches Model KW - Synchronization KW - complex brain networks KW - structur-function relationship KW - hierarchical model KW - synchronization Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18400 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Zeckra, Martin T1 - Seismological and seismotectonic analysis of the northwestern Argentine Central Andean foreland N2 - After a severe M W 5.7 earthquake on October 17, 2015 in El Galpón in the province of Salta NW Argentina, I installed a local seismological network around the estimated epicenter. The network covered an area characterized by inherited Cretaceous normal faults and neotectonic faults with unknown recurrence intervals, some of which may have been reactivated normal faults. The 13 three-component seismic stations recorded data continuously for 15 months. The 2015 earthquake took place in the Santa Bárbara System of the Andean foreland, at about 17km depth. This region is the easternmost morphostructural region of the central Andes. As a part of the broken foreland, it is bounded to the north by the Subandes fold-and-thrust belt and the Sierras Pampeanas to the south; to the east lies the Chaco-Paraná basin. A multi-stage morphotectonic evolution with thick-skinned basement uplift and coeval thin-skinned deformation in the intermontane basins is suggested for the study area. The release of stresses associated with the foreland deformation can result in strong earthquakes, as the study area is known for recurrent and historical, destructive earthquakes. The available continuous record reaches back in time, when the strongest event in 1692 (magnitude 7 or intensity IX) destroyed the city of Esteco. Destructive earthquakes and surface deformation are thus a hallmark of this part of the Andean foreland. With state-of-the-art Python packages (e.g. pyrocko, ObsPy), a semi-automatic approach is followed to analyze the collected continuous data of the seismological network. The resulting 1435 hypocenter locations consist of three different groups: 1.) local crustal earthquakes (nearly half of the events belong to this group), 2.) interplate activity, of regional distance in the slab of the Nazca-plate, and 3.) very deep earthquakes at about 600km depth. My major interest focused on the first event class. Those crustal events are partly aftershock events of the El Galpón earthquake and a second earthquake, in the south of the same fault. Further events can be considered as background seismicity of other faults within the study area. Strikingly, the seismogenic zone encompass the whole crust and propagates brittle deformation down, close to the Moho. From the collected seismological data, a local seismic velocity model is estimated, using VELEST. After the execution of various stability tests, the robust minimum 1D-velocity model implies guiding values for the composition of the local, subsurface structure of the crust. Afterwards, performing a hypocenter relocation enables the assignment of individual earthquakes to aftershock clusters or extended seismotectonic structures. This allows the mapping of previously unknown seismogenic faults. Finally, focal mechanisms are modeled for events with acurately located hypocenters, using the newly derived local velocity model. A compressive regime is attested by the majority of focal mechanisms, while the strike direction of the individual seismogenic structures is in agreement with the overall north – south orientation of the Central Andes, its mountain front, and individual mountain ranges in the southern Santa-Bárbara-System. N2 - Nach einem schweren Erdbeben der Magnitude M W 5.7 am 17. Oktober 2015 in El Galpón, in der Provinz Salta im Nordwesten Argentiniens, habe ich ein lokales seismologisches Netzwerk, um das vermutete Epizentrum herum, aufgebaut. Dabei haben 13 Stationen kontinuierlich für 15 Monate gemessen. Das Netzwerk wurde in einem Gebiet installiert, welches durch tektonische Störungen charakterisiert ist, die entweder in der Kreidezeit zunächst als Abschiebungen initiiert und später als Aufschiebungen reaktiviert wurden oder in der geologischen jüngeren Vergangenheit erst entstanden sind. Die Intervallzeiten zwischen zwei Erdbeben sind dabei häufig unbekannt. Das Erdbeben von 2015 trat im Santa-Barbara-System im Argentinischen Vorland, 17 km unter der Erdoberfläche auf. Diese Region ist die östlichste strukturgeologische Provinz der Zentralanden und dem broken-foreland-Typus zuzuordnen. Im Norden schließt sich der Bolivianische Faltengürtel (Sierras Subandinas) und im Süden die Sierras Pampeanas an; im Osten liegt das Chaco-Paraná Becken. Eine mehrstufige morphotektonische Entwicklung wird hier vermutet, bei der das Grundgebirge durch als thick-skinned bezeichnete Deformation herausgehoben wurde und die dazwischen liegenden Intermontanbecken gleichzeitig Deformation des Typs thin-skinned erfahren haben. Die plötzliche Spannungsfreisetzung, die mit dieser Vorlanddeformation einhergeht, kann zu starken Erdbeben führen. Das Untersuchungsgebiet ist für wiederkehrende und historische, zerstörerische Erdbeben bekannt. Der zur Verfügung stehenden Aufzeichnungen reichen bis in das Jahr 1692 zurück, als ein Erdbeben der Magnitude M 7 (oder Intensität IX) die Stadt Esteco zerstörte. Daher sind zerstörerische Erdbeben ein besonderes Kennzeichen in diesem Teil des Andenvorlands. Für die Analyse der im seismologischen Netzwerk aufgezeichneten kontinuierlichen Daten wurde ein semiautomatischer Ansatz verfolgt, der mittels hochmoderner Python-Bibliotheken informationstechnisch umgesetzt wurde. Die resultierenden 1435 Erdbeben bestehen aus drei verschiedenen Gruppen: 1.) lokale Erdbeben in der Erdkruste (die etwa die Hälfte aller Events ausmachen), 2.) weiter entfernte Interplattenaktivität, die durch die Subduktion der Nazca-Platte unter den Südamerikanischen Kontinent hervorgerufen wird und 3.) sehr tiefen Erdbeben in etwa 600 km Tiefe. Mein Hauptaugenmerk lag dabei auf der ersten Gruppe. Diese krustalen Ereignisse sind teilweise Nachbeben des El Galpón Erdbebens und eines weiteren Bebens, welches sich weiter im Süden an der gleichen Störung ereignete. Die restlichen Beben können der allgemeinen Hintergrundaktivität entlang weiterer Störungen im Untersuchungsgebiet zugeschrieben werden. Beachtenswert ist dabei der Umstand, dass die Erdbebenaktivität in der gesamten Kruste beobachtet werden kann und sich dadurch die Deformation bis a fast an den Erdmantel ausbreitet. Mit den gesammelten Daten kann, unter der Verwendung der VELEST Software, ein lokales seismisches Geschwindigkeitsmodell bestimmt werden. Nach der Durchführung verschiedener Stabilitätstests, können aus dem robusten eindimensionalen Modell Richtwerte für die Zusammensetzung und den Aufbau der Erdkruste gewonnen werden. Dieanschließende Relokalisierung von Erdbebenherden erlaubt die Zuordnung einzelner Erdbeben zu Erdbebenclustern oder ausgedehnten seismotektonischen Strukturen. Dadurch können sogar zuvor unbekannte seismogene Störungen kartiert werden. Schlussendlich, werden Herdflächenlösungen für Beben mit präzise lokalisierten Erdbebenherden und unter der Einbeziehung des neu bestimmten lokalen Geschwindigkeitsmodells modelliert. Der Großteil der resultierenden Lösungen bestätigt das vorherrschende kompressive Regime. Das Streichen der einzelnen seismogenen Strukturen stimmt größtenteils mit der allgemeinen Nord – Süd Ausrichtugn der Zentralanden, ihrer Gebirgsfront und den einzelnen Höhenzügen im Santa-Barbará-System überein. T2 - Seismologische und Seismotektonische Analyse des Vorlandsystems der nordwestargentinischen Zentralanden KW - Seismology KW - Seismotektonik KW - Geophysics KW - Andes KW - Geosciences KW - Argentina KW - Anden KW - Seismologie KW - Geophysik KW - Geowissenschaften KW - Argentinien Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473240 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Zarafshani, Zoya T1 - Chain-end functionalization and modification of polymers using modular chemical reactions T1 - Ketten-Ende Funktionalisierung und Modifikation von Polymeren mittels modulare chemischen Reaktionen N2 - Taking advantage of ATRP and using functionalized initiators, different functionalities were introduced in both α and ω chain-ends of synthetic polymers. These functionalized polymers could then go through modular synthetic pathways such as click cycloaddition (copper-catalyzed or copper-free) or amidation to couple synthetic polymers to other synthetic polymers, biomolecules or silica monoliths. Using this general strategy and designing these co/polymers so that they are thermoresponsive, yet bioinert and biocompatible with adjustable cloud point values (as it is the case in the present thesis), the whole generated system becomes "smart" and potentially applicable in different branches. The applications which were considered in the present thesis were in polymer post-functionalization (in situ functionalization of micellar aggregates with low and high molecular weight molecules), hydrophilic/hydrophobic tuning, chromatography and bioconjugation (enzyme thermoprecipitation and recovery, improvement of enzyme activity). Different α-functionalized co/polymers containing cholesterol moiety, aldehyde, t-Boc protected amine, TMS-protected alkyne and NHS-activated ester were designed and synthesized in this work. N2 - In dieser Arbeit wurden mittels der ATRP Methode sowie durch Benutzung funktioneller Initiatoren verschiedene Funktionalitäten an der α- und ω-Position der synthetischen Polymere (Kettenenden) eingeführt. Diese funktionalisierten Polymere können durch modulare synthetische Methoden wie z.B. die “Klick-Zykloaddition” (kupferkatalysiert oder auch kupferfreie Methoden möglich), Amidierung mit anderen synthetischen Polymeren oder Biomolekülen, oder auch mit Silikatmonolithen gekuppelt werden. Den beschriebenen Strategien folgend und unter Benutzung von thermoresponsiven, bioinerten und biokompartiblen (Co-) Polymeren mit einstellbaren Trübungspunkten können mittels Temperaturänderungen leicht steuerbare, „smarte“ Polymersysteme für verschiedene Anwendungen hergestellt werden. Im Rahmen dieser Arbeit wurden speziell Anwendungen wie die Postfunktionalisierung (in situ Funktionalisierung mizellarer Aggregate mit Molekülen, die sowohl niedrige als auch höhere Molekulargewichte aufweisen), hydrophiles/hydrophobes Tuning von Polymeren, Chromatographie an Polymeren sowie Biokonjugation von Polymeren (Enzymthermoprezipitation und -Gewinnung, Enzymaktivitätsmodifizierung) genauer untersucht. Es wurden verschiedene α-funktionalisierte (Co-)Polymere, die Cholesterol, Aldehyde, t-Boc geschützte Amine, TMS-geschützte Alkine und NHS-aktivierte Ester entwickelt und hergestellt und mittels passender ATRP Initiatoren eingeführt. KW - Atom Transfer Radical Polymerization KW - Klick-Chemie KW - Biokonjugation KW - Funktionalisierung KW - Modifizierung von Polymeren KW - ATRP KW - Click chemistry KW - Bioconjugation KW - Functionalization KW - Polymer Modification Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59723 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Zamora-López, Gorka T1 - Linking structure and function of complex cortical networks T1 - Analyse der Struktur-Funktions-Beziehungen komplexer kortikaler Netzwerke N2 - The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes. N2 - Die jüngste Entdeckung einer komplexen und nicht-trivialen Interaktionstopologie zwischen den Elementen einer großen Anzahl natürlicher Systeme hat die Art und Weise verändert, wie wir Komplexität verstehen. So bilden zum Beispiel die Nervenfasern, welche Informationen zwischen Regionen des Kortex übermitteln, ein Netzwerk, das weder vollkommen regelmäßig noch völlig zufallig ist. Die Struktur dieser Netzwerke scheint Funktionsprinzipien zu folgen, die ein Gleichgewicht zwischen Segregation (funktionale Spezialisierung) und Integration (Verarbeitung von Informationen) halten. Die Regionen des Kortex sind in Module gegliedert, welche auf die Verarbeitung unterschiedlicher Arten von Informationen, wie beispielsweise Visuelle oder Auditive, spezialisiert sind. Um eine umfassende Vorstellung von der Realität zu erzeugen, muss das Gehirn verschiedene Informationsarten kombinieren (integrieren). Wo diese Integration jedoch geschieht, ist noch ungeklärt. In dieser Dissertation wurde eine weitreichende und detaillierte graphen- theoretische Analyse der kortiko-kortikalen Organisation des Katzengehirns durchgeführt. Dabei wurde der Versuch unternommen, individuelle sowie kollektive topologische Eigenschaften der Kortexareale zu ihrer Funktion in Beziehung zu setzen. Aus der Untersuchung wird geschlussfolgert, dass der Kortex eine äußerst reichhaltige Kommunikationsstruktur aufweist, die aus einer Mischung von parallelen und seriellen übertragungsbahnen besteht, die es ermöglichen dynamische Prozesse auf vielen verschiedenen Zeitskalen zu tragen. Die Kommunikationsbahnen zwischen den sensorischen Systemen sind nicht zufällig verteilt, sondern verlaufen fast alle durch eine geringe Anzahl von Arealen. Diese zentralen Areale agieren nicht allein als übermittler von Informationen. Sie sind dicht untereinander verbunden, was auf ihre Funktion als Integrator hinweist. Bei der Analyse der Struktur-Funktions-Beziehungen kortikaler Netzwerke wurden unter Berucksichtigung der Besonderheiten des untersuchten Netzwerkes die bisher verwandten Graphenmaße überdacht und zum Teil überarbeitet. So wurde beispielsweise ein normalisierter Formalismus vorgeschlagen, um die funktionalen Rollen der Knoten in Netzwerken mit einer Community-Struktur zu identifizieren. Die für diesen Zweck entwickelten Werkzeuge ermöglichen neue Methoden zur Erkennung dieser Strukturen, die möglicherweise auch die überlappung von Modulen beschreiben. Das Konzept der Integration wurde revidiert und den Bedürfnissen des untersuchten Netzwerkes angepasst. Außerdem wurden analytische und numerische Methoden eingeführt, um das Verständnis des komplizierten statistischen Zusammenhangs zwischen den verschiedenen Netzwerkmaßen zu erleichtern. Diese Methoden sind hilfreich für die Konstruktion neuer Signifikanztests, die relevante Eigenschaften realer Netzwerke von Nebeneffekten ihrer evolutionären Wachstumsprozesse unterscheiden können. KW - komplexe Netzwerke KW - kortikale Netzwerke KW - complex networks KW - cortical networks Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52257 ER - TY - THES A1 - Zamagni, Jessica T1 - Responses of a shallow-water ecosystem to the early Paleogene greenhouse environmental conditions : evolution of Larger Foraminifera and coral communities from the Northern Tethys T1 - Veränderte Entwicklungen von Flachwasser-Ökosystemen im Bezug auf die Umweltbedingungen des Treibhaus-Klimas des frühen Paläogens : Evolution der Groß-Foraminiferen und Korallen-Gemeinschaften in der nördlichen Tethys N2 - Modern anthropogenic forcing of atmospheric chemistry poses the question of how the Earth System will respond as thousands of gigatons of greenhouse gas are rapidly added to the atmosphere. A similar, albeit nonanthropogenic, situation occurred during the early Paleogene, when catastrophic release of carbon to the atmosphere triggered abrupt increase in global temperatures. The best documented of these events is the Paleocene-Eocene Thermal Maximum (PETM, ~55 Ma) when the magnitude of carbon addition to the oceans and atmosphere was similar to those expected for the future. This event initiated global warming, changes in hydrological cycles, biotic extinction and migrations. A recently proposed hypothesis concerning changes in marine ecosystems suggests that this global warming strongly influenced the shallow-water biosphere, triggering extinctions and turnover in the Larger Foraminifera (LF) community and the demise of corals. The successions from the Adriatic Carbonate Platform (SW Slovenia) represent an ideal location to test the hypothesis of a possible causal link between the PETM and evolution of shallow-water organisms because they record continuous sedimentation from the Late Paleocene to the Early Eocene and are characterized by a rich biota, especially LF, fundamental for detailed biostratigraphic studies. In order to reconstruct paleoenvironmental conditions during deposition, I focused on sedimentological analysis and paleoecological study of benthic assemblages. During the Late Paleocene-earliest Eocene, sedimentation occurred on a shallow-water carbonate ramp system characterized by enhanced nutrient levels. LF represent the common constituent of the benthic assemblages that thrived in this setting throughout the Late Paleocene to the Early Eocene. With detailed biostratigraphic and chemostratigraphic analyses documenting the most complete record to date available for the PETM event in a shallow-water marine environment, I correlated chemostratigraphically for the first time the evolution of LF with the δ¹³C curves. This correlation demonstrated that no major turnover in the LF communities occurred synchronous with the PETM; thus the evolution of LF was mainly controlled by endogenous biotic forces. The study of Late Thanetian metric-sized microbialite-coral mounds which developed in the middle part of the ramp, documented the first Cenozoic occurrence of microbially-cemented mounds. The development of these mounds, with temporary dominance of microbial communities over corals, suggest environmentally-triggered “phase shifts” related to frequent fluctuations of nutrient/turbidity levels during recurrent wet phases which preceding the extreme greenhouse conditions of the PETM. The paleoecological study of the coral community in the microbialites-coral mounds, the study of corals from Early Eocene platform from SW France, and a critical, extensive literature research of Late Paleocene – Early Eocene coral occurrences from the Tethys, the Atlantic, the Caribbean realms suggested that these corals types, even if not forming extensive reefs, are common in the biofacies as small isolated colonies, piles of rubble or small patch-reefs. These corals might have developed ‘alternative’ life strategies to cope with harsh conditions (high/fluctuating nutrients/turbidity, extreme temperatures, perturbation of aragonite saturation state) during the greenhouse times of the early Paleogene, representing a good fossil analogue to modern corals thriving close to their thresholds for survival. These results demonstrate the complexity of the biological responses to extreme conditions, not only in terms of temperature but also nutrient supply, physical disturbance and their temporal variability and oscillating character. N2 - Die anthropogene Beeinflussung der Chemie der Atmosphäre in der modernen Zeit wirft die Frage nach dem Schicksal des Systems Erde auf, wenn tausende von Tonnen an Treibhausgasen in kurzer Zeit in die Atmosphäre einströmen. Im Känozoikum trat bereits eine ähnliche Situation während des frühen Paläogens auf, als eine katastrophale Freisetzung von Kohlenstoff in die Atmosphäre einen plötzlichen Anstieg der globalen Temperatur hervorrief. Das am besten dokumentierte dieser Ereignisse stellt das Paläozän-Eozäne Temperatur Maximum (PETM, ~55 Ma) dar, bei welchem die Größenordnung der Kohlenstoffzufuhr in Ozeanen und Atmosphäre jener ähnelte, die in der Zukunft zu erwarten ist. Das damalige Ereignis initiierte eine globale Erwärmung, Veränderungen hydrologischer Kreisläufe, biotische Auslöschung und Abwanderungen. Eine kürzlich veröffentlichte Hypothese zu Veränderungen in marinen Ökosystemen postuliert, dass diese globale Erwärmung die Biosphäre der Flachwässer stark beeinflusste, indem sie Aussterben und Fluktuation innerhalb der Gemeinschaft der Großforaminiferen (GF) sowie den Niedergang einiger Korallen bewirkte. Die Abfolgen der Adriatischen Karbonatplattform (SW-Slovenien) stellen einen idealen Ort dar, um die Hypothese des kausalen Zusammenhangs zwischen dem PETM und der Evolution der Flachwasserorganismen zu überprüfen, da sie aufgrund ihrer kontinuierlichen Sedimentation vom Spätpaläozän bis zum Früheozän und ihres Reichtums an Biota, insbesondere an GF, fundamentale Voraussetzungen für eine detaillierte biostratigraphische Studie erfüllen. Um die Paläoumweltbedingungen während der Sedimentablagerung zu rekonstruieren, wurde der Schwerpunkt dieser Arbeit auf eine sedimentologische Analyse und eine paäoökologische Studie benthischer Vergesellschaftungen gesetzt. Während dem Spätpaläozan bis zum frühesten Eozän fand die Sedimentation auf einem Flachwasser-Rampensystem statt, welches durch ein erhöhtes Nährstoffangebot gekennzeichnet war. GF stellen jenen häufigen und verbreiteten Bestandteil der benthischen Vergesellschaftungen dar, welcher in dieser Umgebung durch das Spätpaläozän hindurch bis ins Früheozän gedeihen konnte. Mit den in dieser Arbeit vorgestellten detaillierten bio- und chemostratigraphischen Analysen, deren Dokumentation den zur Zeit vollständigsten Datensatz für das PETM-Ereignis in einem flachmarinen Milieu repräsentieren, wurde die Evolution der GF zum ersten Mal mit δ¹³C -Kurven chemostratigraphisch korreliert. Diese Korrelation zeigte, dass in den GF-Gemeinschaften keine großmaßstäbliche Fluktuation zeitgleich mit dem PETM auftrat, und dass daher die Evolution der GF hauptsächlich durch endogene biotische Einflüsse kontrolliert worden sein muss. Die Studie mikrobiell-überkrustete Korallenhügel im Größenbereich zwischen einigen Metern und einigen Zehnermetern, die sich im Spätthanetium im mittleren Teil der Rampe entwickelten, dokumentiert das erste Auftreten mikrobiell-zementierter Erhebungen während des Känozoikums. Die Entwicklung dieser Erhebungen, mit einer zeitweiligen Dominanz der mikrobiellen Gemeinschaften gegenüber den Korallen, spricht für ein Auftreten Umwelt-gesteuerter "Phasenverschiebungen" im Zusammenhang mit häufigen Wechseln von Nahrungsangebot und Trübung während wiederkehrender nasser Phasen, welche dem extremen Treibhaus der PETM vorausgingen. Die paläoökologische Studie der Korallen-Gemeinschaften in den mikrobiell-überkrusteten Korallenhügeln, die Studie der Korallen der früheozänen Plattform in SW-Frankreich sowie eine kritische, ausgedehnte Literaturrecherche zum Auftreten spätpaläozäner bis früheozäner Korallen in der Tethys, im Atlantik und in der Karibik sprechen dafür, dass diese Korallentypen – selbst wenn sie nicht ausgedehnte Riffe formen – in der Biofazies häufig als kleine isolierte Kolonien, Berge von Geröll oder kleine Kuppelriffe auftreten. Diese Korallen könnten 'alternative' Überlebensstrategien entwickelt haben, um mit den rauen Bedingungen (hohes/wechselndes Nahrungsangebot, schwache/starke Trübung, schwankende Temperaturen, häufige physikalische Störungen) fertig zu werden, die während den Zeiten des paläogenen Treibhauses vorherrschten, und stellen damit ein gutes fossiles Analog zu modernen Korallen dar, welche nahe an ihrer Überlebensgrenze gedeihen. Diese Ergebnisse zeigen die Komplexität der biologischen Reaktionen auf extreme Bedingungen, nicht nur im Hinblick auf Temperaturen, sondern auch hinsichtlich Nahrungsangebot, physikalische Beeinträchtigungen sowie deren zeitliche Schwankungen und deren oszillierenden Charakter. KW - Paläoökologie KW - Paläoklimatologie KW - Flachwassercarbonate KW - Foraminifera KW - Korallen KW - paleoecology KW - paleoclimatology KW - shallow-water carbonates KW - foraminifera KW - corals Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-31853 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Zakrevskyy, Yuriy T1 - Liquid crystallinity and alignment of ionic self-assembly complexes T1 - Flüssigkristallinität und Alignment ionischer Self-Assembly Komplexe N2 - In this work the first observation of new type of liquid crystals is presented. This is ionic self-assembly (ISA) liquid crystals formed by introduction of oppositely charged ions between different low molecular tectonic units. As practically all conventional liquid crystals consist of rigid core and alkyl chains the attention is focused to the simplest case where oppositely charged ions are placed between a rigid core and alkyl tails. The aim of this work is to investigate and understand liquid crystalline and alignment properties of these materials. It was found that ionic interactions within complexes play the main role. Presence of these interactions restricts transition to isotropic phase. In addition, these interactions hold the system (like network) allowing crystallization into a single domain from aligned LC state. Alignment of these simple ISA complexes was spontaneous on a glass substrate. In order to show potentials for application perylenediimide and azobenzene containing ISA complexes have been investigated for correlations between phase behavior and their alignment properties. The best results of macroscopic alignment of perylenediimide-based ISA complexes have been obtained by zone-casting method. In the aligned films the columns of the complex align perpendicular to the phase-transition front. The obtained anisotropy (DR = 18) is thermally stable. The investigated photosensitive (azobenzene-based) ISA complexes show formation of columnar LC phases. It was demonstrated that photo alignment of such complexes was very effective (DR = 50 has been obtained). It was shown that photo-reorientation in the photosensitive ISA complexes is cooperative process. The size of domains has direct influence on efficiency of the photo-reorientation process. In the case of small domains the photo-alignment is the most effective. Under irradiation with linearly polarized light domains reorient in the plane of the film leading to macroscopic alignment of columns parallel to the light polarization and joining of small domains into big ones. Finally, the additional distinguishable properties of the ISA liquid crystalline complexes should be noted: (I) the complexes do not solve in water but readily solve in organic solvents; (II) the complexes have good film-forming properties when cast or spin-coated from organic solvent; (III) alignment of the complexes depends on their structure and secondary interactions between tectonic units. N2 - In dieser Arbeit wird erstmalig eine neue Klasse von Flüssigkristallen auf Basis ionischer Self-Assembly (ISA) Komplexe beschrieben. Während herkömmliche thermotrope Flüssigkristalle aus steifen, formanisotropen Molekülfragmenten und kovalent gebundenen Flügelgruppen (meist Alkylketten) bestehen, entstehen diese neuartigen supramolekularen Verbindungen durch die Komplexierung gegensätzlich geladener ionischer tektonischer Einheiten und Tenside. Ziel der Arbeit war es, die flüssigkristallinen und insbesondere die Orientierungseigenschaften dieser neuen Materialien am Beispiel repräsentativer Modellverbindungen zu untersuchen. Es wurde nachgewiesen, dass die ionischen Wechselwirkungen die thermischen Eigenschaften der Verbindungen entscheidend beeinflussen. So behindern sie den Übergang in die isotrope Phase. Das System wird quasi durch ein Netzwerk ionischer Wechselwirkungen stabilisiert. Makroskopisch orientierte LC Zustände sind offensichtlich Ausgangspunkt für hochgeordnete flüssigkristalline Filme oder gar für die Kristallisation von Monodomänen. In speziellen Fällen erfolgt eine spontane Ausbildung von ISA Monodomänen bereits auf Glassubstraten. Mit Hinblick auf potentielle Anwendungen wurden Perylendiimid und Azobenzen enthaltene ISA Komplexe insbesondere hinsichtlich von Zusammenhängen zwischen Phasenverhalten und Orientierungseigenschaften untersucht. Die zone-casting Methode erwies sich als besonders geeignet für die makroskopische Orientierung perylendiimidbasierter ISA Komplexe. In orientierten Filmen richten sich die Kolumnen des Komplexes senkrecht zur Phasenübergangsfront aus. Das dabei erreichte dichroitische Verhältnis (DR=18) ist thermisch stabil. Die untersuchten Azobenzen basierten ISA Komplexe weisen kolumnare LC Phasen auf. Durch Photoalignment mittels linear polarisierten Lichts werden Komplexe sehr effektiv senkrecht bzw. die Columnen der Komplexe parallel zur Polarisation des Lichtes orientiert, wobei sehr hohe DR bis zu 50 erreicht wurden. Weiterhin wurde gezeigt, dass die Photo-Reorientierung photosensitiver ISA Komplexe kooperativ erfolgt. Die Größe der Domänen hat dabei einen entscheidenden Einfluß auf die Effektivität des Photo-Reorientierungsprozesses. So ist der Prozess im Fall kleiner Domänen effektiver. Durch die Bestrahlung mit linear polarisiertem Licht werden die Domänen in der Filmebene reorientiert, was zu einer makroskopischen Ausrichtung der Kolumnen parallel zur Lichtpolarisation und zu einer Vereinigung kleiner Domänen führt. KW - Flüssigkristall KW - ionischer Self-Assembly KW - Komplex KW - Alignment KW - Liquid crystal KW - Ionic Self-Assembly KW - Complex KW - Alignment Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10048 ER - TY - THES A1 - Zakharova, Olga T1 - Analysis and modeling of transient earthquake patterns and their dependence on local stress regimes T1 - Analyse und Modellierung der transienten Erdbebenmuster und deren Abhängigkeit von lokalen Spannungsregimen N2 - Investigations in the field of earthquake triggering and associated interactions, which includes aftershock triggering as well as induced seismicity, is important for seismic hazard assessment due to earthquakes destructive power. One of the approaches to study earthquake triggering and their interactions is the use of statistical earthquake models, which are based on knowledge of the basic seismicity properties, in particular, the magnitude distribution and spatiotemporal properties of the triggered events. In my PhD thesis I focus on some specific aspects of aftershock properties, namely, the relative seismic moment release of the aftershocks with respect to the mainshocks; the spatial correlation between aftershock occurrence and fault deformation; and on the influence of aseismic transients on the aftershock parameter estimation. For the analysis of aftershock sequences I choose a statistical approach, in particular, the well known Epidemic Type Aftershock Sequence (ETAS) model, which accounts for the input of background and triggered seismicity. For my specific purposes, I develop two ETAS model modifications in collaboration with Sebastian Hainzl. By means of this approach, I estimate the statistical aftershock parameters and performed simulations of aftershock sequences as well. In the case of seismic moment release of aftershocks, I focus on the ratio of cumulative seismic moment release with respect to the mainshocks. Specifically, I investigate the ratio with respect to the focal mechanism of the mainshock and estimate an effective magnitude, which represents the cumulative aftershock energy (similar to Bath's law, which defines the average difference between mainshock and the largest aftershock magnitudes). Furthermore, I compare the observed seismic moment ratios with the results of the ETAS simulations. In particular, I test a restricted ETAS (RETAS) model which is based on results of a clock advanced model and static stress triggering. To analyze spatial variations of triggering parameters I focus in my second approach on the aftershock occurrence triggered by large mainshocks and the study of the aftershock parameter distribution and their spatial correlation with the coseismic/postseismic slip and interseismic locking. To invert the aftershock parameters I improve the modified ETAS (m-ETAS) model, which is able to take the extension of the mainshock rupture into account. I compare the results obtained by the classical approach with the output of the m-ETAS model. My third approach is concerned with the temporal clustering of seismicity, which might not only be related to earthquake-earthquake interactions, but also to a time-dependent background rate, potentially biasing the parameter estimations. Thus, my coauthors and I also applied a modification of the ETAS model, which is able to take into account time-dependent background activity. It can be applicable for two different cases: when an aftershock catalog has a temporal incompleteness or when the background seismicity rate changes with time, due to presence of aseismic forces. An essential part of any research is the testing of the developed models using observational data sets, which are appropriate for the particular study case. Therefore, in the case of seismic moment release I use the global seismicity catalog. For the spatial distribution of triggering parameters I exploit two aftershock sequences of the Mw8.8 2010 Maule (Chile) and Mw 9.0 2011 Tohoku (Japan) mainshocks. In addition, I use published geodetic slip models of different authors. To test our ability to detect aseismic transients my coauthors and I use the data sets from Western Bohemia (Central Europe) and California. Our results indicate that: (1) the seismic moment of aftershocks with respect to mainshocks depends on the static stress changes and is maximal for the normal, intermediate for thrust and minimal for strike-slip stress regimes, where the RETAS model shows a good correspondence with the results; (2) The spatial distribution of aftershock parameters, obtained by the m-ETAS model, shows anomalous values in areas of reactivated crustal fault systems. In addition, the aftershock density is found to be correlated with coseismic slip gradient, afterslip, interseismic coupling and b-values. Aftershock seismic moment is positively correlated with the areas of maximum coseismic slip and interseismically locked areas. These correlations might be related to the stress level or to material properties variations in space; (3) Ignoring aseismic transient forcing or temporal catalog incompleteness can lead to the significant under- or overestimation of the underlying trigger parameters. In the case when a catalog is complete, this method helps to identify aseismic sources. N2 - Untersuchungen im Bereich der Erdbebennukleation, sowie der Erdbebeninteraktion und induzierter Seismizität, sind wegen des enormen Zerstörungspotenzials von Erdbeben besonders wichtig für seismische Gefährdungsanalysen. In meiner Doktorarbeit fokussiere ich mich auf einige Eigenschaften von Nachbeben, insbesondere auf deren freigesetztes seismisches Moment in Relation zum Hauptbeben, die räumliche Korrelation zwischen der Nachbebenaktivität und der Deformationsgeschichte der Verwerfung und den Einfluss von aseismischen Transienten auf die Bestimmung von Nachbebenparametern. Ich habe einen statistischen Ansatz für die Analyse der Nachbebensequenzen gewählt. Das sogenannte Epidemic Type Aftershock Sequence (ETAS) Modell berücksichtigt sowohl Hintergrundseismizität als auch getriggerte Erdbebenaktivität. Für meine Zwecke habe ich zusammen mit Sebastian Hainzl zwei Modifikationen für dieses ETAS Modell entwickelt. Mittels dieser Ansätze habe ich die statistischen Parameter der Nachbebenaktivität bestimmt und Simulationen von Nachbebensequenzen durchgeführt. Im Falle des freigesetzten seismischen Moments von Nachbeben habe ich das Verhältnis des kummulativen Moments der Nachbeben in Bezug zum Hauptbeben untersucht. Im Speziellen betrachte ich das Verhältnis in Bezug auf den Herdmechanismus des Hauptbebens und bestimme eine effektive Magnitude, welche die kummulative Nachbebenenergie darstellt (ähnlich zu Bath's Gesetz, welches den durchschnittlichen Unterschied zwischen der Hauptbebenmagnitude und der Magnitude des größten Nachbebens beschreibt). Desweiteren vergleiche ich das Verhältnis des beobachteten seismischen Moments mit den Ergebnissen von ETAS-basierten Simulationen. Dabei teste ich ein Restricted ETAS (RETAS) Modell, welches auf den Resultaten eines Clock-Advance Modells und den durch das Hauptbeben ausgelösten statischen Spannungsänderungen basiert. Um die räumliche Variation der Trigger-Parameter zu analysieren, fokussiere ich mich in meinem zweiten Modellansatz auf das Auftreten von Nachbeben infolge von großen Hauptbeben, sowie die Verteilung von Nachbebenparametern und deren räumliche Korrelation mit ko-/post-seismischen Verschiebungen und inter-seismischer Verhakung. Zum Bestimmen der Nachbebenparameter habe ich ein modifiziertes ETAS (m-ETAS) Modell analysiert, welches die räumliche Ausdehnung des Hauptbebenbruches berücksichtigen kann. Ich vergleiche die Ergebnisse des klassischen Ansatzes mit denen des m-ETAS Modells. Mein dritter Versuch beschäftigt sich mit dem zeitlichen Clustern der Seismizität, welche nicht nur auf Erdbeben-Erdbeben-Interaktion zurückzuführen ist, sondern auch auf eine zeitabhängige Hintergrundrate, die die Parameterabschätzung verfälschen kann. Meine Koautoren und ich haben dem ETAS Modell darum eine weitere Modifikation hinzugefügt, welche in der Lage ist, eine zeitabhängige Hintergrundaktivität einzubeziehen. Dieses Modell kann auf zwei Fälle angewendet werden, einerseits wenn ein Erdbebenkatalog zeitlich unvollständig ist und andererzeits wenn sich die Hintergrundseismizität, durch Vorhandensein aseismischer Kräfte, zeitlich verändert. Ein wichtiger Teil dieser Forschung ist es die entwickelten Modelle anhand von beobachteten Daten zu testen. Darum benutze ich im Falle des freigesetzten seismischen Moments einen globalen Erdbebenkatalog. Zur Bestimmung der räumlichen Verteilung von Trigger-Parametern untersuche ich zwei Nachbebensequenzen, die des 2010er Maule (Chile) Mw8.8 Erdbebens und die des 2011er Tohoku (Japan) Mw9.0 Erdbebens. Zusätzlich benutze ich publizierte geodätische Verschiebungsmodelle verschiedener Autoren. Um die Detektionsfähigkeit für aseismische Transienten zu testen, benutzen meine Koautoren und ich Daten aus West-Böhmen (Zentraleuropa) und Kalifornien. Unsere Ergebnisse zeigen: (1) Das Verhältnis des kumulativen seismischen Moments der Nachbeben zum Hauptbeben ist von den statischen Spannungsänderung abhängig und ist maximal in Spannungsregimen dominiert von Abschiebungen, mittel für Überschiebungen und minimal für Blattverschiebungen, wobei das RETAS Modell eine gute Korrelation mit unseren Ergebnissen zeigt. (2) Die mit dem m-ETAS Modell erhaltene räumliche Verteilung von Nachbebenparametern zeigt ungewöhnliche Werte in Gebieten reaktivierter krustaler Verwerfungssysteme. Zusätzlich fanden wir heraus, dass die Nachbebendichte mit dem ko-seismischen Verschiebungsgradienten, Nachkriechen, inter-seismischer Kopplung und b-Werten korreliert. Das seismische Moment untersuchter Nachbeben ist positiv korreliert mit Bereichen maximaler koseismischer Verschiebungen und interseismisch blockierten Bereichen. Diese Korrelation könnte dem Spannungsniveau oder räumlicher Variation der Materialeigenschaften geschuldet sein. (3) Wenn man aseismische transiente Kräfte oder zeitliche Katalogunvollständigkeit ignoriert, kann das zu signifikantem Unter- oder Überschätzen der zugrunde liegenden Seismizitäts-Parametern führen. Im Fall eines kompletten Katalogs kann diese Methode helfen, aseismische Quellen zu identifizieren. KW - aftershocks KW - statistical seismology KW - transient earthquake patterns KW - ETAS model KW - uncertainty estimation KW - statistische Seismologie KW - Nachbeben KW - transiente Erdbebenmuster KW - ETAS Modell KW - Abschätzung der Unsicherheiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86455 ER - TY - THES A1 - Zakariás, Lilla T1 - Transfer effects after working memory training in post-stroke aphasia T1 - Transfereffekte nach Arbeitsgedächtnistraining bei Aphasie nach Schlaganfall N2 - Background: Individuals with aphasia after stroke (IWA) often present with working memory (WM) deficits. Research investigating the relationship between WM and language abilities has led to the promising hypothesis that treatments of WM could lead to improvements in language, a phenomenon known as transfer. Although recent treatment protocols have been successful in improving WM, the evidence to date is scarce and the extent to which improvements in trained tasks of WM transfer to untrained memory tasks, spoken sentence comprehension, and functional communication is yet poorly understood. Aims: We aimed at (a) investigating whether WM can be improved through an adaptive n-back training in IWA (Study 1–3); (b) testing whether WM training leads to near transfer to unpracticed WM tasks (Study 1–3), and far transfer to spoken sentence comprehension (Study 1–3), functional communication (Study 2–3), and memory in daily life in IWA (Study 2–3); and (c) evaluating the methodological quality of existing WM treatments in IWA (Study 3). To address these goals, we conducted two empirical studies – a case-controls study with Hungarian speaking IWA (Study 1) and a multiple baseline study with German speaking IWA (Study 2) – and a systematic review (Study 3). Methods: In Study 1 and 2 participants with chronic, post-stroke aphasia performed an adaptive, computerized n-back training. ‘Adaptivity’ was implemented by adjusting the tasks’ difficulty level according to the participants’ performance, ensuring that they always practiced at an optimal level of difficulty. To assess the specificity of transfer effects and to better understand the underlying mechanisms of transfer on spoken sentence comprehension, we included an outcome measure testing specific syntactic structures that have been proposed to involve WM processes (e.g., non-canonical structures with varying complexity). Results: We detected a mixed pattern of training and transfer effects across individuals: five participants out of six significantly improved in the n-back training. Our most important finding is that all six participants improved significantly in spoken sentence comprehension (i.e., far transfer effects). In addition, we also found far transfer to functional communication (in two participants out of three in Study 2) and everyday memory functioning (in all three participants in Study 2), and near transfer to unpracticed n-back tasks (in four participants out of six). Pooled data analysis of Study 1 and 2 showed a significant negative relationship between initial spoken sentence comprehension and the amount of improvement in this ability, suggesting that the more severe the participants’ spoken sentence comprehension deficit was at the beginning of training, the more they improved after training. Taken together, we detected both near far and transfer effects in our studies, but the effects varied across participants. The systematic review evaluating the methodological quality of existing WM treatments in stroke IWA (Study 3) showed poor internal and external validity across the included 17 studies. Poor internal validity was mainly due to use of inappropriate design, lack of randomization of study phases, lack of blinding of participants and/or assessors, and insufficient sampling. Low external validity was mainly related to incomplete information on the setting, lack of use of appropriate analysis or justification for the suitability of the analysis procedure used, and lack of replication across participants and/or behaviors. Results in terms of WM, spoken sentence comprehension, and reading are promising, but further studies with more rigorous methodology and stronger experimental control are needed to determine the beneficial effects of WM intervention. Conclusions: Results of the empirical studies suggest that WM can be improved with a computerized and adaptive WM training, and improvements can lead to transfer effects to spoken sentence comprehension and functional communication in some individuals with chronic post-stroke aphasia. The fact that improvements were not specific to certain syntactic structures (i.e., non-canonical complex sentences) in spoken sentence comprehension suggest that WM is not involved in the online, automatic processing of syntactic information (i.e., parsing and interpretation), but plays a more general role in the later stage of spoken sentence comprehension (i.e., post-interpretive comprehension). The individual differences in treatment outcomes call for future research to clarify how far these results are generalizable to the population level of IWA. Future studies are needed to identify a few mechanisms that may generalize to at least a subpopulation of IWA as well as to investigate baseline non-linguistic cognitive and language abilities that may play a role in transfer effects and the maintenance of such effects. These may require larger yet homogenous samples. N2 - Patienten mit einer Aphasie nach einem Schlaganfall weisen häufig auch Beeinträchtigungen des Arbeitsgedächtnisses auf. Studien, die das Zusammenspiel von Arbeitsgedächtnis und Sprachfähigkeit untersuchen führten zu der Hypothese, dass ein Training des Arbeitsgedächtnisses auch zu Verbesserungen der Sprache führen könnten (sogenannte Transfer-Effekte). Obwohl jüngste Therapiestudien nachweislich die Leistung des Arbeitsgedächtnisses verbessern konnten, gibt es derzeitig nur wenig Evidenzen, ob und in welchem Ausmaß sich Verbesserungen des Arbeitsgedächtnisses auch auf ungeübte Gedächtnisaufgaben, das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag auswirken können. Das vorliegende Dissertationsprojekt untersucht, ob (a) das Arbeitsgedächtnis bei Patienten mit einer Aphasie über ein adaptiertes N-Back-Training verbessert werden kann (Studie 1–3) und (b) das Arbeitsgedächtnistraining zu einem nahen Transfer auf ungeübte Arbeitsgedächtnisaufgaben (Studie 1–3) und zu einem weiten Transfer auf auditive Satzverständnisaufgaben (Studie 1–3), auf die Alltagskommunikation (Studie 2–3) und auf das Alltagsgedächtnis (Studie 2–3) bei Patienten mit einer Aphasie führt. Zudem evaluiert das vorliegende Projekt (c) die methodische Qualität bereits existierender Arbeitsgedächtnistrainings bei Patienten mit einer Aphasie (Studie 3). Zur Beantwortung der vorliegenden Studienfragen wurden zwei empirische Studien (Studie 1 und 2) sowie ein systematisches Review (Studie 3) durchgeführt. In Studie 1 und 2 durchliefen Studienteilnehmer mit einer chronischen Aphasie nach einem Schlaganfall ein adaptiertes N-Back-Training. Es zeigte sich ein sehr gemischtes Trainingsmuster und Transfereffekte bei den Studienteilnehmern: Fünf von sechs Probanden verbesserten sich signifikant beim N-Back-Training. Alle sechs Probanden zeigten zudem signifikante weite Transfereffekte auf das auditive Satzverständnis. Darüber hinaus konnte ein weiter Transfereffekt auf die Kommunikationsfähigkeit und das Gedächtnis im Alltag sowie ein naher Transfer auf ungeübte N-Back-Aufgaben nachgewiesen werden. Allerdings schwankte das Transferverhalten innerhalb der Probanden stark. Das systematische Review (Studie 3) zeigte eine schwache interne und externe Validität über die 17 eingeschlossenen Studien. Obwohl die Ergebnisse bezüglich des Arbeitsgedächtnisses, des auditiven Satzverständnisses und des Lesens trotz der methodischen Einschränkungen der untersuchten Studien vielversprechend sind, sollten Schlussfolgerungen über die positiven Transfereffekte von Arbeitsgedächtnistrainings dennoch mit Vorsicht betrachtet werden. Die Ergebnisse der empirischen Studien zeigten, dass sich mit Hilfe eines computergestützten und adaptiven Trainings das Arbeitsgedächtnis verbessert und zudem ein Transfer auf das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag bei einigen Patienten mit einer chronischen Aphasie nach einem Schlaganfall erzielt werden konnte. Es sind jedoch weitere Studien notwendig, um den Einfluss individueller Unterschiede auf die individuellen Transfermaße aufzudecken und eine Generalisierbarkeit der Ergebnisse auf Untergruppen aphasischer Teilnehmer zu beleuchten. Darüber hinaus werden zukünftige Studien benötigt, die die Rolle der Baseline nicht-linguistischer kognitiver Fähigkeiten und der Sprachproduktion sowie die Aufrechterhaltung von Transfereffekte weiter untersuchen. KW - aphasia KW - working memory KW - treatment KW - Aphasie KW - Arbeitsgedächtnis KW - Therapie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423600 ER - TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Zaehle, Sönke T1 - Process-based simulation of the terrestrial biosphere : an evaluation of present-day and future terrestrial carbon balance estimates and their uncertainty T1 - Prozessbasierte Modellierung der terrestrischen Biosphäre : eine Auswertung heutiger und zukünftiger terrestrischer Kohlenstoffbilanzabschätzungen und ihrer Unsicherheit N2 - At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere. N2 - Kohlenstoffspeicherung in terrestrischen Ökosystemen reduziert derzeit die Wirkung anthropogener CO2-Emissionen auf das Klimasystem, indem sie die Wachstumsrate der atmosphärischer CO2-Konzentration verlangsamt. Die heutige terrestrische Kohlenstoffbilanz wird wesentlich von Klima- und Landnutzungsänderungen beeinflusst. Diese Einflussfaktoren werden sich auch in den kommenden Dekaden auf die terrestrische Biosphäre auswirken, und dabei möglicherweise zu einer positiven Rückkopplung zwischen Biosphäre und Klimasystem aufgrund von starken Bodenkohlenstoffverlusten in einem wärmeren Klima führen. Quantitative Abschätzungen der Wirkung dieser Einflussfaktoren - sowie der mit ihnen verbundenen Unsicherheit - auf die terrestrische Kohlenstoffbilanz sind daher sowohl für das Verständnis des Erdsystems, als auch für eine langfristig angelegte Klimaschutzpolitik relevant. Um regionale Kohlenstoffbilanzen in die Zukunft zu projizieren, sind Modelle erforderlich, die die wesentlichen Prozesse des terrestrischen Kohlenstoffkreislaufes beschreiben. Die vorliegende Arbeit (1) analysiert die parameterbasierte Unsicherheit in Modellergebnissen eines der führenden globalen terrestrischen Ökosystemmodelle (LPJ-DGVM) im Vergleich mit unterschiedlichen ökosystemaren Messgrößen, sowie unter Klimawandelprojektionen, und erweitert damit bereits vorliegende Studien zu anderen Aspekten der Modelunsicherheit; (2) diskutiert unter theoretischen und experimentellen Aspekten verschiedene Hypothesen über die altersbedingte Abnahme des Waldwachstums, und implementiert die vielversprechenste Hypothese in das Model; (3) zeigt für eine europäische Fallstudie, wie Waldbestandsstatistiken erfolgreich für eine verbesserte Abschätzung von regionalen Kohlenstoffbilanzen in Wäldern durch prozessbasierten Modelle angewandt werden können; (4) untersucht die Auswirkung möglicher zukünftiger Klima- und Landnutzungsänderungen auf die europäische Kohlenstoffbilanz anhand von vier verschiedenen illustrativen Szenarien, jeweils unter Berücksichtigung von Klimawandelprojektionen vier verschiedener Klimamodelle. Eine erweiterte Version von LPJ-DGVM findet hierfür Anwendung, die eine umfassende Beschreibung der Hauptlandnutzungstypen beinhaltet. Die vorliegende Arbeit stellt einen Ansatz vor, um Unsicherheiten in der prozessbasierten Abschätzung von terrestrischen Kohlenstoffbilanzen auf regionaler Skala zu untersuchen und zu reduzieren. Die Ergebnisse dieser Arbeit zeigen, dass der Nettokohlenstoffaustausch zwischen terrestrischer Biosphäre und Atmosphäre unter heutigen klimatischen Bedingungen relativ sicher abgeschätzt werden kann, obwohl erhebliche Unsicherheit über die modelbasierte terrestrische Nettoprimärproduktion existiert. Prozessbasierte Modellierung und Waldbestandsstatistiken wurden erfolgreich kombiniert, um verbesserte Abschätzungen von regionalen Kohlenstoffvorräten und ihrer Änderung mit der Zeit zu ermöglichen. Die Anwendung des angepassten Modells in 77 europäischen Regionen zeigt, dass modellbasierte Abschätzungen des Biomasseaufwuchses in Wäldern weitgehend mit inventarbasierten Abschätzungen für verschiede Baumarten übereinstimmen. Unter Berücksichtigung von historischen Änderungen in Klima, atmosphärischem CO2-Gehalt, Waldfläche und Holzernte (1948-2000) reproduziert das Model auf europäischer Ebene die heutigen, auf Bestandsstatistiken beruhenden, Abschätzungen von Waldaltersstruktur, das Verhältnis von Zuwachs und Entnahme von Biomasse, sowie die Speicherungsraten im Kohlenstoffspeicher der Vegetation. Alternative Szenarien von zukünftigen Landnutzungs- und Klimaänderungen legen nahe, dass die Kohlenstoffaufnahme der europäischen terrestrischen Biosphäre von relevanter Größenordnung für Klimaschutzstrategien sind. Die Speicherungsraten sind jedoch klein im Vergleich zu den absoluten europäischen CO2-Emissionen, und nehmen zudem sehr wahrscheinlich gegen Ende des 21. Jahrhunderts ab. Unsicherheiten in Klimaprojektionen sind eine Hauptursache für die Unsicherheiten in den modellbasierten Abschätzungen des zukünftigen Nettokohlenstoffaustausches und müssen daher in Klimaschutzanalysen der terrestrischen Biosphäre berücksichtigt werden. KW - Terrestrische Ökologie KW - Kohlenstoffkreislauf KW - Modellierung KW - Landnutzung KW - Anthropogene Klimaänderung KW - dynamic global vegetation model KW - terrestrial carbon balance KW - forest age-structure KW - model uncertainty KW - global change Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5263 ER - TY - THES A1 - Youk, Sol T1 - Molecular design of heteroatom-doped nanoporous carbons with controlled porosity and surface polarity for gas physisorption and energy storage N2 - The world energy consumption has constantly increased every year due to economic development and population growth. This inevitably caused vast amount of CO2 emission, and the CO2 concentration in the atmosphere keeps increasing with economic growth. To reduce CO2 emission, various methods have been developed but there are still many bottlenecks to be solved. Solvents easily absorbing CO2 such as monoethanol-amine (MEA) and diethanolamine, for example, have limitations of solvent loss, amine degradation, vulnerability to heat and toxicity, and the high cost of regeneration which is especially caused due to chemisorption process. Though some of these drawbacks can be compensated through physisorption with zeolites and metal-organic frameworks (MOFs) by displaying significant adsorption selectivity and capacity even in ambient conditions, limitations for these materials still exist. Zeolites demand relatively high regeneration energy and have limited adsorption kinetics due to the exceptionally narrow pore structure. MOFs have low stability against heat and moisture and high manufacturing cost. Nanoporous carbons have recently received attention as an attractive functional porous material due to their unique properties. These materials are crucial in many applications of modern science and industry such as water and air purification, catalysis, gas separation, and energy storage/conversion due to their high chemical and thermal stability, and in particular electronic conductivity in combination with high specific surface areas. Nanoporous carbons can be used to adsorb environmental pollutants or small gas molecules such as CO2 and to power electrochemical energy storage devices such as batteries and fuel cells. In all fields, their pore structure or electrical properties can be modified depending on their purposes. This thesis provides an in-depth look at novel nanoporous carbons from the synthetic and the application point of view. The interplay between pore structure, atomic construction, and the adsorption properties of nanoporous carbon materials are investigated. Novel nanoporous carbon materials are synthesized by using simple precursor molecules containing heteroatoms through a facile templating method. The affinity, and in turn the adsorption capacity, of carbon materials toward polar gas molecules (CO2 and H2O) is enhanced by the modification of their chemical construction. It is also shown that these properties are important in electrochemical energy storage, here especially for supercapacitors with aqueous electrolytes which are basically based on the physisorption of ions on carbon surfaces. This shows that nanoporous carbons can be a “functional” material with specific physical or chemical interactions with guest species just like zeolites and MOFs. The synthesis of sp2-conjugated materials with high heteroatom content from a mixture of citrazinic acid and melamine in which heteroatoms are already bonded in specific motives is illustrated. By controlling the removal procedure of the salt-template and the condensation temperature, the role of salts in the formation of porosity and as coordination sites for the stabilization of heteroatoms is proven. A high amount of nitrogen of up to 20 wt. %, oxygen contents of up to 19 wt.%, and a high CO2/N2 selectivity with maximum CO2 uptake at 273 K of 5.31 mmol g–1 are achieved. Besides, the further controlled thermal condensation of precursor molecules and advanced functional properties on applications of the synthesized porous carbons are described. The materials have different porosity and atomic construction exhibiting a high nitrogen content up to 25 wt. % as well as a high porosity with a specific surface area of more than 1800 m2 g−1, and a high performance in selective CO2 gas adsorption of 62.7. These pore structure as well as properties of surface affect to water adsorption with a remarkably high Qst of over 100 kJ mol−1 even higher than that of zeolites or CaCl2 well known as adsorbents. In addition to that, the pore structure of HAT-CN-derived carbon materials during condensation in vacuum is fundamentally understood which is essential to maximize the utilization of porous system in materials showing significant difference in their pore volume of 0.5 cm3 g−1 and 0.25 cm3 g−1 without and with vacuum, respectively. The molecular designs of heteroatom containing porous carbon derived from abundant and simple molecules are introduced in the presented thesis. Abundant precursors that already containing high amount of nitrogen or oxygen are beneficial to achieve enhanced interaction with adsorptives. The physical and chemical properties of these heteroatom-doped porous carbons are affected by mainly two parameters, that is, the porosity from the pore structure and the polarity from the atomic composition on the surface. In other words, controlling the porosity as well as the polarity of the carbon materials is studied to understand interactions with different guest species which is a fundamental knowledge for the utilization on various applications. N2 - Nanoporöse Kohlenstoffe haben in letzter Zeit aufgrund ihrer einzigartigen Eigenschaften als ein attraktives funktionelles poröses Material Aufmerksamkeit erregt. Diese Materialien sind aufgrund ihrer hohen chemischen und thermischen Stabilität und insbesondere aufgrund ihrer elektronischen Leitfähigkeit in Kombination mit hohen spezifischen Oberflächen von entscheidender Bedeutung für viele Anwendungen der modernen Wissenschaft und Industrie wie Wasser- und Luftreinigung, Katalyse, Gastrennung und Energiespeicherung/-umwandlung. Nanoporöse Kohlenstoffe können verwendet werden, um Umweltschadstoffe oder kleine Gasmoleküle wie CO2 zu adsorbieren und elektrochemische Energiespeicher wie Batterien und Brennstoffzellen anzutreiben. Ihre Porenstruktur oder ihre elektrischen Eigenschaften je nach Einsatzzweck modifiziert werden. Diese Arbeit bietet einen eingehenden Blick auf neuartige nanoporöse Kohlenstoffe aus synthetischer und anwendungstechnischer Sicht. Das Zusammenspiel zwischen Porenstruktur, atomarem Aufbau und den Adsorptionseigenschaften von nanoporösen Kohlenstoffmaterialien wird untersucht. Neuartige nanoporöse Kohlenstoffmaterialien werden unter Verwendung einfacher Vorläufermoleküle, die Heteroatome enthalten, durch ein einfaches Templatverfahren synthetisiert. Die Affinität und damit die Adsorptionskapazität von Kohlenstoffmaterialien gegenüber polaren Gasmolekülen (CO2 und H2O) wird durch die Modifikation ihres chemischen Aufbaus erhöht. Es wird auch gezeigt, dass diese Eigenschaften bei der elektrochemischen Energiespeicherung wichtig sind. Hier insbesondere für Superkondensatoren mit wässrigen Elektrolyten, die grundsätzlich auf der Physisorption von Ionen an Kohlenstoffoberflächen beruhen. Dies zeigt, dass nanoporöse Kohlenstoffe, genauso wie Zeolithen und MOFs, ein „funktionelles“ Material mit spezifischen physikalischen oder chemischen Wechselwirkungen mit Gastspezien sein können. Mit den Vorteilen einer hohen elektrischen Leitfähigkeit, einer gut entwickelten Porenstruktur und einer stark hydrophilen Oberflächenstruktur sind nanoporöse Kohlenstoffe vielversprechende Materialien, die weitreichende Auswirkungen auf verschiedene Bereiche des zukünftigen Energiebedarfs haben. KW - porous carbon KW - gas adsorption KW - energy storage KW - N-doped carbon KW - poröser Kohlenstoff KW - Gasadsorption KW - Energiespeicher KW - N-dotierter Kohlenstoff Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-539098 ER - TY - THES A1 - Youakim, Kris T1 - Galactic archaeology with metal-poor stars from the Pristine survey N2 - The Milky Way is a spiral galaxy consisting of a disc of gas, dust and stars embedded in a halo of dark matter. Within this dark matter halo there is also a diffuse population of stars called the stellar halo, that has been accreting stars for billions of years from smaller galaxies that get pulled in and disrupted by the large gravitational potential of the Milky Way. As they are disrupted, these galaxies leave behind long streams of stars that can take billions of years to mix with the rest of the stars in the halo. Furthermore, the amount of heavy elements (metallicity) of the stars in these galaxies reflects the rate of chemical enrichment that occurred in them, since the Universe has been slowly enriched in heavy elements (e.g. iron) through successive generations of stars which produce them in their cores and supernovae explosions. Therefore, stars that contain small amounts of heavy elements (metal-poor stars) either formed at early times before the Universe was significantly enriched, or in isolated environments. The aim of this thesis is to develop a better understanding of the substructure content and chemistry of the Galactic stellar halo, in order to gain further insight into the formation and evolution of the Milky Way. The Pristine survey uses a narrow-band filter which specifically targets the Ca II H & K spectral absorption lines to provide photometric metallicities for a large number of stars down to the extremely metal-poor (EMP) regime, making it a very powerful data set for Galactic archaeology studies. In Chapter 2, we quantify the efficiency of the survey using a preliminary spectroscopic follow-up sample of ~ 200 stars. We also use this sample to establish a set of selection criteria to improve the success rate of selecting EMP candidates for follow-up spectroscopy. In Chapter 3, we extend this work and present the full catalogue of ~ 1000 stars from a three year long medium resolution spectroscopic follow-up effort conducted as part of the Pristine survey. From this sample, we compute success rates of 56% and 23% for recovering stars with [Fe/H] < -2.5 and [Fe/H] < -3.0, respectively. This demonstrates a high efficiency for finding EMP stars as compared to previous searches with success rates of 3-4%. In Chapter 4, we select a sample of ~ 80000 halo stars using colour and magnitude cuts to select a main sequence turnoff population in the distance range 6 < dʘ < 20 kpc. We then use the spectroscopic follow-up sample presented in Chapter 3 to statistically rescale the Pristine photometric metallicities of this sample, and present the resulting corrected metallicity distribution function (MDF) of the halo. The slope at the metal-poor end is significantly shallower than previous spectroscopic efforts have shown, suggesting that there may be more metal-poor stars with [Fe/H] < -2.5 in the halo than previously thought. This sample also shows evidence that the MDF of the halo may not be bimodal as was proposed by previous works, and that the lack of globular clusters in the Milky Way may be the result of a physical truncation of the MDF rather than just statistical under-sampling. Chapter 5 showcases the unexpected capability of the Pristine filter for separating blue horizontal branch (BHB) stars from Blue Straggler (BS) stars. We demonstrate a purity of 93% and completeness of 91% for identifying BHB stars, a substantial improvement over previous works. We then use this highly pure and complete sample of BHB stars to trace the halo density profile out to d > 100 kpc, and the Sagittarius stream substructure out to ~ 130 kpc. In Chapter 6 we use the photometric metallicities from the Pristine survey to perform a clustering analysis of the halo as a function of metallicity. Separating the Pristine sample into four metallicity bins of [Fe/H] < -2, -2 < [Fe/H] < -1.5, -1.5 < [Fe/H] < -1 and -0.9 < [Fe/H] < -0.8, we compute the two-point correlation function to measure the amount of clustering on scales of < 5 deg. For a smooth comparison sample we make a mock Pristine data set generated using the Galaxia code based on the Besançon model of the Galaxy. We find enhanced clustering on small scales (< 0.5 deg) for some regions of the Galaxy for the most metal-poor bin ([Fe/H] < -2), while in others we see large scale signals that correspond to known substructures in those directions. This confirms that the substructure content of the halo is highly anisotropic and diverse in different Galactic environments. We discuss the difficulties of removing systematic clustering signals from the data and the limitations of disentangling weak clustering signals from real substructures and residual systematic structure in the data. Taken together, the work presented in this thesis approaches the problem of better understanding the halo of our Galaxy from multiple angles. Firstly, presenting a sizeable sample of EMP stars and improving the selection efficiency of EMP stars for the Pristine survey, paving the way for the further discovery of metal-poor stars to be used as probes to early chemical evolution. Secondly, improving the selection of BHB distance tracers to map out the halo to large distances, and finally, using the large samples of metal-poor stars to derive the MDF of the inner halo and analyse the substructure content at different metallicities. The results of this thesis therefore expand our understanding of the physical and chemical properties of the Milky Way stellar halo, and provide insight into the processes involved in its formation and evolution. N2 - Die Milchstraße ist eine Spiralgalaxie, die aus einer Scheibe aus Gas, Staub und Sternen besteht und in einen Halo aus dunkler Materie eingebettet ist. Der Halo beherbergt auch eine diffuse Sternpopulation, den sogenanten stellaren Halo, welcher seit Milliarden von Jahren kleinere Galaxien verschlingt, die durch das große Gravitationspotenzial der Milchstraße angezogen werden. Wenn sie von der Gezeitenkraft der Milchstraße zerrissen werden, hinterlassen diese Galaxien lange Sternenströme, die ihrerseits Milliarden von Jahren überdauern können, bis sie sich komplett mit dem Rest der Halosterne vermischen. Die Menge an schweren chemischen Elementen (Metallizität) in den Sternen dieser Galaxien verrät uns ihre Sternentstehungsgeschichte: aufeinanderfolgende Generationen von Sternen und ihre Supernovae Explosionen reichern die Galaxie langsam mit schweren Elementen an. Sterne mit sehr wenig schweren Elementen (metallarme Sterne) bildeten sich daher entweder früh vor der signifikanten Anreicherung des Universums, oder in isolierten Umgebungen. Das Ziel dieser Arbeit ist eine genauere Charakterisierung der Struktur und Zusammensetzung des galaktischen stellaren Halos, um so die Entstehung und Entwicklung der Milchstraße besser zu verstehen. Metallarme Sterne sind schwierig zu finden, da sie viel seltener sind als Sterne mit höherer Metallizität, wie etwa unsere Sonne. Die Pristine Survey verwendet einen Schmalbandfilter, um metallarme Sterne photometrisch zu identifizieren, und kann daher Metallizitäten für eine große Anzahl von Sternen viel schneller bestimmen als spektroskopische Untersuchungen. Dies macht die Pristine Survey zu einem wertvollen Datensatz für Studien der Frühgeschichte der Milchstraße. In Kapitel 2 quantifizieren wir die Effizienz der Survey mit einer Stichprobe von ca. 200 Sternen, die spektroskopisch nachbeobachtet wurden. Wir verwenden diese Stichprobe auch, um eine Reihe von Auswahlkriterien festzulegen, um die Erfolgsrate bei der Auswahl metallarmer Kandidaten für die Folgespektroskopie zu verbessern. In Kapitel 3 erweitern wir diese Arbeit und präsentieren den vollständigen Katalog von ca. 1000 Sternen aus einem dreijährigen spektroskopischen Follow-up-Projekt, das im Rahmen der Pristine Survey durchgeführt wurde. Diese Stichprobe zeigt, dass die Pristine Survey circa fünfmal effizienter im Finden extrem metallarmer Sterne ist als frühere Studien. In Kapitel 4 wählen wir eine Stichprobe von ca. 80000 Halosternen aus der Pristine Survey aus, um die Verteilung der Sterne an verschiedenen Metallizitäten im Halo zu analysieren. Wir verwenden die spektroskopische Stichprobe von Kapitel 3 für die Reskalierung der photometrischen Metallizitäten, um Verzerrungen in der Probe zu reduzieren. Die Steigung am metallarmen Ende dieser Verteilung ist deutlich flacher als in früheren spektroskopischen Studien gemessen. Das bedeutet, dass es viel mehr sehr metallarme Sterne im Halo geben könnte als bisher angenommen. Blaue Horizontalaststerne (BHB-Sterne) sind sehr hell und ihre Entfernungen können sehr genau bestimmt werden. Deswegen sind sie ideale Standardkerzen für Studien von Sternpopulationen im galaktischen Halo. Kapitel 5 zeigt, wie die Pristine Survey dazu verwendet werden kann, BHB-Sterne besser zu identifizieren hinsichtlich ihrer Reinheit und Vollständigkeit als frühere Studien. Wir verwenden dann diese Stichprobe von BHB-Sternen, um das Dichteprofil des Halos sowie einige bekannte Halosubstrukturen über weite Entfernungen zu verfolgen. In Kapitel 6 verwenden wir die photometrischen Metallizitäten aus der Pristine Survey, um eine Clustering-Analyse des Halos für verschiedene Metallizitäten durchzuführen. Wir finden stärkeres Clustering auf kleiner Skala (< 0,5 Grad) für einige Regionen der Galaxie im metallärmsten Bereich, wohingegen wir in anderen Regionen große Signale sehen, die bereits bekannten Substrukturen in den jeweiligen Richtungen entsprechen. Dies zeigt die Fähigkeit dieser Methode, quantitative Vergleiche des Substrukturgehalts für verschiedene Proben und in verschiedenen galaktischen Umgebungen durchzuführen. Wir diskutieren auch die Schwierigkeiten bei der Entfernung systematischer Clustering-Signale aus den Daten und die Grenzen der Entflechtung schwacher Clustering-Signale von realen Substrukturen. Zusammengefasst nähert sich diese Arbeit dem Problem eines besseren Verständnisses unseres Galaxienhalos aus mehreren Blickwinkeln. Als erstes stellt sie die Pristine Survey vor, die uns eine neue beträchtlichen Stichprobe von extrem metallarmen Sternen mit verbesserter Selektionseffizienz liefert. Dies ebnet den Weg für die Entdeckung weiterer metallarmer Sterne, die als Sonden für die frühe chemische Evolution verwendet werden können. Außerdem verbessert diese Arbeit das Auswahlverfahren für BHB-Sterne zur großräumigen Vermessung des galaktischen Halos, die Verwendung von großen Stichproben metallarmer Sterne zur Ableitung der Metallizitätsverteilung des inneren Halos, sowie die Analyse von Halosubstrukturen für verschiedene Metallizitäten. Die Ergebnisse dieser Arbeit erweitern somit unsere Kenntnis physikalischer und chemischer Eigenschaften des Milchstraßenhalos und vertiefen unser Verständnis von dessen Entstehung und Entwicklung. T2 - Galaktische Archäologie mit metallarmen Sternen des Pristine Surveys KW - Milky Way Halo KW - Metal-poor stars KW - Dwarf galaxies KW - Galactic archaeology KW - Halo der Milchstraße KW - Metallarme Sterne KW - Zwerg Galaxien KW - Galaktische Archäologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474314 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - THES A1 - Yin, Chunhong T1 - The interplay of nanostructure and efficiency of polymer solar cells T1 - Einfluss der Nanostruktur auf die Effizienz von Polymer-Solarzellen N2 - The aim of this thesis is to achieve a deep understanding of the working mechanism of polymer based solar cells and to improve the device performance. Two types of the polymer based solar cells are studied here: all-polymer solar cells comprising macromolecular donors and acceptors based on poly(p-phenylene vinylene) and hybrid cells comprising a PPV copolymer in combination with a novel small molecule electron acceptor. To understand the interplay between morphology and photovoltaic properties in all-polymer devices, I compared the photocurrent characteristics and excited state properties of bilayer and blend devices with different nano-morphology, which was fine tuned by using solvents with different boiling points. The main conclusion from these complementary measurements was that the performance-limiting step is the field-dependent generation of free charge carriers, while bimolecular recombination and charge extraction do not compromise device performance. These findings imply that the proper design of the donor-acceptor heterojunction is of major importance towards the goal of high photovoltaic efficiencies. Regarding polymer-small molecular hybrid solar cells I combined the hole-transporting polymer M3EH-PPV with a novel Vinazene-based electron acceptor. This molecule can be either deposited from solution or by thermal evaporation, allowing for a large variety of layer architectures to be realized. I then demonstrated that the layer architecture has a large influence on the photovoltaic properties. Solar cells with very high fill factors of up to 57 % and an open circuit voltage of 1V could be achieved by realizing a sharp and well-defined donor-acceptor heterojunction. In the past, fill factors exceeding 50 % have only been observed for polymers in combination with soluble fullerene-derivatives or nanocrystalline inorganic semiconductors as the electron-accepting component. The finding that proper processing of polymer-vinazene devices leads to similar high values is a major step towards the design of efficient polymer-based solar cells. N2 - Ziel dieser Dissertation ist es, die grundlegende Arbeitsweise von polymerbasierten Solarzellen zu verstehen und ihre Leistungsfähigkeit zu erhöhen. Zwei Arten von organischen Solarzellen werden untersucht: Solarzellen, bei denen sowohl Elektronendonator und akzeptor auf Poly(p-phenylen-vinylen) basieren sowie Zellen, bei denen ein PPV-Copolymer als Elektronendonator und organische kleine Moleküle als Elektronenakzeptor fungierten. Um die Zusammenhänge zwischen Morphologie und photovoltaischen Eigenschaften zu verstehen, untersuchte ich Photoströme sowie die Eigenschaften angeregter Zustände in Zweischicht- und Mischsolarzellen mit unterschiedlicher Nano-Morphologie, welche durch die Verwendung von Lösungsmitteln mit unterschiedlichen Siedetemperaturen modifiziert wurde. Die Hauptschlussfolgerung aus diesen Messungen ist, dass der effizienzlimitierende Faktor die feldabhängige Generation freier Ladungsträger ist, wohingegen bimolekulare Rekombination oder die Extraktion der Ladungsträger die Leistungsfähigkeit von Polymer-Polymer- Solarzellen nicht beeinträchtigen. Diese Ergebnisse legen nahe, dass die gezielte Einstellung der Donator-Akzeptor-Grenzfläche von besonderer Bedeutung zum Erreichen hoher Effizienzen ist. In Hybridsolarzellen aus Polymeren und kleinen Molekülen kombinierte ich das lochleitende konjugierte Polymer M3EH-PPV mit einem neuartigen Vinazen-Molekül als Elektronen-akzeptor. Dieses Molekül bietet die Möglichkeit, entweder aus einer Lösung heraus verarbeitet oder im Hochvakuum verdampft zu werden, wodurch eine Vielzahl an unterschiedlichen Probenstrukturen realisiert werden kann. Dadurch konnte ich zeigen, dass die Struktur der aktiven Schicht einen großen Einfluss auf die photovoltaischen Eigenschaften hat. Die Solarzellen erreichten einen Füllfaktor von bis zu 57% und eine Kurzschluss¬spannung von 1 V. In der Vergangenheit konnten bei polymerbasierten Solarzellen Füllfaktoren über 50% nur in Verbindung mit Fullerenen oder nanokristallinen anorganischen Halbleitern als Akzeptoren erreicht werden. Das Resultat, dass bei geeigneter Präparation der Polymer-Vinazen-Schicht vergleichbare Ergebnisse erzielt werden können, ist ein bedeutender Schritt hin zu effizienteren Polymersolarzellen. KW - Nanostruktur KW - Polymer-Solarzelle KW - Effizienz KW - Morphologie KW - Polymer solar cells KW - nanostructure KW - efficiency KW - morphology Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29054 ER - TY - THES A1 - Yildiz, Tugba T1 - Dissecting the role of the TusA protein for cell functionality and FtsZ ring assembly in Escherichia coli T1 - Entschlüsselung der Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli N2 - In this work, the role of the TusA protein was investigated for the cell functionality and FtsZ ring assembly in Escherichia coli. TusA is the tRNA-2-thiouridine synthase that acts as a sulfur transferase in tRNA thiolation for the formation of 2-thiouridine at the position 34 (wobble base) of tRNALys, tRNAGlu and tRNAGln. It binds the persulfide form of sulfur and transfers it to further proteins during mnm5s2U tRNA modification at wobble position and for Moco biosynthesis. With this thiomodification of tRNA, the ribosome binding is more efficient and frameshifting is averted during the protein translation. Previous studies have revealed an essential role of TusA in bacterial cell physiology since deletion of the tusA gene resulted in retarded growth and filamentous cells during the exponential growth phase in a rich medium which suddenly disappeared during the stationary phase. This indicates a problem in the cell division process. Therefore the focus of this work was to investigate the role of TusA for cell functionality and FtsZ ring formation and thus the cell separation. The reason behind the filamentous growth of the tusA mutant strain was investigated by growth and morphological analyses. ΔtusA cells showed a retarded growth during the exponential phase compared to the WT strain. Also, morphological analysis of ΔtusA cells confirmed the filamentous cell shape. The growth and cell division defects in ΔtusA indicated a defect in FtsZ protein as a key player of cell division. The microscopic investigation revealed that filamentous ΔtusA cells possessed multiple DNA parts arranged next to each other. This suggested that although the DNA replication occurred correctly, there was a defect in the step where FtsZ should act; probably FtsZ is unable to assemble to the ring structure or the assembled ring is not able to constrict. All tested mutant strains (ΔtusD, ΔtusE and ΔmnmA) involved in the mnm5s2U34 tRNA modification pathway shared the similar retarded growth and filamentous cell shape like ΔtusA strain. Thus, the cell division defect arises from a defect in mnm5s2U34 tRNA thiolation. Since the FtsZ ring formation was supposed to be defective in filaments, a possible intracellular interaction of TusA and FtsZ was examined by fluorescent (EGFP and mCherry) fusion proteins expression and FRET. FtsZ expressing tusA mutant (DE3) cells showed a red mCherry signal at the cell poles, indicating that FtsZ is still in the assembling phase. Interestingly, the cellular region of EGFP-TusA fusion protein expressed in ΔtusA (DE3) was conspicuous; the EGFP signal was spread throughout the whole cell and, in addition, a slight accumulation of the EGFP-TusA fluorescence was detectable at the cell poles, the same part of the cell as for mCherry-FtsZ. Thus, this strongly suggested an interaction of TusA and FtsZ. Furthermore, the cellular FtsZ and Fis concentrations, and their change during different growth phases were determined via immunoblotting. All tested deletion strains of mnm5s2U34 tRNA modification show high cellular FtsZ and Fis levels in the exponential phase, shifting to the later growth phases. This shift reflects the retarded growth, whereby the deletion strains reach later the exponential phase. Conclusively, the growth and cell division defect, and thus the formation of filaments, is most likely caused by changes in the cellular FtsZ and Fis concentrations. Finally, the translation efficiencies of certain proteins (RpoS, Fur, Fis and mFis) in tusA mutant and in additional gene deletion strains were studied whether they were affected by using unmodified U34 tRNAs of Lys, Glu and Gln. The translation efficiency is decreased in mnm5s2U34 tRNA modification-impaired strains in addition to their existing growth and cell division defect due to the elimination of these three amino acids. Finally, these results confirm and reinforce the importance of Lys, Glu and Gln and the mnm5s2U34 tRNA thiolation for efficient protein translation. Thus, these findings verify that the translation of fur, fis and rpoS is regulated by mnm5s2U34 tRNA modifications, which is growth phase-dependent. In total, this work showed the importance of the role of TusA for bacterial cell functionality and physiology. The deletion of the tusA gene disrupted a complex regulatory network within the cell, that most influenced by the decreased translation of Fis and RpoS, caused by the absence of mnm5s2U34 tRNA modifications. The disruption of RpoS and Fis cellular network influences in turn the cellular FtsZ level in the early exponential phase. Finally, the reduced FtsZ concentration leads to elongated, filamentous E. coli cells, which are unable to divide. N2 - In dieser Arbeit wurde die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli untersucht. Bei TusA handelt es sich um die tRNA-2-Thiouridine-Synthase, die als Schwefeltransferase bei der tRNA-Thiolierung zur Bildung von 2-Thiouridin an der Position 34 (Wobble-Base) von tRNALys, tRNAGlu und tRNAGln dient. Dieses Protein bindet das Schwefelatom als Persulfid und überträgt dieses bei der mnm5s2U tRNA-Modifikation an der Wobble-Position und der Molybdän-Cofaktor (Moco)-Biosynthese auf weitere Proteine. Durch diese Thiomodifikation der tRNA wird eine effizientere Bindung des Ribosoms erreicht und zudem eine Verschiebung des Leserasters während der Proteintranslation verhindert. Frühere Studien haben eine essenzielle Rolle für TusA in der bakteriellen Zellphysiologie gezeigt: die Deletion des tusA-Gens führte zu einem verlangsamten Wachstum und filamentösen (fadenförmigen) Zellen als WT-Zellen während der exponentiellen Wachstumsphase in einem reichhaltigen Medium. In der stationären Phase waren diese Filamente hingegen nicht mehr zu beobachten, was auf einen Defekt während der Zellteilung hindeutete. Ziel dieser Arbeit war es daher die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung zu analysieren. Im Rahmen der vorliegenden Doktorarbeit wurde die Ursache für das filamentöse Wachstum der tusA-Mutante untersucht. Dafür wurden Wachstums- und Morphologieanalysen durchgeführt. Die ΔtusA-Zellen zeigten im Vergleich zum WT-Stamm ein verzögertes Wachstum in der exponentiellen Phase. Die filamentöse Zellform der ΔtusA-Zellen wurde ebenfalls durch die Analyse der Zellmorphologie bestätigt. Demnach deutete das Wachstums- und Zellteilungsproblem von ΔtusA auf einen Defekt des FtsZ-Proteins hin, das eine Schlüsselrolle bei der Zellteilung besitzt. Anhand von mikroskopischen Untersuchungen konnte gezeigt werden, dass die filamentöse ΔtusA-Zellen mehrere nebeneinander angeordnete DNA-Abschnitte besaßen. Dies ließ die Vermutung zu, dass trotz korrekt verlaufender DNA-Replikation, ein Defekt in dem Schritt, in dem FtsZ einsetzen sollte, vorliegt. Folglich scheint FtsZ sich nicht zur Ringstruktur anordnen zu können. Denkbar wäre auch, dass der zusammengesetzte Ring nicht in der Lage ist zu kontrahieren. Alle getesteten Mutantenstämme (ΔtusD, ΔtusE und ΔmnmA), die an der mnm5s2U34-Modifikation beteiligt sind, zeigten ein ähnlich verzögertes Wachstum und eine ähnliche filamentöse Zellform wie der ΔtusA-Stamm. Somit ist der Zellteilungsdefekt auf einen Defekt in der mnm5s2U34-tRNA-Thiolierung zurückzuführen. Des Weiteren wurde eine mögliche intrazelluläre Interaktion von TusA und FtsZ anhand der Expression von fluoreszierender (EGFP und mCherry) Fusionsproteine und FRET-Analysen überprüft, da die Bildung des FtsZ-Rings in den Filamenten defekt zu sein scheint. Für FtsZ-exprimierende tusA (DE3)-Zellen wurden rote mCherry-Signale an den Zellpolen detektiert, was auf das sich noch assemblierende FtsZ hindeutete. Interessanterweise war die zelluläre Region des EGFP-TusA Signals, das in ΔtusA (DE3) exprimiert wurde, überlappend mit dem von mCherry-FtsZ. Das EGFP-Signal zeigte eine Verteilung über die gesamte Zelle, wobei noch zusätzlich eine leichte Akkumulation der EGFP-TusA-Fluoreszenz an den Zellpolen (wie bei mCherry-FtsZ) festgestellt wurde. Somit deutet dies auf eine Interaktion zwischen TusA und FtsZ hin. Zusätzlich wurden die FtsZ- und Fis-Konzentrationen und deren Änderung während der unterschiedlichen Wachstumsphasen anhand von Immunoblot-Analysen ermittelt. Alle getesteten Deletionsstämme der mnm5s2U34-tRNA-Modifikation zeigten hohe zelluläre FtsZ- und Fis-Mengen in der exponentiellen Phase, die in die späteren Wachstumsphasen verschoben sind. Diese Verschiebung spiegelt das verlangsamte Wachstum wider, wodurch die Deletionsstämme später die exponentielle Phase erreichen. Demzufolge ist anzunehmen, dass der Wachstums- und Zellteilungsdefekt und daraus die Bildung von Filamenten durch Veränderungen der zellulären FtsZ- und Fis-Konzentrationen verursacht werden. Abschließend wurde in dieser Arbeit mittels Durchflusszytometrie die Translationseffizienz bestimmter Proteine (RpoS, Fur, Fis und mFis) in ΔtusA und zusätzlichen Gendeletionsstämmen untersucht. Insbesondere sollte gezeigt werden, ob die Translation der Proteine durch die Verwendung von unmodifizierten U34-tRNAs für Lys, Glu und Gln beeinträchtigt wird. Somit ist die Translationseffizienz in den Stämmen mit beeinträchtigter mnm5s2U34-tRNA-Modifikation verringert, was zusätzlich zu ihren bereits bestehenden Wachstums- und Zellteilungsdefekten aufgrund der Eliminierung dieser drei Aminosäuren hinzukommt. Damit bestätigen und verstärken diese Ergebnisse die Bedeutung von Lys, Glu und Gln und der mnm5s2U34 tRNA-Thiolierung für eine effiziente Proteintranslation. Sie belegen auch, dass die Translation von fur, fis und rpoS durch die mnm5s2U34-tRNA-Modifikation reguliert wird, welche wachstumsphasenabhängig ist. Im Résumé zeigen die Ergebnisse dieser Forschungsarbeit neue Funktionen des TusA-Proteins für die Funktionalität und Physiologie von Bakterienzellen. Durch die Deletion des tusA-Gens wurde ein komplexes regulatorisches Netzwerk innerhalb der Zelle gestört, das vor allem durch die verringerte Translation von Fis und RpoS beeinflusst wird (die durch das Fehlen der mnm5s2U34-tRNA-Modifikation verursacht wird). Die Unterbrechung des zellulären RpoS- und Fis-Netzwerks beeinflusst wiederum die zelluläre FtsZ-Menge in der frühen exponentiellen Phase. Schließlich führt diese Verringerung der FtsZ-Konzentration zu filamentösen E. coli-Zellen, die sich nicht mehr teilen können. KW - tRNA thiomodifications KW - 5-methylaminomethyl-2-thiouridine KW - TusA KW - growth defect KW - cell division KW - FtsZ KW - FtsZ ring assemby KW - RpoS KW - Fis KW - translation efficiency KW - tRNA Thiomodifikation KW - 5-Methylaminomethyl-2-Thiouridin KW - TusA KW - Zellteilungsdefekt KW - Zellteilung KW - FtsZ-Ringbildung KW - Translationseffizienz KW - filaments KW - Filamente Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617135 ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Yang, Xiaoqiang T1 - Spatial and temporal analyses of catchment and in-stream nitrate dynamics BT - insights derived from fully distributed, process-based modeling and high-frequency monitoring BT - Untersuchungen auf der Basis von räumlich verteilter, prozessbasierter Modellierung und eines zeitlich hochaufgelösten Gewässermonitorings N2 - Water quality in river systems is of growing concern due to rising anthropogenic pressures and climate change. Mitigation efforts have been placed under the guidelines of different governance conventions during last decades (e.g., the Water Framework Directive in Europe). Despite significant improvement through relatively straightforward measures, the environmental status has likely reached a plateau. A higher spatiotemporal accuracy of catchment nitrate modeling is, therefore, needed to identify critical source areas of diffuse nutrient pollution (especially for nitrate) and to further guide implementation of spatially differentiated, cost-effective mitigation measures. On the other hand, the emerging high-frequency sensor monitoring upgrades the monitoring resolution to the time scales of biogeochemical processes and enables more flexible monitoring deployments under varying conditions. The newly available information offers new prospects in understanding nitrate spatiotemporal dynamics. Formulating such advanced process understanding into catchment models is critical for model further development and environmental status evaluation. This dissertation is targeting on a comprehensive analysis of catchment and in-stream nitrate dynamics and is aiming to derive new insights into their spatial and temporal variabilities through the new fully distributed model development and the new high-frequency data. Firstly, a new fully distributed, process-based catchment nitrate model (the mHM-Nitrate model) is developed based on the mesoscale Hydrological Model (mHM) platform. Nitrate process descriptions are adopted from the Hydrological Predictions for the Environment (HYPE), with considerable improved implementations. With the multiscale grid-based discretization, mHM-Nitrate balances the spatial representation and the modeling complexity. The model has been thoughtfully evaluated in the Selke catchment (456 km2), central Germany, which is characterized by heterogeneous physiographic conditions. Results show that the model captures well the long-term discharge and nitrate dynamics at three nested gauging stations. Using daily nitrate-N observations, the model is also validated in capturing short-term fluctuations due to changes in runoff partitioning and spatial contribution during flooding events. By comparing the model simulations with the values reported in the literature, the model is capable of providing detailed and reliable spatial information of nitrate concentrations and fluxes. Therefore, the model can be taken as a promising tool for environmental scientists in advancing environmental modeling research, as well as for stakeholders in supporting their decision-making, especially for spatially differentiated mitigation measures. Secondly, a parsimonious approach of regionalizing the in-stream autotrophic nitrate uptake is proposed using high-frequency data and further integrated into the new mHM-Nitrate model. The new regionalization approach considers the potential uptake rate (as a general parameter) and effects of above-canopy light and riparian shading (represented by global radiation and leaf area index data, respectively). Multi-parameter sensors have been continuously deployed in a forest upstream reach and an agricultural downstream reach of the Selke River. Using the continuous high-frequency data in both streams, daily autotrophic uptake rates (2011-2015) are calculated and used to validate the regionalization approach. The performance and spatial transferability of the approach is validated in terms of well-capturing the distinct seasonal patterns and value ranges in both forest and agricultural streams. Integrating the approach into the mHM-Nitrate model allows spatiotemporal variability of in-stream nitrate transport and uptake to be investigated throughout the river network. Thirdly, to further assess the spatial variability of catchment nitrate dynamics, for the first time the fully distributed parameterization is investigated through sensitivity analysis. Sensitivity results show that parameters of soil denitrification, in-stream denitrification and in-stream uptake processes are the most sensitive parameters throughout the Selke catchment, while they all show high spatial variability, where hot-spots of parameter sensitivity can be explicitly identified. The Spearman rank correlation is further analyzed between sensitivity indices and multiple catchment factors. The correlation identifies that the controlling factors vary spatially, reflecting heterogeneous catchment responses in the Selke catchment. These insights are, therefore, informative in informing future parameter regionalization schemes for catchment water quality models. In addition, the spatial distributions of parameter sensitivity are also influenced by the gauging information that is being used for sensitivity evaluation. Therefore, an appropriate monitoring scheme is highly recommended to truly reflect the catchment responses. N2 - Die Wasserqualität in Flusssystemen ist aufgrund des steigenden anthropogenen Drucks und des Klimawandels von wachsender Bedeutung. Um kritische Eintragspfade diffuser Nitratbelastungen zu identifizieren, ist eine hohe räumliche und zeitliche Auflösung der Modellierung des Einzugsgebietes erforderlich. Neue hochfrequente Sensordaten bieten neue Perspektiven für das Verständnis der Nitratdynamik in Einzugsgebieten. Die Vertiefung des Prozessverständnisses ist entscheidend für die Weiterentwicklung von Einzugsmodellen. Diese Dissertation zielt auf eine umfassende Analyse der einzugsbezogenen und gewässerinternen Nitratdynamik ab und analysiert ihre räumlichen und zeitlichen Variabilität anhand vollständig verteilter Modellierung und neuer zeitlich hochaufgelöster Sensordaten. Zunächst wurde ein neues, räumlich verteiltes hydrologisches Nitratmodell (das mHM-Nitratmodell) entwickelt, um die Nitratflüsse und -dynamiken in Einzugsgebieten abzubilden. Das Modell wurde im Selke Einzugsgebiet (456 km2) in Mitteldeutschland implementiert. Die Ergebnisse zeigen, dass das Modell sowohl die lang- als auch die kurzfristige Dynamik von Abfluss und Nitrat an drei genesteten Messstationen gut erfasst und in der Lage ist, detaillierte und zuverlässige räumliche Informationen zu liefern. Des Weiteren wurde ein vereinfachter Ansatz zur Regionalisierung der autotrophen Nitrataufnahme in Fließgewässern entwickelt und in das neue mHM-Nitratmodell integriert. Die Verfügbarkeit von Licht auf der Gewässeroberfläche wird als treibender Faktor identifiziert, welcher durch Globalstrahlung und pflanzenspezifischem Blattflächenindex quantifiziert werden kann. Die räumliche Übertragbarkeit des Ansatzes wird anhand kontinuierlicher, zeitlich hochaufgelöster Gewässermessdaten in der Selke überprüft. Hierauf aufbauend wird die vollständig verteilte Parametrisierung des Modells durch Sensitivitätsanalysen untersucht, welche die empfindlichsten Parameter und deren räumliche Variabilität identifizieren. Die Spearman-Rank-Korrelationen zeigen, dass die bestimmenden Einflussfaktoren aufgrund der heterogenen Einzugscharakteristik auch räumlich stark variieren. Das mHM-Nitratmodell kann als vielversprechendes Instrument zur Beurteilung der detaillierten räumzeitlichen Variabilität der Nitratflüsse und -dynamiken genutzt werden, was sowohl für Wissenschaftler als auch für Nutzer aus der Praxis wichtig ist. Die Integration des neuen Ansatzes zur gewässerinternen Nährstoffaufnahme in das Modell ermöglicht eine räumlich-zeitliche Untersuchung des Nitrattransports und Nährstoffentzugs in Fließgewässernetzwerken. Die Erkenntnisse aus Sensitivitäts- und Korrelationsanalysen sind bedeutsam für die Ableitung zukünftiger Parameterregionalisierungsansätze, die es erlauben, einen ausgewogenen Kompromiss zwischen der Komplexität der Modellparametrisierung und der hinreichenden Darstellung der natürlichen Heterogenität zu finden. T2 - Raumzeitliche Analyse von einzugsgebietsbezogenen und gewässerinternen Nitratdynamiken KW - Catchment and in-stream water quality KW - Spatial and temporal nitrate variability KW - Fully distributed nitrate modeling KW - High-frequency data KW - Heterogeneous catchement responses KW - Autotrophic nitrate uptake in river networks KW - Autotropher Nitrat-Aufnahme in Gewässernetzen KW - Räumlich verteilte Nitratmodellierung KW - Heterogene Einzugsgebietsreaktionen KW - Hochfrequenzdaten KW - Räumliche und zeitliche Nitratvariabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-477029 ER - TY - THES A1 - Yan, Runyu T1 - Nitrogen-doped and porous carbons towards new energy storage mechanisms for supercapacitors with high energy density T1 - Neuartige Energiespeichermechanismen in porösen und stickstoffdotierten Kohlenstoffen für die Anwendung in Superkondensatoren mit hoher Energiedichte N2 - Supercapacitors are electrochemical energy storage devices with rapid charge/discharge rate and long cycle life. Their biggest challenge is the inferior energy density compared to other electrochemical energy storage devices such as batteries. Being the most widely spread type of supercapacitors, electrochemical double-layer capacitors (EDLCs) store energy by electrosorption of electrolyte ions on the surface of charged electrodes. As a more recent development, Na-ion capacitors (NICs) are expected to be a more promising tactic to tackle the inferior energy density due to their higher-capacity electrodes and larger operating voltage. The charges are simultaneously stored by ion adsorption on the capacitive-type cathode surface and via faradic process in the battery-type anode, respectively. Porous carbon electrodes are of great importance in these devices, but the paramount problems are the facile synthetic routes for high-performance carbons and the lack of fundamental understanding of the energy storage mechanisms. Therefore, the aim of the present dissertation is to develop novel synthetic methods for (nitrogen-doped) porous carbon materials with superior performance, and to reveal a deeper understanding energy storage mechanisms of EDLCs and NICs. The first part introduces a novel synthetic method towards hierarchical ordered meso-microporous carbon electrode materials for EDLCs. The large amount of micropores and highly ordered mesopores endow abundant sites for charge storage and efficient electrolyte transport, respectively, giving rise to superior EDLC performance in different electrolytes. More importantly, the controversial energy storage mechanism of EDLCs employing ionic liquid (IL) electrolytes is investigated by employing a series of porous model carbons as electrodes. The results not only allow to conclude on the relations between the porosity and ion transport dynamics, but also deliver deeper insights into the energy storage mechanism of IL-based EDLCs which is different from the one usually dominating in solvent-based electrolytes leading to compression double-layers. The other part focuses on anodes of NICs, where novel synthesis of nitrogen-rich porous carbon electrodes and their sodium storage mechanism are investigated. Free-standing fibrous nitrogen-doped carbon materials are synthesized by electrospinning using the nitrogen-rich monomer (hexaazatriphenylene-hexacarbonitrile, C18N12) as the precursor followed by condensation at high temperature. These fibers provide superior capacity and desirable charge/discharge rate for sodium storage. This work also allows insights into the sodium storage mechanism in nitrogen-doped carbons. Based on this mechanism, further optimization is done by designing a composite material composed of nitrogen-rich carbon nanoparticles embedded in conductive carbon matrix for a better charge/discharge rate. The energy density of the assembled NICs significantly prevails that of common EDLCs while maintaining the high power density and long cycle life. N2 - Superkondensatoren sind elektrochemische Energiespeicher, die eine hohe Lade-/Entladerate und Zyklensta-bilität aufweisen, deren größte Einschränkung derzeit jedoch bei ihrer im Vergleich zu anderen Speicherlösungen, wie etwa Batterien, geringen Energiedichte liegt. Im am weitesten verbreiteten Superkondensatortyp, dem elektrochemischen Doppelschichtkondensator (engl. electrochemical double-layer capacitor, EDLC), wird die Energie durch Elektrosorption der Elektrolytionen an die geladene Elektrodenoberfläche gespeichert. Der Natrium-Ionen-Kondensator (engl. Na-ion capacitor, NIC) ist eine neuere Entwicklung und löst das Problem der geringen Energiedichte durch Verwendung von Elektroden mit einer höheren Kapazität und Betriebsspannung. Dies wird dadurch erreicht, dass simultan anodenseitig ein faradayscher Prozess und kathodenseitig der Aufbau einer elektrochemischen Doppelschicht genutzt werden. Somit kommen die Vorteile beider Phänomene zum Tragen. Poröse Kohlenstoffelektroden sind wichtig für beide Speichersysteme, wobei die Entwicklung einfacher Syn-theserouten für die Herstellung von Hochleistungskohlenstoffen und der Aufbau eines grundlegenden Ver-ständnisses der dem Energiespeicher zugrunde liegenden Mechanismen die vordergründigen Herausforde-rungen sind. Daher ist es das Ziel der vorliegenden Dissertation, neue Methoden zur Synthese (stickstoffdo-tierter) Kohlenstoffmaterialien mit überlegener Leistung zu erschließen und eine tiefere Einsicht in die me-chanistischen Aspekte der Funktionsweise der eingangs vorgestellten Superkondensatorsysteme zu erhalten. Im ersten Teil der Arbeit wird eine neuartige Synthese von Kohlenstoff-Elektrodenmaterialien für EDLCs vor-gestellt, welche ein hohes Volumen an Mikroporen und hochgeordneten Mesoporen aufweisen. Durch deren Einsatz kann in verschiedenen Elektrolytsystemen eine herausragende Energiedichte erzielt werden. Umso bedeutender sind die Ergebnisse der Untersuchung des kontrovers diskutierten Energiespeichermechanismus in EDLCs mit Elektrolyten auf Basis ionischer Flüssigkeiten (engl. ionic liquids, ILs) und Elektroden aus porösen Modellkohlenstoffen. Aus diesen können nicht nur Rückschlüsse auf den Zusammenhang zwischen Porosität und Ionentransportdynamik gezogen werden, sondern sie lassen auch wichtige Erkenntnisse auf die Mechanismen des Ladungsspeichers in IL-basierten EDLCs zu, welche sich grundlegend von dem in lösungsmittelbasierten Elektrolyten vorherrschenden Mechanismus, der Bildung einer Kompressionsdoppelschicht, unterscheiden. Im zweiten Teil des Werks liegt der Fokus auf der Synthese stickstoffreicher poröser Kohlenstoffelektroden als Anoden für NICs und der Untersuchung der Vorgänge während der Natriumeinlagerung in solchen Syste-men. Freistehende, faserartige und stickstoffdotierte Kohlenstoffmaterialien wurden durch Elektrospinnen des stickstoffreichen Monomers Hexaazatriphenylen-hexacarbonitril (C18N12) gefolgt von dessen Kondensati-on bei hoher Temperatur erhalten. Diese Fasern überzeugen durch überragende Kapazität und eine hohe Lade-/Entladerate beim Natriumspei-chervorgang. In diesem Rahmen wurde auch der Mechanismus der Natriumeinlagerung in stickstoffdotierten Kohlenstoffen beleuchtet und auf Basis dieser Erkenntnisse wurde eine weitere Optimierung vorgenommen. Indem ein Kompositmaterial aus stickstoffreichen Kohlenstoffnanopartikeln in einer leitfähigen Kohlenstoffmatrix erzeugt wurde, konnte die Lade-/Entladerate abermals verbessert werden. Somit übertrifft die Energiedichte der so konstruierten NICs die gewöhnlicher EDLCs, während deren hohe Leistungsdichte und Lebensdauer erhalten bleibt. KW - porous carbons KW - supercapacitors KW - high energy density KW - energy storage mechanism KW - poröse Kohlenstoffe KW - Superkondensatoren KW - hohe Energiedichte KW - Energiespeichermechanismus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431413 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Yadav, Himanshu T1 - A computational evaluation of feature distortion and cue weighting in sentence comprehension T1 - Eine komputationale Evaluation von Feature-Verfälschung und Cue-Gewichtung in der Satzverarbeitung N2 - Successful sentence comprehension requires the comprehender to correctly figure out who did what to whom. For example, in the sentence John kicked the ball, the comprehender has to figure out who did the action of kicking and what was being kicked. This process of identifying and connecting the syntactically-related words in a sentence is called dependency completion. What are the cognitive constraints that determine dependency completion? A widely-accepted theory is cue-based retrieval. The theory maintains that dependency completion is driven by a content-addressable search for the co-dependents in memory. The cue-based retrieval explains a wide range of empirical data from several constructions including subject-verb agreement, subject-verb non-agreement, plausibility mismatch configurations, and negative polarity items. However, there are two major empirical challenges to the theory: (i) Grammatical sentences’ data from subject-verb number agreement dependencies, where the theory predicts a slowdown at the verb in sentences like the key to the cabinet was rusty compared to the key to the cabinets was rusty, but the data are inconsistent with this prediction; and, (ii) Data from antecedent-reflexive dependencies, where a facilitation in reading times is predicted at the reflexive in the bodybuilder who worked with the trainers injured themselves vs. the bodybuilder who worked with the trainer injured themselves, but the data do not show a facilitatory effect. The work presented in this dissertation is dedicated to building a more general theory of dependency completion that can account for the above two datasets without losing the original empirical coverage of the cue-based retrieval assumption. In two journal articles, I present computational modeling work that addresses the above two empirical challenges. To explain the grammatical sentences’ data from subject-verb number agreement dependencies, I propose a new model that assumes that the cue-based retrieval operates on a probabilistically distorted representation of nouns in memory (Article I). This hybrid distortion-plus-retrieval model was compared against the existing candidate models using data from 17 studies on subject-verb number agreement in 4 languages. I find that the hybrid model outperforms the existing models of number agreement processing suggesting that the cue-based retrieval theory must incorporate a feature distortion assumption. To account for the absence of facilitatory effect in antecedent-reflexive dependen� cies, I propose an individual difference model, which was built within the cue-based retrieval framework (Article II). The model assumes that individuals may differ in how strongly they weigh a syntactic cue over a number cue. The model was fitted to data from two studies on antecedent-reflexive dependencies, and the participant-level cue-weighting was estimated. We find that one-fourth of the participants, in both studies, weigh the syntactic cue higher than the number cue in processing reflexive dependencies and the remaining participants weigh the two cues equally. The result indicates that the absence of predicted facilitatory effect at the level of grouped data is driven by some, not all, participants who weigh syntactic cues higher than the number cue. More generally, the result demonstrates that the assumption of differential cue weighting is important for a theory of dependency completion processes. This differential cue weighting idea was independently supported by a modeling study on subject-verb non-agreement dependencies (Article III). Overall, the cue-based retrieval, which is a general theory of dependency completion, needs to incorporate two new assumptions: (i) the nouns stored in memory can undergo probabilistic feature distortion, and (ii) the linguistic cues used for retrieval can be weighted differentially. This is the cumulative result of the modeling work presented in this dissertation. The dissertation makes an important theoretical contribution: Sentence comprehension in humans is driven by a mechanism that assumes cue-based retrieval, probabilistic feature distortion, and differential cue weighting. This insight is theoretically important because there is some independent support for these three assumptions in sentence processing and the broader memory literature. The modeling work presented here is also methodologically important because for the first time, it demonstrates (i) how the complex models of sentence processing can be evaluated using data from multiple studies simultaneously, without oversimplifying the models, and (ii) how the inferences drawn from the individual-level behavior can be used in theory development. N2 - Bei der Satzverarbeitung muss der Leser richtig herausfinden, wer wem was angetan hat. Zum Beispiel muss der Leser in dem Satz „John hat den Ball getreten“ herausfinden, wer tat die Aktion des Tretens und was getreten wurde. Dieser Prozess des Identifizierens und Verbindens der syntaktisch verwandte Wörter in einem Satz nennt man Dependency-Completion. Was sind die kognitiven Mechanismen, die Dependency-Completion bestimmen? Eine weithin akzeptierte Theorie ist der Cue-based retrieval. Die Theorie besagt, dass die Dependency-Completion durch eine inhaltsadressierbare Suche nach der vorangetrieben wird Co-Abhängige im Gedächtnis. Der Cue-basierte Abruf erklärt ein breites Spektrum an empirischen Daten mehrere Konstruktionen, darunter Subjekt-Verb-Übereinstimmung, Subjekt-Verb-Nichtübereinstimmung, Plausibilität Mismatch-Konfigurationen und Elemente mit negativer Polarität. Es gibt jedoch zwei große empirische Herausforderungen für die Theorie: (i) Grammatische Sätze Daten aus Subjekt-Verb-Nummer-Dependency, bei denen die Theorie eine Verlangsamung vorhersagt das Verb in Sätzen wie „the key to the cabinet was rusty“ im Vergleich zu „the key to the cabinets was rusty“, aber die Daten stimmen nicht mit dieser Vorhersage überein; und (ii) Daten von Antezedenz-Reflexiv Strukturen, wo eine Leseerleichterung beim reflexiven „the bodybuilder who worked with the trainers injured themselves“ vs. „the bodybuilder who worked with the trainers injured themselves", aber die Daten zeigen keine vermittelnde Wirkung. Die in dieser Dissertation vorgestellte Arbeit widmet sich dem Aufbau einer allgemeineren Theorie von Dependency-Completion, die die beiden oben genannten Datensätze berücksichtigen kann, ohne das Original zu verlieren empirische Abdeckung der Cue-based Retrieval-Annahme. In zwei Zeitschriftenartikeln stelle ich Arbeiten zur Computermodellierung vor, die sich mit den beiden oben genannten empirischen Herausforderungen befassen. Um die Daten der grammatikalischen Sätze aus den Abhängigkeiten der Subjekt-Verb-Nummer-Übereinstimmung zu erklären, schlage ich ein neues Modell vor, das davon ausgeht, dass der Cue-basierte Abruf probabilistisch funktioniert verzerrte Darstellung von Substantiven im Gedächtnis (Artikel I). Dieses hybride Distortion-plus-Retrieval-Modell wurde anhand von Daten aus 17 Studien zu Subjekt-Verb mit den bestehenden Kandidatenmodellen verglichen Nummernvereinbarung in 4 Sprachen. Ich finde, dass das Hybridmodell die bestehenden Modelle übertrifft der Nummernvereinbarungsverarbeitung, was darauf hindeutet, dass die Cue-based Retrieval-Theorie Folgendes umfassen muss: a Annahme von Feature-Verfälschung. Um das Fehlen eines unterstützenden Effekts in antezedens-reflexiven Abhängigkeiten zu berücksichtigen, schlage ich ein individuelles Differenzmodell vor, das innerhalb des Cue-based Retrieval-Frameworks erstellt wurde (Artikel II). Das Modell geht davon aus, dass Individuen sich darin unterscheiden können, wie stark sie eine Syntax gewichten Cue über einem Nummern-Cue. Das Modell wurde an Daten aus zwei Studien zum Antezedenz-Reflexiv angepasst Abhängigkeiten, und die Cue-Gewichtung auf Teilnehmerebene wurde geschätzt. Wir finden, dass ein Viertel von Die Teilnehmer in beiden Studien gewichten bei der Verarbeitung den syntaktischen Cue höher als den numerischen Cue reflexive Abhängigkeiten und die verbleibenden Teilnehmer gewichten die beiden Cue gleichermaßen. Das Ergebnis weist darauf hin, dass das Fehlen des prognostizierten Erleichterungseffekts auf der Ebene der gruppierten Daten von einigen, nicht alle Teilnehmer, die syntaktische Cue höher gewichten als Zahlenhinweise. Allgemeiner gesagt, die Das Ergebnis zeigt, dass die Annahme einer differentiellen Hinweisgewichtung wichtig für eine Theorie von ist Dependency-Completion. Diese Idee der differentiellen Cue-Gewichtung wurde unabhängig unterstützt durch eine Modellierungsstudie zu Subjekt-Verb-Nichteinigungsabhängigkeiten (Artikel III). Insgesamt benötigt der Cue-basierte Abruf, der eine allgemeine Theorie der Abhängigkeitsvervollständigung ist um zwei neue Annahmen aufzunehmen: (i) die im Gedächtnis gespeicherten Substantive können einer Wahrscheinlichkeitsanalyse unterzogen werden Feature-Verfälschung, und (ii) die für den Abruf verwendeten sprachlichen Cue können unterschiedlich gewichtet werden. Das ist das kumulative Ergebnis der in dieser Dissertation vorgestellten Modellierungsarbeit.Die Dissertation leistet einen wichtigen theoretischen Beitrag: Satzverständnis in Der Mensch wird von einem Mechanismus getrieben, der einen hinweisbasierten Abruf, eine probabilistische Merkmalsverzerrung und eine differentielle Hinweisgewichtung annimmt. Diese Einsicht ist theoretisch wichtig, weil es einige gibt unabhängige Unterstützung für diese drei Annahmen in der Satzverarbeitung und im weiteren Gedächtnis Literatur. Die hier vorgestellten Modellierungsarbeiten sind auch methodisch wichtig, weil für die Zum ersten Mal wird gezeigt, (i) wie die komplexen Modelle der Satzverarbeitung evaluiert werden können Daten aus mehreren Studien gleichzeitig zu verwenden, ohne die Modelle zu stark zu vereinfachen, und (ii) wie die Schlussfolgerungen aus dem Verhalten auf individueller Ebene können in der Theorieentwicklung verwendet werden. KW - sentence comprehension KW - individual differences KW - cue-based retrieval KW - memory distortion KW - Approximate Bayesian Computation KW - cue reliability KW - ungefähre Bayessche Komputation KW - Cue-Gewichtung KW - Cue-basierter Retrieval KW - individuelle Unterschiede KW - Darstellung Verfälschung KW - Satzverarbeitung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585055 ER - TY - THES A1 - Xü, Chenggang T1 - Preparation and characterization of vapour deposited films based on substituted 2,5-diphenyl-1,3,4-oxadiazole derivatives N2 - Diese Arbeit befasst sich mit dem Einfluss der molekularen Struktur von 2,5-Diphenyl-1,3,4-Oxadiazol-Derivaten auf die Präparierung dünner Schichten mittels Vakuumdeposition. Dünne Schichten von diesen Substanzen wurden auf Si/SiO2 aufgedampft und ihre Struktur systematisch mittels XSR, AFM und IR untersucht. Das Ergebnis zeigt, dass die Schichtstrukturen offenbar von Substratetemperatur (Ts) abhängig sind. Im untersuchten Ts-Bereich bilden etherverbrückte Oxadiazole immer geordnete Schichten und die Schichtperiodicität hängt linear von der Längen der aliphatischen Ketten, während sich bei den amidverbrückten Oxadiazolen nur bei hohen Ts geordnete Schichten bilden können. Diese Unterschiede sind auf die intermolekularen Wasserstoffbrücken zurückzuführen. Der Tilt-Winkel der Moleküle ist durch die Wechselwirkung zwischen dem aromatischen Teil bestimmt. Die Wechselwirkungen zwischen den Kopfgruppen können durch Tempern abgeschwächt werden und führen zur Strukturumwandlung von Schichten, die auf etherverbrückten Oxadiazolen basieren. Alle Schichten von etherverbrückten Oxadiazolen haben Doppelschicht-Struktur, aber amidverbrückte Oxadiazole bilden nur Doppelschicht-Strukturen, wenn die Moleküle eine Kopfgruppe besitzen. N2 - The correlations between the chemical structures of the 2,5-diphenyl-1,3,4-oxadiazole compounds and their corresponding vapour deposited film structures on Si/SiO2 were systematically investigated with AFM, XSR and IR for the first time. The result shows that the film structure depends strongly on the substrate temperature (Ts). For the compounds with ether bridge group, the film periodicity depends linearly on the length of the aliphatic chain. The films based on those oxadiazols have ordered structure in the investigated substrate temperature region, while die amide bridged compounds form ordered film only at high Ts due to the formation of intermolecular H-bond. The tilt angle of most molecules is determined by the pi-pi complexes between the molecules. The intermolecular interaction between head groups leads to the structural transformation during the thermal treatment after deposition. All the ether bridged oxadiazoles form films with bilayer structure, while amide bridged oxadiazole form film bilayer structure only when the molecule has a head group. KW - 1 KW - 3 KW - 4-oxadiazol KW - Vapour Deposition KW - Dünnschichten KW - AFM KW - X-ray KW - Infrarot Spektroskopie KW - intermolekülare Wechselwirkung KW - Hochvakuum KW - 1 KW - 3 KW - 4-oxadiazole KW - vapour deposition KW - Thin film KW - AFM KW - X-ray KW - Infrared spectroscopy KW - intermolecular interaction KW - high vacuum Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001358 ER - TY - THES A1 - Xiong, Tao T1 - Vibrationally resolved absorption, emission, resonance Raman and photoelectron spectra of selected organic molecules, associated radicals and cations T1 - Schwingungsaufgelöste Absorptions-, Emissions-, Resonanz-Raman- und Photoelektronenspektren ausgewählter organischer Moleküle, assoziierter Radikale und Kationen BT - a time-dependent approach BT - ein zeitabhängiger Ansatz N2 - Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below. In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules. In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra. In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices. Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals. N2 - Molekülsysteme bestehen aus Kernen und Elektronen, deren viel kleinere Masse sie in die Lage versetzten, sich der Bewegung des ersteren augenblicklich anzupassen. Daher ist die Bewegung der Elektronen und Kerne in einer guten ersten Annäherung "unabhängig", und die Energie der Elektronen kann zuerst berechnet werden, vorausgesetzt, die Kerne sind stationär. Die so gewonnene elektronische Energie wird zur Abstoßungsenergie zwischen den Kernen addiert, um ein Potential zu erhalten, das die Bewegung der Kerne bestimmt. Quantenmechanisch können sowohl die Elektronen als auch die Kerne nur bestimmte Energieniveaus haben. Die molekulare vibronische (= Schwingung + Elektronik) Absorptionsspektroskopie beinhaltet den Übergang der Elektronen und Kerne von ihrem Anfangs- in ihren Endzustand durch Photonenabsorption. Die größere elektronische Übergangsenergie bestimmt die Position des Absorptionsmaximums, während die kleinere nukleare Schwingungsübergangsenergie (ohne Berücksichtigung von Translation und Rotation) die Position der Teilmaxima innerhalb des Absorptionsbereichs bestimmt, wodurch die vibronische Feinstruktur entsteht. Ähnliche Ideen gelten auch für die vibronische Emissionsspektroskopie. Die Resonanz-Raman-Spektroskopie untersucht die Energieänderung des einfallenden Photons (dessen Energie ausreichend ist, um die Elektronen in einen höheren elektronischen Zustand anzuregen), nachdem es mit dem Molekül wechselwirkt. Der Energiegewinn oder -verlust des einfallenden Photons bewirkt eine Änderung des Schwingungszustandes. Die Photoelektronenspektroskopie ist ähnlich wie die vibronische Absorption, benötigt aber in der Regel mehr Energie des einfallenden Photons, da neben der Anregung des Moleküls in einen höheren vibronischen Zustand zusätzliche Energie benötigt wird, um ein Elektron aus dem Molekül zu entfernen. Diese spektroskopischen Techniken liefern wertvolle Informationen über die elektronische und nukleare Bewegung des Moleküls. Theoretisch können wir eine zeitabhängige Korrelationsfunktion verwenden, um die Spektren zu simulieren. Die Korrelationsfunktion für die Absorption ist beispielsweise eine Funktion der Zeit, deren Entwicklung Informationen über die elektronischen Energien und die nukleare Bewegung enthält. Um das Absorptionsspektrum in Form von Energie zu erhalten, wird ein mathematisches Verfahren, die so genannte Fourier-Transformation, auf die zeitabhängige Korrelationsfunktion angewendet, um ein energieabhängiges Spektrum zu erhalten. Diese Methode wird auf ausgewählte organische Moleküle, darunter einige Radikale und Kationen, angewandt, um deren elektronisches und optisches Verhalten unter dem Einfluss von einfallendem Licht zu untersuchen und Einblicke in das Design neuer optoelektronischer Bauelemente zu gewinnen. Bei einigen Molekülen/Systemen wird die vibronische Feinstruktur durch Faktoren wie molekulare Zusammensetzung und Umgebung wie Lösungsmittel beeinflusst, was darauf hindeutet, dass diese Systeme zur Feinabstimmung der gewünschten Eigenschaften verwendet werden können. Für andere Systeme gibt es fast keine sichtbare vibronische Feinstruktur, was bedeutet, dass sich die nukleare Bewegung solcher Systeme im Allgemeinen von derjenigen der vorherigen Kategorie unterscheidet. KW - vibrationally resolved electronic spectroscopy KW - photoelectron spectroscopy KW - resonance Raman spectroscopy KW - correlation function KW - ionization potential KW - time-dependent density functional theory KW - perylene KW - diamondoid KW - Schwingungsaufgelöste UV/VIS-Spektroskopie KW - Photoelektronenspektroskopie KW - Resonanz-Raman-Spektroskopie KW - Korrelationsfunktion KW - Ionisationspotential KW - Zeitabhängige Dichtefunktionaltheorie KW - Perylen KW - Diamondoide Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418105 ER - TY - THES A1 - Xie, Dongjiu T1 - Nanostructured Iron-based compounds as sulfur host material for lithium-sulfur batteries T1 - Nanostrukturierte Eisenverbindungen als Schwefel-Wirtsmaterial für Lithium-Schwefel-Batterien N2 - The present thesis focuses on the synthesis of nanostructured iron-based compounds by using β-FeOOH nanospindles and poly(ionic liquid)s (PILs) vesicles as hard and soft templates, respectively, to suppress the shuttle effect of lithium polysulfides (LiPSs) in Li-S batteries. Three types of composites with different nanostructures (mesoporous nanospindle, yolk-shell nanospindle, and nanocapsule) have been synthesized and applied as sulfur host material for Li-S batteries. Their interactions with LiPSs and effects on the electrochemical performance of Li-S batteries have been systematically studied. In the first part of the thesis, carbon-coated mesoporous Fe3O4 (C@M-Fe3O4) nanospindles have been synthesized to suppress the shuttle effect of LiPSs. First, β-FeOOH nanospindles have been synthesized via the hydrolysis of iron (III) chloride in aqueous solution and after silica coating and subsequent calcination, mesoporous Fe2O3 (M-Fe2O3) have been obtained inside the confined silica layer through pyrolysis of β-FeOOH. After the removal of the silica layer, electron tomography (ET) has been applied to rebuild the 3D structure of the M-Fe2O3 nanospindles. After coating a thin layer of polydopamine (PDA) as carbon source, the PDA-coated M-Fe2O3 particles have been calcinated to synthesize C@M-Fe3O4 nanospindles. With the chemisorption of Fe3O4 and confinement of mesoporous structure to anchor LiPSs, the composite C@M-Fe3O4/S electrode delivers a remaining capacity of 507.7 mAh g-1 at 1 C after 600 cycles. In the second part of the thesis, a series of iron-based compounds (Fe3O4, FeS2, and FeS) with the same yolk-shell nanospindle morphology have been synthesized, which allows for the direct comparison of the effects of compositions on the electrochemical performance of Li-S batteries. The Fe3O4-carbon yolk-shell nanospindles have been synthesized by using the β-FeOOH nanospindles as hard template. Afterwards, Fe3O4-carbon yolk-shell nanospindles have been used as precursors to obtain iron sulfides (FeS and FeS2)-carbon yolk-shell nanospindles through sulfidation at different temperatures. Using the three types of yolk-shell nanospindles as sulfur host, the effects of compositions on interactions with LiPSs and electrochemical performance in Li-S batteries have been systematically investigated and compared. Benefiting from the chemisorption and catalytic effect of FeS2 particles and the physical confinement of the carbon shell, the FeS2-C/S electrode exhibits the best electrochemical performance with an initial specific discharge capacity of 877.6 mAh g-1 at 0.5 C and a retention ratio of 86.7% after 350 cycles. In the third part, PILs vesicles have been used as soft template to synthesize carbon nanocapsules embedded with iron nitride particles to immobilize and catalyze LiPSs in Li-S batteries. First, 3-n-decyl-1-vinylimidazolium bromide has been used as monomer to synthesize PILs nanovesicles by free radical polymerization. Assisted by PDA coating route and ion exchange, PIL nanovesicles have been successfully applied as soft template in morphology-maintaining carbonization to prepare carbon nanocapsules embedded with iron nitride nanoparticles (FexN@C). The well-dispersed iron nitride nanoparticles effectively catalyze the conversion of LiPSs to Li2S, owing to their high electrical conductivity and strong chemical binding to LiPSs. The constructed FexN@C/S cathode demonstrates a high initial discharge capacity of 1085.0 mAh g-1 at 0.5 C with a remaining value of 930.0 mAh g-1 after 200 cycles. The results in the present thesis demonstrate the facile synthetic routes of nanostructured iron-based compounds with controllable morphologies and compositions using soft and hard colloidal templates, which can be applied as sulfur host to suppress the shuttle behavior of LiPSs. The synthesis approaches developed in this thesis are also applicable to fabricating other transition metal-based compounds with porous nanostructures for other applications. N2 - Die vorliegende Arbeit beschreibt die Synthese von nanostrukturierten Verbindungen auf Eisenbasis unter Verwendung von β-FeOOH-Nanospindeln und Vesikeln aus Poly(ionischen Flüssigkeiten) (PILs) als harte bzw. weiche Vorlagen, um den Shuttle-Effekt von Lithiumpolysulfiden (LiPSs) in Li-S-Batterien zu unterdrücken. Drei Arten von Verbundstoffen mit unterschiedlichen Nanostrukturen (mesoporöse Nanospindel, Dotterschalen-Nanospindel und Nanokapsel) wurden synthetisiert und als Schwefel-Wirtsmaterial für Li-S-Batterien eingesetzt. Ihre Wechselwirkungen mit LiPS und ihre Auswirkungen auf die elektrochemische Leistung von Li-S-Batterien wurden systematisch untersucht. Im ersten Teil der Arbeit wurden kohlenstoffbeschichtete mesoporöse Fe3O4 (C@M-Fe3O4) Nanospindeln synthetisiert, um den Shuttle-Effekt von LiPSs zu unterdrücken. Zunächst wurden β-FeOOH-Nanospindeln durch Hydrolyse von Eisen(III)-chlorid in wässriger Lösung synthetisiert. Nach der Beschichtung mit Siliziumdioxid und anschließender Kalzinierung wurde mesoporöses Fe2O3 (M-Fe2O3) innerhalb der begrenzten Siliziumdioxidschicht durch Pyrolyse von β-FeOOH erhalten. Nach der Entfernung der Siliziumdioxidschicht wurde Elektronentomographie (ET) eingesetzt, um die 3D-Struktur der M-Fe2O3-Nanospindeln zu rekonstruieren. Nach der Beschichtung mit einer dünnen Schicht Polydopamin (PDA) als Kohlenstoffquelle wurden die PDA-beschichteten M-Fe2O3-Partikel kalziniert, um C@M-Fe3O4-Nanospindeln zu synthetisieren. Durch die Chemisorption von Fe3O4 und die Einschließung der mesoporösen Struktur zur Verankerung der LiPSs liefert die zusammengesetzte C@M-Fe3O4/S-Elektrode nach 600 Zyklen eine Restkapazität von 507,7 mAh g-1 bei 1 C. Im zweiten Teil der Arbeit wurde eine Reihe von eisenbasierten Verbindungen (Fe3O4, FeS2, und FeS) mit der gleichen Dotterschalen-Nanospindel-Morphologie synthetisiert, was einen direkten Vergleich der Auswirkungen der Zusammensetzungen auf die elektrochemische Leistung von Li S-Batterien ermöglicht. Die Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln wurden unter Verwendung der β-FeOOH-Nanospindeln als harte Vorlage synthetisiert. Anschließend wurden Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln als Vorläufer verwendet, um Eisensulfide (FeS und FeS2) - Kohlenstoff-Dotterschalen-Nanospindeln durch Sulfidierung bei verschiedenen Temperaturen zu erhalten. Durch Verwendung der drei Arten von Dotterschalen-Nanospindeln als Schwefelwirt wurden die Auswirkungen der Zusammensetzungen auf die Wechselwirkungen mit LiPS und die elektrochemische Leistung in Li-S-Batterien systematisch untersucht und verglichen. Die FeS2-C/S-Elektrode, die von der Chemisorption und der katalytischen Wirkung der FeS2-Teilchen und dem physikalischen Einschluss der Kohlenstoffschale profitiert, zeigt die beste elektrochemische Leistung mit einer anfänglichen spezifischen Entladekapazität von 877,6 mAh g-1 bei 0,5 C und einem Kapazitätserhalt von 86,7 % nach 350 Zyklen. Im dritten Teil wurden PILs-Vesikel als weiche Vorlage verwendet, um Kohlenstoff-Nanokapseln zu synthetisieren, die mit Eisennitridpartikeln durchsetzt sind, um LiPSs in Li-S-Batterien zu immobilisieren und deren Umwandlung zu katalysieren. Zunächst wurde 3-n-Decyl-1-Vinylimidazoliumbromid als Monomer für die Synthese von PIL-Nanovesikeln durch radikalische Polymerisation verwendet. Mit Hilfe der PDA-Beschichtung und des Ionenaustauschs wurden die PIL-Nanomoleküle erfolgreich als weiche Vorlage bei der morphologieerhaltenden Karbonisierung eingesetzt, um Kohlenstoff-Nanokapseln mit eingebetteten Eisennitrid-Nanopartikeln (FexN@C) herzustellen. Die gut dispergierten Eisennitrid-Nanopartikel katalysieren die Umwandlung von LiPS in Li2S aufgrund ihrer hohen elektrischen Leitfähigkeit und starken chemischen Bindung an LiPS effektiv. Die konstruierte FexN@C/S-Kathode zeigt eine hohe anfängliche Entladekapazität von 1085,0 mAh g-1 bei 0,5 C mit einer verbleibenden Kapazität von 930,0 mAh g-1 nach 200 Zyklen. Die Ergebnisse dieser Arbeit zeigen, dass sich nanostrukturierte eisenbasierte Verbindungen mit kontrollierbarer Morphologie und Zusammensetzung leicht synthetisieren lassen, indem weiche und harte kolloidale Template verwendet werden, die als Schwefelwirt eingesetzt werden können, um das Shuttle-Verhalten von LiPS zu unterdrücken. Die in dieser Arbeit entwickelten Syntheseansätze sind auch für die Herstellung anderer Verbindungen auf Übergangsmetallbasis mit porösen Nanostrukturen für andere Anwendungen einsetzbar. KW - sulfur host KW - Schwefelwirt KW - Li-S batteries KW - Li-S-Batterien KW - iron-based compounds KW - Verbindungen auf Eisenbasis KW - nanospindles KW - Nanospindeln KW - vesicles KW - Vesikel KW - nanocapsules KW - Nanokapseln KW - poly(ionic liquid)s KW - poly(ionische Flüssigkeiten) KW - electron tomography KW - Elektronentomographie KW - cryo-electron microscopy KW - Kryo-Elektronenmikroskopie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610369 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - THES A1 - Wunderling, Nico T1 - Nichtlineare Dynamiken und Interaktionen von Kippelementen im Erdsystem T1 - Nonlinear dynamics and interactions of tipping elements in the Earth system N2 - With ongoing anthropogenic global warming, some of the most vulnerable components of the Earth system might become unstable and undergo a critical transition. These subsystems are the so-called tipping elements. They are believed to exhibit threshold behaviour and would, if triggered, result in severe consequences for the biosphere and human societies. Furthermore, it has been shown that climate tipping elements are not isolated entities, but interact across the entire Earth system. Therefore, this thesis aims at mapping out the potential for tipping events and feedbacks in the Earth system mainly by the use of complex dynamical systems and network science approaches, but partially also by more detailed process-based models of the Earth system. In the first part of this thesis, the theoretical foundations are laid by the investigation of networks of interacting tipping elements. For this purpose, the conditions for the emergence of global cascades are analysed against the structure of paradigmatic network types such as Erdös-Rényi, Barabási-Albert, Watts-Strogatz and explicitly spatially embedded networks. Furthermore, micro-scale structures are detected that are decisive for the transition of local to global cascades. These so-called motifs link the micro- to the macro-scale in the network of tipping elements. Alongside a model description paper, all these results are entered into the Python software package PyCascades, which is publicly available on github. In the second part of this dissertation, the tipping element framework is first applied to components of the Earth system such as the cryosphere and to parts of the biosphere. Afterwards it is applied to a set of interacting climate tipping elements on a global scale. Using the Earth system Model of Intermediate Complexity (EMIC) CLIMBER-2, the temperature feedbacks are quantified, which would arise if some of the large cryosphere elements disintegrate over a long span of time. The cryosphere components that are investigated are the Arctic summer sea ice, the mountain glaciers, the Greenland and the West Antarctic Ice Sheets. The committed temperature increase, in case the ice masses disintegrate, is on the order of an additional half a degree on a global average (0.39-0.46 °C), while local to regional additional temperature increases can exceed 5 °C. This means that, once tipping has begun, additional reinforcing feedbacks are able to increase global warming and with that the risk of further tipping events. This is also the case in the Amazon rainforest, whose parts are dependent on each other via the so-called moisture-recycling feedback. In this thesis, the importance of drought-induced tipping events in the Amazon rainforest is investigated in detail. Despite the Amazon rainforest is assumed to be adapted to past environmental conditions, it is found that tipping events sharply increase if the drought conditions become too intense in a too short amount of time, outpacing the adaptive capacity of the Amazon rainforest. In these cases, the frequency of tipping cascades also increases to 50% (or above) of all tipping events. In the model that was developed in this study, the southeastern region of the Amazon basin is hit hardest by the simulated drought patterns. This is also the region that already nowadays suffers a lot from extensive human-induced changes due to large-scale deforestation, cattle ranching or infrastructure projects. Moreover, on the larger Earth system wide scale, a network of conceptualised climate tipping elements is constructed in this dissertation making use of a large literature review, expert knowledge and topological properties of the tipping elements. In global warming scenarios, tipping cascades are detected even under modest scenarios of climate change, limiting global warming to 2 °C above pre-industrial levels. In addition, the structural roles of the climate tipping elements in the network are revealed. While the large ice sheets on Greenland and Antarctica are the initiators of tipping cascades, the Atlantic Meridional Overturning Circulation (AMOC) acts as the transmitter of cascades. Furthermore, in our conceptual climate tipping element model, it is found that the ice sheets are of particular importance for the stability of the entire system of investigated climate tipping elements. In the last part of this thesis, the results from the temperature feedback study with the EMIC CLIMBER-2 are combined with the conceptual model of climate tipping elements. There, it is observed that the likelihood of further tipping events slightly increases due to the temperature feedbacks even if no further CO$_2$ would be added to the atmosphere. Although the developed network model is of conceptual nature, it is possible with this work for the first time to quantify the risk of tipping events between interacting components of the Earth system under global warming scenarios, by allowing for dynamic temperature feedbacks at the same time. N2 - Bei fortdauerndem anthropogenem Klimawandel, könnten einige der vulnerabelsten Komponenten des Erdsystem instabil werden und in einen anderen Zustand übergehen. Diese Komponenten des Erdsystems sind die sogenannten Kippelemente. Bei ihnen wird angenommen, dass sie einen Kipppunkt besitzen ab dem sie in einen qualitativ anderen Zustand übergehen können. Sollte das passieren, hätte das schwerwiegende Konsequenzen für die Biosphäre und menschliche Gesellschaften. Des Weiteren ist gezeigt worden, dass Kippelemente keine isolierte Reigionen oder Prozesse sind, sondern über das gesamte Erdsystem hinweg interagieren. Das Ziel dieser Arbeit ist es daher, die Wahrscheinlichkeit für Kippereignisse sowie deren Feedbacks im Erdsystem zu quantifizieren. Zu diesem Zweck kommen vor allem Frameworks aus der Wissenschaft komplexer Systeme und Netzwerke zum Einsatz. Für einige Teilaspekte dieser Arbeit wird aber auch ein detaillierteres und prozessbasierteres Erdsystemmodell verwendet. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen gelegt, indem komplexe Netzwerke bestehend aus interagierenden Kippelementen untersucht werden. Hier werden Voraussetzungen für das Auftreten globaler Kippkaskaden anhand der Struktur paradigmatischer Netzwerktypen analysiert. Diese Typen sind Netzwerke wie Erdös-Rényi, Barabási-Albert, Watts-Strogatz Netzwerke oder auch explizit räumlich eingebettete Netzwerke. Darüber hinaus sind bestimmte Mikrostrukturen in Netzwerken dafür entscheidend, ob sich eine lokale Kaskaden auf das globale Netzwerk ausbreiten kann. Diese Strukturen sind das Bindeglied zwischen der Mikro- und der Makroebene des Netzwerks und werden Motive genannt. Zusammen mit einer Publikation zur Modellbeschreibung, werden alle diese Ergebnisse im Python-Softwarepaket PyCascades veröffentlicht, das auf github öffentlich verfügbar ist. Im zweiten Teil dieser Dissertation wird das Kippelementframework zunächst auf Kompenenten des Erdsystems angewendet wie der Kryosphäre und Teilen der Biosphäre, und danach auf globaler Skala für interagierende Klimakippelemente. In einem ersten Schritt werden mit dem Erdsystemmodell mittlerer Komplexität CLIMBER-2 die Temperaturfeedbacks ermittelt, die entstehen würden, wenn große Gebiete der Kryosphäre auf lange Sicht eisfrei werden. In dieser Berechnung werden das arktische Sommermeereis, die Gebirgsgletscher, der grönländische und der westantarktische Eisschild berücksichtigt. Die quantifizierte Temperaturerhöhung liegt in der Größenordnung von einem halben Grad zusätzlicher globaler Erwärmung (0.39--0.46°C). Lokale bis regionale Temperaturerhöhungen können allerdings 5°C übersteigen. Wenn also das Kippen einiger Elemente begonnen hat, bedeutet dieses Ergebnis, dass Temperaturfeedbacks in der Lage sind, das Risiko weiterer Kippereignisse zu erhöhen. Dies ist auch der Fall im Amazonasregenwald, dessen Unterregionen über den sogenannten Feuchtig-keits-Recycling-Feedback miteinander in Beziehung stehen und voneinander abhängen. In dieser Dissertation wird die Bedeutung von Kippereignissen im Detail untersucht, die aufgrund von Dürreperioden zustande kommen. Obwohl man davon ausgehen kann, dass der Regenwald sich an zurückliegende und gegenwärtige Klimabedingungen angepasst hat, kann festgestellt werden, dass die Häu-figkeit von Kippereignissen stark zunimmt, wenn die jeweilige Trockenperiode eine gewisse Intensität übersteigt und damit die Anpassungsfähigkeit des Amazonasregenwalds überschritten wird. In solchen Fällen steigt auch die Häufigkeit von Kippkaskaden unter allen Kippereignissen auf 50% (und mehr) an. In dem Modell, das in dieser Studie entwickelt wurde, zeigt sich, dass der Südosten des Amazonasbeckens am stärksten von den simulierten Trockenheitsmustern betroffen ist. Das ist gleichzeitig die Region, die bereits heute stark unter anthropogener Veränderung leidet, unter anderem aufgrund von großflächiger Abholzung, Viehzucht oder Infrastrukturprojekten. Zudem wird in dieser Dissertation auf der größeren, erdsystemweiten Skala ein Netzwerk konzeptionalisierter Klimakippelemente aufgebaut. Zu diesem Zweck wird eine umfangreiche Literaturrecherche durchgeführt, die zusammen mit Expertenwissen und den topologischen Eigenschaften der Kippelemente in die Studien mit einfließt. In Klimawandelszenarien können dann Kippkaskaden beobachtet werden, selbst wenn die globale Erderwärmung auf 2°C über dem vorindustriellen Niveau begrenzt werden kann. Außerdem werden die strukturellen Rollen der Klimakippelemente im Netzwerk ermittelt. Während die großen Eisschilde auf Grönland und der Westantarktis viele Kippkaskaden initiieren, ist die Atlantische Umwälzzirkulation für die Weitergabe vieler dieser Kaskaden verantwortlich. In unserem konzeptionellen Modell für Klimakippelemente wird darüber hinaus festgestellt, dass die Eisschilde von besonderer Bedeutung für die Stabilität des Gesamtsystems sind. Im letzen Teil dieser Dissertation werden die Ergebnisse der Feedbackstudie (CLIMBER-2-Studie) zusammengebracht mit dem konzeptionellen Klimakippelementmodell. Dabei zeigt sich, dass die Wahrscheinlichkeit zusätzlicher Kippereignisse aufgrund der berücksichtigten Temperaturfeedbacks auch ohne das Zuführen eines zusätzlichen CO2-Eintrags in die Atmosphäre leicht ansteigt. Trotz der konzeptionellen Natur des entwickelten Netzwerkmodells, ist es mit dieser Arbeit erstmals möglich eine Risikoabschätzung über das Auftreten von Kippkaskaden im Erdsystem vorzunehmen. Darüber hinaus können, unter der Annahme globaler Erwärmungsszenarien, auch dynamische Temperaturfeedbacks berücksichtigt werden. KW - tipping element KW - nonlinear dynamics KW - tipping cascade KW - climate change KW - complex networks KW - Klimawandel KW - komplexe Netzwerke KW - nichtlineare Dynamiken KW - Kippkaskade KW - Kippelement Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525140 ER - TY - THES A1 - Wulff, Alexander T1 - Essays in macroeconomics and financial market imperfections N2 - This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics. The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected. The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions. The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint. Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents. N2 - Die vorliegende Dissertation besteht aus vier eigenständigen Papieren, die sich mit den Auswirkungen von Finanzmarktunvollkommenheiten und Heterogenität beschäftigen. Die Analyse bezieht sich dabei vorwiegend auf die Klasse heterogener-Agenten Modelle mit Finanzmarktunvollkommenheiten, greift aber verschiedene Fragestellungen auf. Das erste Papier beschäftigt sich mit den Verteilungseffekten finanzieller Integration in sich entwickelnden Volkswirtschaften. Mit Hilfe eines einfachen heterogene-Agenten Ansatzes wird gezeigt, dass inländische Kapitalbesitzer massiv durch finanzielle Integration verlieren, während ausschließlich Arbeitnehmer moderat durch Lohnanstiege gewinnen. Die erheblichen Wohlfahrtsverluste für Kapitalbesitzer stehen dabei im Kontrast zu den geringen durchschnittlichen Wohlfahrtseffekten und zeigen, dass eine starke Opposition gegenüber der Öffnung von Kapitalmärkten in sich entwickelnde Länder zu erwarten ist. Der zweite Aufsatz beschäftigt sich mit dem neueren Phänomen von Kapitalflüssen von armen zu reichen Ländern sowie mit den einhergehenden inländischen Entwicklungen. Ausgehend von den stark divergierenden Ergebnissen der Literatur wird ein umfassendes heterogene-Agenten Modell mit nicht versicherbaren idiosynkratischen Risiken und Verschuldungsrestriktionen betrachtet. Anhand verschiedener Szenarien wird gezeigt, unter welchen Bedingungen Finanzmarktunvollkommenheiten zur Klärung der empirischen Befunde beitragen können und inwiefern sich die Parameterrestriktionen unter verschiedenen Modellannahmen ändern. Der dritte Aufsatz beschäftigt sich mit den Auswirkungen unvollständiger Informationen im Rahmen eines heterogene-Agenten Modells. Insbesondere werden die Auswirkungen unvollständiger Informationen bezüglich idiosynkratischer Einkommensschocks auf die aggregierte Ersparnisbildung untersucht. Die Ergebnisse zeigen, dass der Einfluss unvollständiger Information nicht nur quantitativ bedeutsam, sondern auch qualitativ verschieden ist und stark mit der konkreten Ausprägung der Finanzmarktunvollkommenheiten variiert. Der vierte Aufsatz beschäftigt sich mit der Ausgestaltung staatlicher Verschuldungspolitik. Insbesondere wird die Finanzierung einer vorübergehenden Erhöhung von Staatsausgaben unter verschiedenen Fiskalregeln analysiert. Die Ergebnisse zeigen, dass eine verschuldungsintensive Fiskalregel einen kurzfristig stabilisierenden Effekt auf Konsum und Freizeit aufweist, von dem insbesondere vermögensarme Haushalte profitieren, die besonders stark von den Verschuldungsrestriktionen betroffen sind. KW - incomplete markets KW - heterogeneous agents KW - financial integration KW - incomplete information KW - fiscal policy KW - unvollständige Märkte KW - heterogene Agenten KW - finanzielle Integration KW - unvollständige Information KW - Fiskalpolitik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429956 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - THES A1 - Wrzus, Cornelia T1 - Similarity in personal relationships : associations with relationship regulation between and within individuals T1 - Ähnlichkeit in Sozialen Beziehungen : intra- und interindividuelle Zusammenhänge mit Beziehungsregulation N2 - People engage in a multitude of different relationships. Relatives, spouses, and friends are modestly to moderately similar in various characteristics, e.g., personality characteristics, interests, appearance. The role of psychological (e.g., skills, global appraisal) and social (e.g., gender, familial status) similarities in personal relationships and the association with relationship quality (emotional closeness and reciprocity of support) were examined in four independent studies. Young adults (N = 456; M = 27 years) and middle-aged couples from four different family types (N = 171 couples, M = 38 years) gave answer to a computer-aided questionnaire regarding their ego-centered networks. A subsample of 175 middle-aged adults (77 couples and 21 individuals) participated in a one-year follow-up questioning. Two experimental studies (N = 470; N = 802), both including two assessments with an interval of five weeks, were conducted to examine causal relationships among similarity, closeness, and reciprocity expectations. Results underline the role of psychological and social similarities as covariates of emotional closeness and reciprocity of support on the between-relationship level, but indicate a relatively weak effect within established relationships. In specific relationships, such as parent-child relationships and friendships, psychological similarity partly alleviates the effects of missing genetic relatedness. Individual differences moderate these between-relationship effects. In all, results combine evolutionary and social psychological perspectives on similarity in personal relationships and extend previous findings by means of a network approach and an experimental manipulation of existing relationships. The findings further show that psychological and social similarity have different implications for the study of personal relationships depending on the phase in the developmental process of relationships. N2 - Verwandte, Partner und Freunde ähneln sich in einer Vielzahl von Merkmalen wie z.B. Persönlichkeitseigenschaften, Einstellungen oder Aussehen. Die Bedeutung von Ähnlichkeit in psychologischen und demografischen Eigenschaften von Beziehungspartnern und die Zusammenhänge mit der Qualität der Beziehung wurden in vier unabhängigen Studien untersucht. Junge Erwachsene (N = 456; M = 27 Jahre) und Paare aus vier verschiedenen Familienformen (N = 171 Paare, M = 38 Jahre) beurteilten in einem PC-gestützten Fragebogen die sozialen Beziehungen in ihrem ego-zentrierten Netzwerk hinsichtlich wahrgenommener Ähnlichkeit, emotionaler Nähe und Reziprozität der Unterstützung. Ein Teil der Paare (77 Paare und 21 Einzelpersonen) nahm an der Ein-Jahres-Längsschnittstudie teil. In zwei Experimenten (N = 470; N = 802) wurde die Wahrnehmung von Ähnlichkeit manipuliert, um die Kausalwirkung auf die emotionale Nähe und die Erwartung von reziprokem Verhalten in Beziehungen zu prüfen. Die Studien zeigten, dass innerhalb eines sozialen Netzwerkes ähnliche Beziehungspartner auch emotional näher beurteilt wurden, es jedoch kaum wechselseitige Beeinflussungen innerhalb bestehender Beziehungen gab. In spezifischen Beziehungen, wie Eltern-Kind- oder Freundschaftsbeziehungen, konnte psychologische Ähnlichkeit den Effekt der fehlenden genetischen Verwandtschaft teilweise aufheben. Merkmale der Person moderierten diese Zusammenhänge auf der Beziehungsebene. Die Ergebnisse verknüpfen die evolutionspsychologische und die sozialpsychologische Perspektive der Ähnlichkeitsforschung und ergänzen bisherige Befunde durch den Einsatz des Sozialen Netzwerkansatzes und der experimentellen Manipulation von bestehenden Beziehungen. Zudem zeigen die Befunde, dass psychologische und demografische Ähnlichkeit unterschiedliche Implikationen für die Beziehungsforschung haben, in Abhängigkeit von der Entwicklungsphase der Beziehung. KW - Ähnlichkeit KW - soziale Beziehungen KW - Mehrebenenanalyse KW - Evolutionspsychologie KW - Experiment KW - similarity KW - personal relationships KW - multilevel analysis KW - evolutionary psychology KW - experiment Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20158 ER - TY - THES A1 - Wriedt, Gunter T1 - Modelling of nitrogen transport and turnover during soil and groundwater passage in a small lowland catchment of Northern Germany N2 - Stoffumsatzreaktionen und hydraulische Prozesse im Boden und Grundwasser können in Tieflandeinzugsgebieten zu einer Nitratretention führen. Die Untersuchung dieser Prozesse in Raum und Zeit kann mit Hilfe geeigneter Modelle erfolgen. Ziele dieser Arbeit sind: i) die Entwicklung eines geeigneten Modellansatzes durch Kombination von Teilmodellen zur Simulation des N-Transportes im Boden und Grundwasser von Tieflandeinzugsgebieten und ii) die Untersuchung von Wechselwirkungen zwischen Gebietseigenschaften und N-Transport unter besonderer Berücksichtigung der potentiellen N-Zufuhr in die Oberflächengewässer. Der Modellansatz basiert auf der Kombination verschiedener Teilmodelle: das Bodenwasser- und -stickstoffmodell mRISK-N, das Grundwassermodell MODFLOW und das Stofftransportmodell RT3D. Zur Untersuchung der Wechselwirkungen mit den Gebietseigenschaften muss die Verteilung und Verfügbarkeit von Reaktionspartnern berücksichtigt werden. Dazu wurde ein Reaktionsmodul entwickelt, welches chemische Prozesse im Grundwasser simuliert. Hierzu gehören die Mineralisation organischer Substanz durch Sauerstoff, Nitrat und Sulfat sowie die Pyritoxidation durch Sauerstoff und Nitrat. Der Modellansatz wurde in verschiedenen Einzelstudien angewandt, wobei jeweils bestimmte Teilmodelle im Vordergrund stehen. Alle Modellstudien basieren auf Daten aus dem Schaugrabeneinzugsgebiet (ca. 25 km²), in der Nähe von Osterburg(Altmark) im Norden Sachsen-Anhalts. Die folgenden Einzelstudien wurden durchgeführt: i) Evaluation des Bodenmodells anhand von Lysimeterdaten, ii) Modellierung eines Tracerexperimentes im Feldmaßstab als eine erste Anwendung des Reaktionsmoduls, iii) Untersuchung hydraulisch-chemischer Wechselwirkungen an einem 2D-Grundwassertransekt, iv) Flächenverteilte Modellierung von Grundwasserneubildung und Bodenstickstoffaustrag im Untersuchungsgebiet als Eingangsdaten für nachfolgende Grundwassersimulationen, und v) Untersuchung der Ausbreitung von Nitrat im Grundwasser und des Durchbruchs in die Oberflächengewässer im Untersuchungsgebiet auf Basis einer 3D-Modellierung von Grundwasserströmung und reaktivem Stofftransport. Die Modellstudien zeigen, dass der Modellansatz geeignet ist, die Wechselwirkungen zwischen Stofftransport und –umsatz und den hydraulisch-chemischen Gebietseigenschaften zu modellieren. Die Ausbreitung von Nitrat im Sediment wird wesentlich von der Verfügbarkeit reaktiver Substanzen sowie der Verweilzeit im Grundwasserleiter bestimmt. Bei der Simulation des Untersuchungsgebietes wurde erst nach 70 Jahren eine der gegebenen Eintragssitutation entsprechende Nitratkonzentration im Grundwasserzustrom zum Grabensystem erreicht (konservativer Transport). Die Berücksichtigung von reaktivem Stofftransport führt zu einer deutlichen Reduktion der Nitratkonzentrationen. Die Modellergebnisse zeigen, dass der Grundwasserzustrom die beobachtete Nitratbelastung im Grabensystem nicht erklären kann, da der Großteil des Nitrates durch Denitrifikation verloren geht. Andere Quellen, wie direkte Einträge oder Dränagenzuflüsse müssen ebenfalls in Betracht gezogen werden. Die Prognosefähigkeit des Modells für das Untersuchungsgebiet wird durch die Datenunsicherheiten und die Schätzung der Modellparameter eingeschränkt. Dennoch ist der Modellansatz eine wertvolle Hilfe bei der Identifizierung von belastungsrelevanten Teilflächen (Stoffquellen und -senken) sowie bei der Modellierung der Auswirkungen von Managementmaßnahmen oder Landnutzungsveränderungen auf Grundlage von Szenario-Simulationen. Der Modellansatz unterstützt auch die Interpretation von Beobachtungsdaten, da so die lokalen Informationen in einen räumlichen und zeitlichen Zusammenhang gestellt werden können. N2 - Chemical transformations and hydraulic processes in soil and groundwater often lead to an apparent retention of nitrate in lowland catchments. Models are needed to evaluate the interaction of these processes in space and time. The objectives of this study are i) to develop a specific modelling approach by combining selected modelling tools simulating N-transport and turnover in soils and groundwater of lowland catchments, ii) to study interactions between catchment properties and nitrogen transport. Special attention was paid to potential N-loads to surface waters. The modelling approach combines various submodels for water flow and solute transport in soil and groundwater: The soil-water- and nitrogen-model mRISK-N, the groundwater flow model MODFLOW and the solute transport model RT3D. In order to investigate interactions of N-transport and catchment characteristics, the distribution and availability of reaction partners have to be taken into account. Therefore, a special reaction-module is developed, which simulates various chemical processes in groundwater, such as the degradation of organic matter by oxygen, nitrate, sulphate or pyrite oxidation by oxygen and nitrate. The model approach is applied to different simulation, focussing on specific submodels. All simulation studies are based on field data from the Schaugraben catchment, a pleistocene catchment of approximately 25 km², close to Osterburg(Altmark) in the North of Saxony-Anhalt. The following modelling studies have been carried out: i) evaluation of the soil-water- and nitrogen-model based on lysimeter data, ii) modelling of a field scale tracer experiment on nitrate transport and turnover in the groundwater as a first application of the reaction module, iii) evaluation of interactions between hydraulic and chemical aquifer properties in a two-dimensional groundwater transect, iv) modelling of distributed groundwater recharge and soil nitrogen leaching in the study area, to be used as input data for subsequent groundwater simulations, v) study of groundwater nitrate distribution and nitrate breakthrough to the surface water system in the Schaugraben catchment area and a subcatchment, using three-dimensional modelling of reactive groundwater transport. The various model applications prove the model to be capable of simulating interactions between transport, turnover and hydraulic and chemical catchment properties. The distribution of nitrate in the sediment and the resulting loads to surface waters are strongly affected by the amount of reactive substances and by the residence time within the aquifer. In the Schaugraben catchment simulations, it is found that a period of 70 years is needed to raise the average seepage concentrations of nitrate to a level corresponding to the given input situation, if no reactions are considered. Under reactive transport conditions, nitrate concentrations are reduced effectively. Simulation results show that groundwater exfiltration does not contribute considerably to the nitrate pollution of surface waters, as most nitrate entering soils and groundwater is lost by denitrification. Additional sources, such as direct inputs or tile drains have to be taken into account to explain surface water loads. The prognostic value of the models for the study site is limited by uncertainties of input data and estimation of model parameters. Nevertheless, the modelling approach is a useful aid for the identification of source and sink areas of nitrate pollution as well as the investigation of system response to management measures or landuse changes with scenario simulations. The modelling approach assists in the interpretation of observed data, as it allows to integrate local observations into a spatial and temporal framework. KW - Stickstoff KW - Nitrat KW - Modellierung KW - Grundwasser KW - Einzugsgebiet KW - Reaktiver Stofftransport KW - Denitrifikation KW - Nitrogen KW - Nitrate KW - modelling KW - groundwater KW - catchment KW - reactive transport KW - denitrification Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001307 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Wotschack, Christiane T1 - Eye movements in reading strategies : how reading strategies modulate effects of distributed processing and oculomotor control T1 - Lesestrategien und Blickbewegungen : wie Lesestrategien Effekte der verteilten Verarbeitung und der okulomotorischen Kontrolle modulieren N2 - Throughout its empirical research history eye movement research has always been aware of the differences in reading behavior induced by individual differences and task demands. This work introduces a novel comprehensive concept of reading strategy, comprising individual differences in reading style and reading skill as well as reader goals. In a series of sentence reading experiments recording eye movements, the influence of reading strategies on reader- and word-level effects assuming distributed processing has been investigated. Results provide evidence for strategic, top-down influences on eye movement control that extend our understanding of eye guidance in reading. N2 - Seit Beginn der Blickbewegungsforschung beim Lesen ist man sich über Unterschiede im Blickverhalten bewusst, die im Zusammenhang mit individuellen Unterschieden oder Aufgabenanforderungen stehen. Unter dem Begriff ‚Lesestrategie’ wurden diese Unterschiede hauptsächlich für diagnostische Zwecke verwendet. Diese Studie verwendet eine neue, umfassende Definition von Lesestrategie und berücksichtigt sowohl individuelle Unterschiede in Lesestil und Lesevermögen als auch Ziel und Intention des Lesers. In einer Reihe von Satzleseexperimenten, bei denen die Blickbewegungen aufgezeichnet wurden, wurde der Einfluss von Lesestrategien auf Effekte der Leser-und Wortebene untersucht, wobei eine verteilte Verarbeitung beim Lesen angenommen wird. Die Ergebnisse liefern Evidenzen für strategische, top-down Einflüsse auf die Blickbewegungen und leisten einen wichtigen Beitrag für das bessere Verständnis der Blickbewegungskontrolle beim Lesen. T3 - Spektrum Patholinguistik - Schriften - 1 KW - Blickbewegungen KW - Satzlesen KW - Lesestrategie KW - verteilte Verarbeitung KW - individuelle Unterschiede KW - eye movements KW - sentence reading KW - reading strategy KW - distributed processing KW - individual differences Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-36846 SN - 978-3-86956-021-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Worseck, Gábor T1 - The transverse proximity effect in quasar spectra T1 - Der Transversale Proximity-Effekt in Quasarspektren N2 - The intergalactic medium is kept highly photoionised by the intergalactic UV background radiation field generated by the overall population of quasars and galaxies. In the vicinity of sources of UV photons, such as luminous high-redshift quasars, the UV radiation field is enhanced due to the local source contribution. The higher degree of ionisation is visible as a reduced line density or generally as a decreased level of absorption in the Lyman alpha forest of neutral hydrogen. This so-called proximity effect has been detected with high statistical significance towards luminous quasars. If quasars radiate rather isotropically, background quasar sightlines located near foreground quasars should show a region of decreased Lyman alpha absorption close to the foreground quasar. Despite considerable effort, such a transverse proximity effect has only been detected in a few cases. So far, studies of the transverse proximity effect were mostly limited by the small number of suitable projected pairs or groups of high-redshift quasars. With the aim to substantially increase the number of quasar groups in the vicinity of bright quasars we conduct a targeted survey for faint quasars around 18 well-studied quasars at employing slitless spectroscopy. Among the reduced and calibrated slitless spectra of 29000 objects on a total area of 4.39 square degrees we discover in total 169 previously unknown quasar candidates based on their prominent emission lines. 81 potential z>1.7 quasars are selected for confirmation by slit spectroscopy at the Very Large Telescope (VLT). We are able to confirm 80 of these. 64 of the newly discovered quasars reside at z>1.7. The high success rate of the follow-up observations implies that the majority of the remaining candidates are quasars as well. In 16 of these groups we search for a transverse proximity effect as a systematic underdensity in the HI Lyman alpha absorption. We employ a novel technique to characterise the random absorption fluctuations in the forest in order to estimate the significance of the transverse proximity effect. Neither low-resolution spectra nor high-resolution spectra of background quasars of our groups present evidence for a transverse proximity effect. However, via Monte Carlo simulations the effect should be detectable only at the 1-2sigma level near three of the foreground quasars. Thus, we cannot distinguish between the presence or absence of a weak signature of the transverse proximity effect. The systematic effects of quasar variability, quasar anisotopy and intrinsic overdensities near quasars likely explain the apparent lack of the transverse proximity effect. Even in absence of the systematic effects, we show that a statistically significant detection of the transverse proximity effect requires at least 5 medium-resolution quasar spectra of background quasars near foreground quasars whose UV flux exceeds the UV background by a factor 3. Therefore, statistical studies of the transverse proximity effect require large numbers of suitable pairs. Two sightlines towards the central quasars of our survey fields show intergalactic HeII Lyman alpha absorption. A comparison of the HeII absorption to the corresponding HI absorption yields an estimate of the spectral shape of the intergalactic UV radiation field, typically parameterised by the HeII/HI column density ratio eta. We analyse the fluctuating UV spectral shape on both lines of sight and correlate it with seven foreground quasars. On the line of sight towards Q0302-003 we find a harder radiation field near 4 foreground quasars. In the direct vicinity of the quasars eta is consistent with values of 25-100, whereas at large distances from the quasars eta>200 is required. The second line of sight towards HE2347-4342 probes lower redshifts where eta is directly measurable in the resolved HeII forest. Again we find that the radiation field near the 3 foreground quasars is significantly harder than in general. While eta still shows large fluctuations near the quasars, probably due to radiative transfer, the radiation field is on average harder near the quasars than far away from them. We interpret these discoveries as the first detections of the transverse proximity effect as a local hardness fluctuation in the UV spectral shape. No significant HI proximity effect is predicted for the 7 foreground quasars. In fact, the HI absorption near the quasars is close to or slightly above the average, suggesting that the weak signature of the transverse proximity effect is masked by intrinsic overdensities. However, we show that the UV spectral shape traces the transverse proximity effect even in overdense regions or at large distances. Therefore, the spectral hardness is a sensitive physical measure of the transverse proximity effect that is able to break the density degeneracy affecting the traditional searches. N2 - Das intergalaktische Medium wird durch das intergalaktische UV-Hintergrundsstrahlungsfeld in einem hochgradig photoionisierten Zustand gehalten. Der UV-Hintergrund stammt von der gesamten Population von Quasaren und Galaxien. In der Nähe von leuchtkräftigen Quasaren, ist das UV-Strahlungsfeld lokal erhöht durch den Anteil der Quelle. Der höhere Ionisationsgrad ist beobachtbar als eine reduzierte Liniendichte oder allgemein als ein vermindertes Maß an Absorption im Lyman-alpha Wald des neutralen Wasserstoffs. Dieser sogenannte Proximity-Effekt ist bei leuchtkräftigen Quasaren mit hoher statistischer Signifikanz nachgewiesen worden. Falls Quasare fast isotrop strahlen, dann sollten Sichtlinien zu Hintergrundquasaren in der Nähe von Vordergrundquasaren eine Region mit verminderter Absorption zeigen. Trotz beträchtlichen Aufwands wurde solch ein transversaler Proximity-Effekt nur in wenigen Fällen entdeckt. Bisher waren Studien des transversalen Proximity-Effekts meist begrenzt durch die kleine Anzahl von geeigneten projizierten Paaren oder Gruppen von hochrotverschobenen Quasaren. Mit dem Ziel die Zahl der Quasargruppen in der Nähe von hellen Quasaren beträchtlich zu erhöhen, führen wir eine gezielte Suche nach schwachen Quasaren um 18 oft studierte Quasare durch. Unter den reduzierten und kalibrierten spaltlosen Spektren von 29000 Objekten auf einer Gesamtfläche von 4.39 Quadratgrad entdecken wir insgesamt 169 vorher unbekannte Quasarkandidaten anhand ihrer Emissionslinien. 81 potentielle z>1.7 Quasare werden ausgesucht zur Bestätigung mittels Spaltspektroskopie am Very Large Telescope (VLT). Wir können 80 von diesen als Quasare bestätigen. 64 der neu entdeckten Quasare liegen bei z>1.7. Die hohe Erfolgsrate der Nachfolgebeobachtungen deutet an, dass die Mehrzahl der verbleibenden Kandidaten ebenfalls Quasare sind. In 16 dieser Gruppen suchen wir nach dem transversalen Proximity-Effekt als eine systematische Unterdichte in der HI Lyman-alpha-Absorption. Wir nutzen eine neuartige Methode die zufälligen Absorptionsfluktuationen zu charakterisieren, um die Signifikanz des transversalen Proximity-Effekts abschätzen zu können. Weder schwach aufgelöste noch hoch aufgelöste Spektren von Hintergrundquasaren unserer Gruppen zeigen Anzeichen für einen transversalen Proximity-Effekt. Aufgrund von Monte Carlo Simulationen sollte der Effekt jedoch nur schwach in der Nähe von 3 Vordergrundquasaren detektierbar sein. Deshalb können wir nicht zwischen An- oder Abwesenheit des Effekts unterscheiden. Selbst in Abwesenheit von systematischen Effekten zeigen wir, dass eine statistisch signifikante Detektion des transversalen Proximity-Effekts mindestens 5 Hintergrundquasarspektren bei mittlerer Auflösung nahe Vordergrundquasaren erfordert, deren UV-Fluss den UV-Hintergrund um einen Faktor 3 übersteigt. Deshalb erfordern statistische Studien des transversalen Proximity-Effekts große Zahlen von geeigneten Quasaren. Zwei Sichtlinien zeigen HeII-Absorption. Ein Vergleich der HeII-Absorption mit der entsprechenden HI-Absorption liefert eine Abschätzung der Spektralform des UV-Strahlungsfelds, das typischerweise durch das HeII/HI Säulendichteverhältnis eta parameterisiert wird. Wir analysieren die fluktuierende spektrale Form des UV-Strahlungsfelds auf beiden Sichtlinien und korrelieren sie mit 7 Vordergrundquasaren. Auf der Sichtlinie zu Q0302-003 finden wir ein härteres Strahlungsfeld nahe 4 Vordergrundquasaren. In der direkten Umgebung der Quasare ist eta konsistent mit Werten von 25-100, wogegen bei großen Entfernungen zu den Quasaren eta>200 erforderlich ist. Die zweite Sichtlinie zu HE2347-4342 sondiert kleinere Rotverschiebungen. Wieder finden wir, dass das Strahlungsfeld nahe der 3 Vordergrundquasaren signifikant härter ist als im allgemeinen. Während eta trotzdem große Fluktuationen nahe den Quasaren aufweist, die wahrscheinlich von Strahlungstransport herrühren, ist das Strahlungsfeld in der Nähe der Quasare im Mittel härter als in großer Entfernung. Wir interpretieren diese Entdeckungen als die ersten Detektionen des transversalen Proximity-Effekts als eine lokale Fluktuation im spektralen Härtegrad. Kein signifikanter HI Proximity-Effekt ist für die 7 Vordergrundquasare vorhergesagt. Tatsächlich ist die HI-Absorption nahe den Quasaren nahe am oder etwas über dem Mittelwert, was darauf hindeutet, dass die schwache Signatur des transversalen Proximity-Effekts maskiert wird durch intrinsische Überdichten. Jedoch zeigen wir, dass der Härtegrad den transversalen Proximity-Effekt selbst in überdichten Regionen oder auf großen Distanzen sichtbar werden läßt. Deshalb ist der spektrale Härtegrad ein empfindliches physikalisches Maß für den transversalen Proximity-Effekt, der in der Lage ist, die Dichteentartung zu brechen, die die traditionelle Suche behindert. KW - Quasar KW - Proximity-Effekt KW - intergalaktisches Medium KW - quasar KW - proximity effect KW - intergalactic medium Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18738 ER - TY - THES A1 - Won, Jooyoung T1 - Dynamic and equilibrium adsorption behaviour of ß-lactoglobulin at the solution/tetradecane interface: Effect of solution concentration, pH and ionic strength T1 - Dynamik und Gleichgewicht der Adsorption von ß-Lactoglobulin an der Grenzfläche Lösung / Tetradecan (W/TD) N2 - Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology. In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3. Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm. At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface. At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles. N2 - Die vorliegende Arbeit ist ein Beitrag zum Verständnis des Überganges von der qualitativen zur quantitativen Beschreibung der Adsorption von Proteinen an der Wasser/Öl- Grenzfläche. Dabei wird die Adsorption des Molkeproteins ß-Lactoglobulin (BLG) an der Wasser/Tetradekan (W/TD) Grenzfläche untersucht. Die Proteinadsorption an Grenzflächen zwischen zwei nicht mischbaren Flüssigkeiten ist ein Zeitprozess. Die Tropfenprofil-Analysen-Tensiometrie (PAT) hat sich als optimale Methode erwiesen, um den Prozess der Bildung von Proteinadsorptionsschichten an Flüssig-/flüssig-Grenzflächen quantitativ zu untersuchen. Die gemessenen dynamischen Grenzflächenspannungen können genutzt werden, um die adsorbierte Menge von Protein an Grenzflächen zu bestimmen. Zusätzlich erlaubt die Methode, durch periodische Tropfenoszillationen, die Messung der Dilatations-Viskoelastizität. Die experimentellen Ergebnisse zeigen deutlich, dass die Adsorption von Proteinen mit der Konzentration ansteigt. Der Adsorptionsprozess von Proteinen ist ähnlich dem von Tensiden, allerdings wird seine Beschreibung wesentlich komplizierter, durch die zusätzliche Möglichkeit der Konformationsänderungen der Proteinmoleküle an der Grenzfläche. Ein kürzlich im Rahmen dieser Dissertation entwickeltes Modell zur Adsorptionskinetik von Proteinen wurde genutzt, um experimentelle Daten für BLG zu interpretieren. Dieses kinetische Modell erlaubt es, den Mechanismus der Proteinadsorption an der Wasser/Öl-Grenzfläche zu beschreiben, was durch ältere Modelle bisher nicht möglich war. Im neu entwickelten Modell wurde die klassische Diffusionstheorie so modifiziert, dass eine Änderung der Adsorptionsaktivität der adsorbierenden Proteinmoleküle berücksichtigt wird. Die Änderung der Adsorptionsaktivität geschieht durch den Kontakt adsorbierter BLG-Moleküle an der Wasser/Öl-Grenzfläche. Es wird nach diesem neuen Modell angenommen, dass die Adsorptionsaktivität eine Funktion der Adsorptionszeit ist. Die ansteigende Adsorptionaktivität ist erforderlich, um den Adsorptionsprozess von BLG über den gesamten Zeitbereich quantitativ zu beschrieben. Mit diesem neuen Modell wurde es möglich, die experimentellen Daten zur Adsorptionskinetik sowie zur Dilatationsrheologie von Adsorptionsschichten bei unterschiedlichen BLG-Konzentrationen, pH-Werten und Ionenstärken an der Grenzfläche Lösung/Tetradekan quantitativ zu beschreiben. Die Ergebnisse dienen als Ausgangspunkt für weitere Entwicklungen zur Verbesserung des Verständnisses der Stabilität von Schäumen und Emulsionen, die durch die Dynamik der Adsorption von Molekülen wie BLG signifikant beeinflusst wird. KW - beta-lactoglobulin KW - water/tetradecane interface KW - drop profile analysis tensiometry KW - dynamic interfacial tensions KW - protein adsorption KW - pH effect KW - ionic strength effect KW - protein stabilized foams KW - drop and bubble coalescence KW - interfacial dynamics KW - capillary pressure tensiometry KW - drop-drop interaction KW - bubble-bubble interaction KW - ß-Lactoglobulin KW - Flüssig-/flüssig-Grenzflächen KW - Wasser/Öl-Grenzfläche KW - Grenzfläche Lösung/Tetradecan KW - Dynamik der Adsorption KW - Gleichgewicht der Adsorption KW - Proteinadsorption KW - Tropfenprofil-Analysen-Tensiometrie KW - Tropfenoszillationen KW - Dilatations-Viskoelastizität KW - klassische Diffusionstheorie KW - Konformationsänderungen KW - Adsorptionsaktivität KW - Wirkung des pH-Werten KW - Wirkung des Ionenstärken KW - Stabilität von Schäumen KW - Stabilität von Emulsionen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99167 ER - TY - THES A1 - Wolff, Markus T1 - Geovisual methods and techniques for the development of three-dimensional tactical intelligence assessments T1 - Methoden und Techniken zur Entwicklung dreidimensionaler Lagebilder für Belange der zivilen Sicherheit N2 - This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis. N2 - Diese Arbeit präsentiert Methoden, Techniken und Werkzeuge für die Entwicklung dreidi-mensionaler Lagebilder. Zu diesem Zweck werden Verfahren der Geoinformatik mit solchen der raumbezogenen Straftatenanalyse kombiniert. Das Spektrum der angewandten Methoden und Techniken umfasst raumzeitliche GIS-Analysen ebenso wie 3D Geovisualisierungen und GIS-Anwendungsprogrammierung. Um komplexe geovisuelle Analysen auf Basis virtueller 3D-Stadtmodelle zu ermöglichen, werden Datenbanken digitaler Stadtmodelle um anwendungsspezifische Fachinformationen ergänzt. Dies ermöglicht weiterführende Analysen, zum Beispiel zur räumlichen Verteilung urbaner Risiken. Weiterhin präsentiert die Arbeit Methoden und Verfahren zur Integration der Ergebnisse komplexer raumzeitlicher Straftatenanalysen in dreidimensionale Lagebilder. Die durchgeführten Analysen umfassen die Identifikation von Brennpunkten spezifischer Delikte mittels Techniken der Kerndichteschätzung, die Verifikation dieser Hotspots durch LISA-Statistiken, GIS-basierte räumliche Charakterisierungen von Brennpunkten sowie Analysen zur wiederholten Viktimisierung. Zur Visualisierung der Ergebnisse komplexer raumzeitlicher Analysen werden dreidimensionale geovirtuelle Umgebungen erzeugt. Um weitere raumbezogene Daten ergänzt, werden sämtliche Analyseergebnisse in diese Umgebungen integriert. Die resultierenden 3D-Visualisierungen erlauben eine effiziente Kommunikation der Ergebnisse komplexer raumbezogener Straftatenanalysen. KW - raumbezogene Straftatenanalyse KW - GIS KW - geovirtuelle Umgebungen KW - 3D-Geovisualisierung KW - 3D-Stadtmodelle KW - Crime mapping KW - GIS KW - geovirtual environments KW - 3D geovisualisation KW - 3D city models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50446 ER - TY - THES A1 - Wolff, Christian Michael T1 - East African monsoon variability since the last glacial T1 - Ostafrikanische Monsunvariabilität seit dem letztem Glazial N2 - The impact of global warming on human water resources is attracting increasing attention. No other region in this world is so strongly affected by changes in water supply than the tropics. Especially in Africa, the availability and access to water is more crucial to existence (basic livelihoods and economic growth) than anywhere else on Earth. In East Africa, rainfall is mainly influenced by the migration of the Inter-Tropical Convergence Zone (ITCZ) and by the El Niño Southern Oscillation (ENSO) with more rain and floods during El Niño and severe droughts during La Niña. The forecasting of East African rainfall in a warming world requires a better understanding of the response of ENSO-driven variability to mean climate. Unfortunately, existing meteorological data sets are too short or incomplete to establish a precise evaluation of future climate. From Lake Challa near Mount Kilimanjaro, we report records from a laminated lake sediment core spanning the last 25,000 years. Analyzing a monthly cleared sediment trap confirms the annual origin of the laminations and demonstrates that the varve-thicknesses are strongly linked to the duration and strength of the windy season. Given the modern control of seasonal ITCZ location on wind and rain in this region and the inverse relation between the two, thicker varves represent windier and thus drier years. El Niño (La Niña) events are associated with wetter (drier) conditions in east Africa and decreased (increased) surface wind speeds. Based on this fact, the thickness of the varves can be used as a tool to reconstruct a) annual rainfall b) wind season strength, and c) ENSO variability. Within this thesis, I found evidence for centennialscale changes in ENSO-related rainfall variability during the last three millennia, abrupt changes in variability during the Medieval Climate Anomaly and the Little Ice Age, and an overall reduction in East African rainfall and its variability during the Last Glacial period. Climate model simulations support forward extrapolation from these lake-sediment data, indicating that a future Indian Ocean warming will enhance East Africa’s hydrological cycle and its interannual variability in rainfall. Furthermore, I compared geochemical analyses from the sediment trap samples with a broad range of limnological, meteorological, and geological parameters to characterize the impact of sedimentation processes from the in-situ rocks to the deposited sediments. As a result an excellent calibration for existing μXRF data from Lake Challa over the entire 25,000 year long profile was provided. The climate development during the last 25,000 years as reconstructed from the Lake Challa sediments is in good agreement with other studies and highlights the complex interactions between long-term orbital forcing, atmosphere, ocean and land surface conditions. My findings help to understand how abrupt climate changes occur and how these changes correlate with climate changes elsewhere on Earth. N2 - Änderungen des Klimas in einer sich erwärmenden Erde haben große Auswirkungen auf den globalen und lokalen Wasserhaushalt und rücken anhand starker Extremereignisse immer häufiger in den Fokus der Öffentlichkeit. Besonders die Regionen der Tropen sind von derartigen Einschnitten stark gefährdet. Der jährliche Niederschlag in Ostafrika ist stark mit der saisonalen Wanderung der ITCZ (Innertropischen Konvergenzzone) sowie mit dem El Niño/Southern Oscillation (ENSO) Phänomen verbunden. Extreme Regenfälle und Überschwemmungen während El Niño Jahren stehen Trockenheit und Dürren in La Niña Jahren gegenüber. Prognosen über zukünftige Veränderungen der ostafrikanischen Niederschläge erfordern ein verbessertes Verständnis der ENSO antreibenden Faktoren. Unglücklicherweise sind die vorhandenen meteorologischen Datenreihen nicht lang genug oder besitzen nicht die benötigte Homogenität. Einen hilfreichen Beitrag können jährlich geschichtete Seesedimente des am Fuße des Kilimandscharo gelegenen Lake Challa leisten. Anhand einer monatlich aufgelösten Sedimentfalle konnte ich nachweisen, dass die rund 25.000 Jahre zurückreichenden Sedimente eine jährliche Struktur besitzen sowie die Dicke dieser jährlichen Schichtung (Warve) stark mit der Dauer und Intensität der saisonal windreichen/trockenen Jahreszeit verbunden ist. Dickere Warven repräsentieren windige/trockene Jahre, wohingegen dünnere Warven für windschwache und feuchte Jahre stehen. Stärkere Winde und kaum Niederschläge treten oft im Zusammenhang mit einem La Niña Ereignis in Ostafrika auf, wohingegen während eines El Niño Ereignisses häufig extreme Niederschläge mit wenig Wind zu beobachten sind. Anhand der Vermessung der Warven kann man verschiedene Klimaparameter rekonstruieren: a) den jährlichen Niederschlag b) jährliche Windgeschwindigkeiten und ihre Intensitäten sowie c) ENSO Variabilitäten. Die in meiner Arbeit gewonnenen klimatischen Informationen zeigen starke Änderungen der ENSO Variabilität innerhalb der letzten 3.000 Jahre mit starken Unterschieden während der Kleinen Eiszeit und während der Mittelalterlichen Warmzeit sowie deutlich trockene und windige Bedingungen mit sehr geringen ENSO Aktivitäten im glazialem Zeitraum (18.500 und 21.000 Jahren). Modellberechnungen unterstützen diese Ergebnisse einer Zunahme von Extremereignissen und feuchteren Bedingungen im Zuge einer Erwärmung des Indischen Ozeans. Mittels geochemischer Analysen der Sedimentfallenproben sowie die daraus resultierende Verknüpfung mit limnologischen und meteorologischen Parametern, konnte ich einen entscheidenden Beitrag zur erfolgreichen Interpretation der existierenden 25.000 Jahre langen μXRF Datensätze leisten. Der Anteil an allochthonem und autochthonem Eintrag kann so genau klassifiziert werden. Das dadurch gewonnene Bild der Klimaentwicklung der letzten 25.000 Jahre deckt sich hervorragend mit anderen Studien und ermöglicht Einblicke in das komplexe Zusammenspiel zwischen Ozean-Atmosphäre und Umwelt auf dem afrikanischen Kontinent. Besonders die für die Ostafrikaforschung extrem hohe Auflösung der Daten wird helfen, die abrupten Klimawechsel und Interaktionen besser verstehen zu können. KW - Lake Challa KW - Sedimentfalle KW - Warve KW - ENSO KW - Monsun KW - Lake Challa KW - sediment trap KW - varve KW - ENSO KW - monsoon Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58079 ER - TY - THES A1 - Wolff, Christian Michael T1 - Identification and reduction of losses in perovskite solar cells N2 - Perovskite solar cells have become one of the most studied systems in the quest for new, cheap and efficient solar cell materials. Within a decade device efficiencies have risen to >25% in single-junction and >29% in tandem devices on top of silicon. This rapid improvement was in many ways fortunate, as e. g. the energy levels of commonly used halide perovskites are compatible with already existing materials from other photovoltaic technologies such as dye-sensitized or organic solar cells. Despite this rapid success, fundamental working principles must be understood to allow concerted further improvements. This thesis focuses on a comprehensive understanding of recombination processes in functioning devices. First the impact the energy level alignment between the perovskite and the electron transport layer based on fullerenes is investigated. This controversial topic is comprehensively addressed and recombination is mitigated through reducing the energy difference between the perovskite conduction band minimum and the LUMO of the fullerene. Additionally, an insulating blocking layer is introduced, which is even more effective in reducing this recombination, without compromising carrier collection and thus efficiency. With the rapid efficiency development (certified efficiencies have broken through the 20% ceiling) and thousands of researchers working on perovskite-based optoelectronic devices, reliable protocols on how to reach these efficiencies are lacking. Having established robust methods for >20% devices, while keeping track of possible pitfalls, a detailed description of the fabrication of perovskite solar cells at the highest efficiency level (>20%) is provided. The fabrication of low-temperature p-i-n structured devices is described, commenting on important factors such as practical experience, processing atmosphere & temperature, material purity and solution age. Analogous to reliable fabrication methods, a method to identify recombination losses is needed to further improve efficiencies. Thus, absolute photoluminescence is identified as a direct way to quantify the Quasi-Fermi level splitting of the perovskite absorber (1.21eV) and interfacial recombination losses the transport layers impose, reducing the latter to ~1.1eV. Implementing very thin interlayers at both the p- and n-interface (PFN-P2 and LiF, respectively), these losses are suppressed, enabling a VOC of up to 1.17eV. Optimizing the device dimensions and the bandgap, 20% devices with 1cm2 active area are demonstrated. Another important consideration is the solar cells’ stability if subjected to field-relevant stressors during operation. In particular these are heat, light, bias or a combination thereof. Perovskite layers – especially those incorporating organic cations – have been shown to degrade if subjected to these stressors. Keeping in mind that several interlayers have been successfully used to mitigate recombination losses, a family of perfluorinated self-assembled monolayers (X-PFCn, where X denotes I/Br and n = 7-12) are introduced as interlayers at the n-interface. Indeed, they reduce interfacial recombination losses enabling device efficiencies up to 21.3%. Even more importantly they improve the stability of the devices. The solar cells with IPFC10 are stable over 3000h stored in the ambient and withstand a harsh 250h of MPP at 85◦C without appreciable efficiency losses. To advance further and improve device efficiencies, a sound understanding of the photophysics of a device is imperative. Many experimental observations in recent years have however drawn an inconclusive picture, often suffering from technical of physical impediments, disguising e. g. capacitive discharge as recombination dynamics. To circumvent these obstacles, fully operational, highly efficient perovskites solar cells are investigated by a combination of multiple optical and optoelectronic probes, allowing to draw a conclusive picture of the recombination dynamics in operation. Supported by drift-diffusion simulations, the device recombination dynamics can be fully described by a combination of first-, second- and third-order recombination and JV curves as well as luminescence efficiencies over multiple illumination intensities are well described within the model. On this basis steady state carrier densities, effective recombination constants, densities-of-states and effective masses are calculated, putting the devices at the brink of the radiative regime. Moreover, a comprehensive review of recombination in state-of-the-art devices is given, highlighting the importance of interfaces in nonradiative recombination. Different strategies to assess these are discussed, before emphasizing successful strategies to reduce interfacial recombination and pointing towards the necessary steps to further improve device efficiency and stability. Overall, the main findings represent an advancement in understanding loss mechanisms in highly efficient solar cells. Different reliable optoelectronic techniques are used and interfacial losses are found to be of grave importance for both efficiency and stability. Addressing the interfaces, several interlayers are introduced, which mitigate recombination losses and degradation. N2 - Auf der Suche nach neuen, kostengünstigen und effizienten Systemen zur photovoltaischen Energiegewinnung, sind Perowskit Solarzellen zu einem der am meistuntersuchtesten Systeme avanciert. Innerhalb einer Dekade konnten unabhängig zertifizierte Umwandlungseffizienzen von >25% in Einzelschicht- und >29% in Mehrschichtzellen basierend auf Siliziumzellen realisiert werden. Die schnelle Entwicklung war in vielerlei Hinsicht glücklich, da beispielsweise die Energielevel typischer Perowskitschichten mit bereits existierenden Kontaktschichtsystemen anderer Photovoltaiksysteme, wie etwa Farbstoffsolarzellen oder Organische Solarzellen, kompatibel sind. Trotz dieses schnellen Erfolges, müssen zur weiteren Effizienzsteigerung grundlegende Wirkprinzipien der Solarzellen verstanden werden. Diese Arbeit beschäftigt sich mit dem umfassenden Verständnis von Rekombinationsprozessen in voll funktionstüchtigen Bauteilen. Zunächst wird der Einfluss unterschiedlicher Energielevel einer Transportschicht, basierend auf Fullerenen untersucht. Dieses kontrovers diskutierte Thema wurde umfassend untersucht und Rekombinationsverluste aufgrund ungünstiger Energielevel reduziert indem - durch die Wahl unterschiedlicher Fulleren-Derivate - der energetische Abstand zwischen Leitungsband des Perowskit und dem niedrigsten unbesetzten Zustand des Fullerenes reduziert wird. Zusätzlich wurde eine ultradünne elektrisch isolierende Zwischenschicht eingebracht, die noch effektiver Rekombinationsverluste unterdrückt, ohne die Fähigkeit zur Ladungsextraktion - und damit Effizienz einzuschränken. Das breite Interesse tausender Forschenden weltweit hat zur schnellen Entwicklung besagter hoher Effizienzen geführt, obgleich verlässliche, leicht nachzuvollziehende Herstellungsprotokolle nicht existierten. Auf Basis der hier entwickelten Protokolle, werden Methoden dargestellt, mit denen verlässlich >20% effiziente Solarzellen produziert werden können. Hierbei wird insbesondere auf sogenannte invertierte (p-i-n) Zellen eingegangen, wobei ein Fokus auf der Beschreibung essentieller Faktoren wie Atmosphärenkontrolle, Temperaturkontrolle, Materialreinheit oder praktischer Erfahrung liegt. Analog zu verlässlichen Herstellungsmethoden bedarf es robuster Techniken um Rekombinationsverluste zu identifizieren und zu lokalisieren. Zu diesem Zweck wird die Messung der absoluten Photolumineszenzeffizienz eingeführt, die erlaubt die Aufspaltung der Quasi-Fermi Level des Perowskiten zu quantifizieren (1.22eV). Ebenso ist es mit dieser Methode möglich Rekombinationsverluste an Grenzflächen zu lokalisieren, die die Leerlaufspannung auf 1.1V limitieren. Zur Vermeidung dieser Verluste werden erneut ultradünne Zwischenschichten an sowohl der p- als auch n- Grenzschicht eingebracht (PFN-P2 und LiF), die Leerlaufspannungen von bis zu 1.17V ermöglichen. Mithilfe eines optimierten Designs und einer Reduzierung der Bandlücke können Bauteile mit 20% Effizienz bei einer Größe von 1cm2 realisiert werden. Nebst hoher Effizienz ist die Stabilität der Bauteile unter einsatzrelevanten Umweltbedingungen ein wichtiger Faktor auf dem Weg zu einer Kommerzialisierung. Dies gilt insbesondere für Hitze, Beleuchtung, elektrische Ladung oder eine Kombination letzterer. Perowskitschichten -- insbesondere diejenigen, die organische Kationen beinhalten -- sind wohlbekannt dafür unter genannten Bedingungen zu degradieren. Das Konzept der ultradünnen Zwischenschichten wird daher um eine Familie fluornierter selbstorganisierender molekularer Monoschichten erweitert X-PFC_n, wobei X ein Halogen I/Br darstellt und n = 7-12 die Länge der fluorinerten Alkylkette angibt), die an der n-Grenzfläche zum Einsatz kommen. Diese Zwischenschicht reduziert Rekombinationsverluste resultierend in 21.3% effizienten Bauteilen und ermöglicht zusätzlich eine drastische erhöhte Stabilität. Bauteile mit dem Molekül IPFC10 sind über 3000h stabil unter Lagerungsbedingungen im Dunkeln und überstehen 250h unter voller Last bei 85°C ohne nennenswerte Verluste. Weitere Fortschritte in der Steigerung der Effizienz sind nur zu erwarten, wenn eine vollständige Beschreibung der Wirkprinzipien und Schwachstellen vorliegt. Eine Vielzahl experimenteller Studien haben bisher jedoch ein lückenhaftes Bild gemalt. Häufig sind physikalische Beschränkungen, etwa die hohe Kapazität aufgrund der sehr dünnen Schichten dafür verantwortlich, dass Rekombinationsdynamiken durch kapazitive Entladungsprozesse verdeckt werden. Um diese Probleme zu umgehen, werden hocheffiziente Solarzellen mit einer Kombination mehrerer optischer und optoelektronischer Messmethoden untersucht. Dies ermöglicht die Rekombinationsdynamik mit einer Superposition aus Rekombination erster, zweiter und dritter Ordnung der Ladungsträgerdichte vollumfänglich zu beschreiben. Drift-Diffusions Simulationen unterstützen die experimentellen Ergebnisse, selbst unter Einbeziehung mobiler Ionen. Weiterhin wird in einem Übersichtsartikel ein Ausblick auf den gegenwärtigen Stand des Wissens im Bezug auf Rekombinationsverluste in besagten Solarzellen gegeben. Unterschiedliche Messmethoden werden vorgestellt und erfolgreiche Methoden zur Minderung genannter Verluste diskutiert. Insgesamt stellt diese Arbeit einen Fortschritt im Verständnis und der Verminderung unterschiedlicher Verlustprozesse dar. Mithilfe unterschiedlicher verlässlicher optoelektronischer Messmethoden, wird gezeigt, dass der Ursprung von Rekombinations- und Stabilitätsverlusten häufig an den Grenzflächen liegt. Mithilfe gezielt eingesetzter ultradünner Zwischenschichten werden diese Verluste reduziert und die Stabilität erhöht. T2 - Identifizierung und Reduzierung von Verlusten in Perowskit Solarzellen KW - perovskite solar cells KW - interfacial recombination KW - nonradiative losses KW - Perowskit Solarzellen KW - Grenzflächenrekombination KW - nichtstrahlende Verluste Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-479301 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Wojcik, Laurie Anne Myriam T1 - Beyond a single diversity facet: implications for the links between biodiversity, environmental changes and ecosystem functioning T1 - Mehr als eine einzelne Facette der Biodiversität: Auswirkungen auf die Verbindungen zwischen Biodiversität, Umweltveränderungen und der Funktionalität von Ökosystemen N2 - Human activities modify nature worldwide via changes in the environment, biodiversity and the functioning of ecosystems, which in turn disrupt ecosystem services and feed back negatively on humans. A pressing challenge is thus to limit our impact on nature, and this requires detailed understanding of the interconnections between the environment, biodiversity and ecosystem functioning. These three components of ecosystems each include multiple dimensions, which interact with each other in different ways, but we lack a comprehensive picture of their interconnections and underlying mechanisms. Notably, diversity is often viewed as a single facet, namely species diversity, while many more facets exist at different levels of biological organisation (e.g. genetic, phenotypic, functional, multitrophic diversity), and multiple diversity facets together constitute the raw material for adaptation to environmental changes and shape ecosystem functioning. Consequently, investigating the multidimensionality of ecosystems, and in particular the links between multifaceted diversity, environmental changes and ecosystem functions, is crucial for ecological research, management and conservation. This thesis aims to explore several aspects of this question theoretically. I investigate three broad topics in this thesis. First, I focus on how food webs with varying levels of functional diversity across three trophic levels buffer environmental changes, such as a sudden addition of nutrients or long-term changes (e.g. warming or eutrophication). I observed that functional diversity generally enhanced ecological stability (i.e. the buffering capacity of the food web) by increasing trophic coupling. More precisely, two aspects of ecological stability (resistance and resilience) increased even though a third aspect (the inverse of the time required for the system to reach its post-perturbation state) decreased with increasing functional diversity. Second, I explore how several diversity facets served as a raw material for different sources of adaptation and how these sources affected multiple ecosystem functions across two trophic levels. Considering several sources of adaptation enabled the interplay between ecological and evolutionary processes, which affected trophic coupling and thereby ecosystem functioning. Third, I reflect further on the multifaceted nature of diversity by developing an index K able to quantify the facet of functional diversity, which is itself multifaceted. K can provide a comprehensive picture of functional diversity and is a rather good predictor of ecosystem functioning. Finally I synthesise the interdependent mechanisms (complementarity and selection effects, trophic coupling and adaptation) underlying the relationships between multifaceted diversity, ecosystem functioning and the environment, and discuss the generalisation of my findings across ecosystems and further perspectives towards elaborating an operational biodiversity-ecosystem functioning framework for research and conservation. N2 - Menschliche Aktivität verändert die Natur weltweit durch Einflussnahme auf die Umwelt, Biodiversität und Funktionsweise von Ökosystemen, die wiederum Ökosystemdienstleistungen stören und sich negativ auf den Menschen auswirken. Eine dringende Herausforderung besteht daher darin, unsere Wirkung auf die Natur zu begrenzen, was ein tiefgreifendes Verständnis der Zusammenhänge zwischen Umwelt, Biodiversität und dem Funktionalität von Ökosystemen voraussetzt. Diese drei Komponenten von Ökosystemen umfassen jedoch jeweils mehrere Dimensionen, die auf unterschiedliche Weise interagieren, und bisher haben wir kein umfassendes Bild von ihren Zusammenhängen und den zugrundeliegenden Mechanismen. Vor allem Diversität wird oft als eine einzige Facette betrachtet, nämlich als Artendiversität, während es auf verschiedenen biologischen Organisationsebenen viele weitere Facetten gibt, z. B. genetische, phänotypische, funktionelle, multitrophische Diversität, die zusammen mehrere Quellen für Rohmaterial zur die Anpassung an Umweltveränderungen bilden und die Funktionsweise von Ökosystemen beeinflussen. Folglich ist die Untersuchung der Multidimensionalität von Ökosystemen, insbesondere der Zusammenhänge zwischen multifacettierter Diversität, Umweltveränderungen und Ökosystemfunktionen, von entscheidender Bedeutung für Forschung, Management und Naturschutz. In dieser Arbeit sollen mehrere Aspekte dieser Frage theoretisch untersucht werden. In dieser Arbeit untersuche ich drei große Themenbereiche. Erstens konzentriere ich mich auf die Frage, wie Nahrungsnetze mit unterschiedlichem Grad funktioneller Diversität auf drei trophischen Ebenen Umweltveränderungen abpuffern, wie etwa eine plötzliche Zugabe von Nährstoffen oder langfristige Veränderungen (z. B. Erwärmung oder Eutrophierung). Hier habe ich festgestellt, dass die funktionelle Diversität die ökologische Stabilität (d. h. die Pufferkapazität des Nahrungsnetzes) durch eine stärkere trophische Kopplung allgemein erhöht. Im Speziellen nahmen zwei Aspekte der ökologischen Stabilität (Resistenz und Resilienz) zu, obwohl ein dritter Aspekt, der Kehrwert der Zeit, die das System benötigt, um den Post-Störungszustand zu erreichen, mit zunehmender funktioneller Diversität abnahm. Zweitens untersuche ich, wie mehrere Facetten der Diversität als Basis für mehrere Anpassungsprozesse aus verschiedenen Quellen dienten und wie diese Quellen mehrere Ökosystemfunktionen auf zwei trophischen Ebenen beeinflussten. Die Berücksichtigung mehrerer Anpassungsquellen ermöglichte das Zusammenspiel zwischen ökologischen und evolutionären Prozessen, die sich auf die trophische Kopplung und damit auf die Funktionalität des Ökosystems auswirkten. Drittens reflektiere ich weiter über die Facetten der Diversität, indem ich einen Index K entwickle, der die Facette der funktionalen Diversität quantifizieren kann, welche wiederum selbst vielschichtig ist. K kann ein umfassendes Bild der funktionellen Diversität vermitteln und ist ein recht guter Prädiktor für das Funktionieren von Ökosystemen. Schließlich fasse ich die voneinander abhängigen Mechanismen (Komplementarität und Selektionseffekte, trophische Kopplung und Anpassung) zusammen, die den Beziehungen zwischen multi-facettierter Diversität, dem Funktionieren von Ökosystemen und der Umwelt zugrunde liegen, und erörtere die Möglichkeiten zur Verallgemeinerung meiner Ergebnisse über Ökosysteme hinweg sowie Perspektiven für die Ausarbeitung eines operativen Rahmens für der Biodiversität-Ökosystem- Funktionalität für Forscher und Anwender. KW - multifaceted diversity KW - multi-facettierter Diversität KW - perturbation KW - Störung KW - trait-based approaches KW - merkmalsbasierte Ansätze KW - food web models KW - Modelle der Nahrungsnetze KW - ecological stability KW - ökologische Stabilität KW - trait adaptation KW - Anpassung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-646925 ER - TY - THES A1 - Wohlgemuth, Stephanie-Angelika T1 - Functional nanostructured hydrothermal carbons for sustainable technologies : heteroatom doping and superheated vapor T1 - Funktionelle, Nanostrukturierte Hydrothermal-Kohlenstoffe für Nachhaltige Technnologien: Heteroatom-Dotierung und Überkritischer Dampf N2 - The underlying motivation for the work carried out for this thesis was the growing need for more sustainable technologies. The aim was to synthesize a “palette” of functional nanomaterials using the established technique of hydrothermal carbonization (HTC). The incredible diversity of HTC was demonstrated together with small but steady advances in how HTC can be manipulated to tailor material properties for specific applications. Two main strategies were used to modify the materials obtained by HTC of glucose, a model precursor representing biomass. The first approach was the introduction of heteroatoms, or “doping” of the carbon framework. Sulfur was for the first time introduced as a dopant in hydrothermal carbon. The synthesis of sulfur and sulfur/nitrogen doped microspheres was presented whereby it was shown that the binding state of sulfur could be influenced by varying the type of sulfur source. Pyrolysis may additionally be used to tune the heteroatom binding states which move to more stable motifs with increasing pyrolysis temperature. Importantly, the presence of aromatic binding states in the as synthesized hydrothermal carbon allows for higher heteroatom retention levels after pyrolysis and hence more efficient use of dopant sources. In this regard, HTC may be considered as an “intermediate” step in the formation of conductive heteroatom doped carbon. To assess the novel hydrothermal carbons in terms of their potential for electrochemical applications, materials with defined nano-architectures and high surface areas were synthesized via templated, as well as template-free routes. Sulfur and/or nitrogen doped carbon hollow spheres (CHS) were synthesized using a polystyrene hard templating approach and doped carbon aerogels (CA) were synthesized using either the albumin directed or borax-mediated hydrothermal carbonization of glucose. Electrochemical testing showed that S/N dual doped CHS and aerogels derived via the albumin approach exhibited superior catalytic performance compared to solely nitrogen or sulfur doped counterparts in the oxygen reduction reaction (ORR) relevant to fuel cells. Using the borax mediated aerogel formation, nitrogen content and surface area could be tuned and a carbon aerogel was engineered to maximize electrochemical performance. The obtained sample exhibited drastically improved current densities compared to a platinum catalyst (but lower onset potential), as well as excellent long term stability. In the second approach HTC was carried out at elevated temperatures (550 °C) and pressure (50 bar), corresponding to the superheated vapor regime (htHTC). It was demonstrated that the carbon materials obtained via htHTC are distinct from those obtained via ltHTC and subsequent pyrolysis at 550 °C. No difference in htHTC-derived material properties could be observed between pentoses and hexoses. The material obtained from a polysaccharide exhibited a slightly lower degree of carbonization but was otherwise similar to the monosaccharide derived samples. It was shown that in addition to thermally induced carbonization at 550 °C, the SHV environment exhibits a catalytic effect on the carbonization process. The resulting materials are chemically inert (i.e. they contain a negligible amount of reactive functional groups) and possess low surface area and electronic conductivity which distinguishes them from carbon obtained from pyrolysis. Compared to the materials presented in the previous chapters on chemical modifications of hydrothermal carbon, this makes them ill-suited candidates for electronic applications like lithium ion batteries or electrocatalysts. However, htHTC derived materials could be interesting for applications that require chemical inertness but do not require specific electronic properties. The final section of this thesis therefore revisited the latex hard templating approach to synthesize carbon hollow spheres using htHTC. However, by using htHTC it was possible to carry out template removal in situ because the second heating step at 550 °C was above the polystyrene latex decomposition temperature. Preliminary tests showed that the CHS could be dispersed in an aqueous polystyrene latex without monomer penetrating into the hollow sphere voids. This leaves the stagnant air inside the CHS intact which in turn is promising for their application in heat and sound insulating coatings. Overall the work carried out in this thesis represents a noteworthy development in demonstrating the great potential of sustainable carbon materials. N2 - Das Ziel der vorgelegten Arbeit war es, mit Hilfe der Hydrothermalen Carbonisierung (HTC) eine Palette an verschiedenen Materialien herzustellen, deren physikalische und chemische Eigenschaften auf spezifische Anwendungen zugeschnitten werden können. Die Motivation hierfür stellt die Notwendigkeit, Alternativen zu Materialien zu finden, die auf fossilen Brennstoffen basieren. Dabei stellen vor allem nachhaltige Energien eine der größten Herausforderungen der Zukunft dar. HTC ist ein mildes, nachhaltiges Syntheseverfahren welches prinzipiell die Nutzung von biologischen Rohstoffen (z. B. landwirtschaftlichen Abfallprodukten) für die Herstellung von wertvollen, Kohlenstoff-basierten Materialien erlaubt. Es wurden zwei verschiedene Ansätze verwendet, um hydrothermalen Kohlenstoff zu modifizieren. Zum einen wurde HTC unter „normalen“ Bedingungen ausgeführt, d. h. bei 180 °C und einem Druck von etwa 10 bar. Der Zucker Glukose diente in allen Fällen als Kohlenstoff Vorläufer. Durch Zugabe von stickstoff und /oder schwefelhaltigen Additiven konnte dotierte Hydrothermalkohle hergestellt werden. Dotierte Kohlenstoffe sind bereits für ihre positiven Eigenschaften, wie verbesserte Leitfähigkeit oder erhöhte Stabilität, bekannt. Zusätzlich zu Stickstoff dotierter Hydrothermalkohle, die bereits von anderen Gruppen hergestellt werden konnte, wurde in dieser Arbeit zum ersten Mal Schwefel in Hydrothermalkohle eingebaut. Außerdem wurden verschiedene Ansätze verwendet, um Oberfläche und definierte Morphologie der dotierten Materialien zu erzeugen, welche wichtig für elektrochemische Anwendungen sind. Schwefel- und/oder stickstoffdotierte Kohlenstoff Nanohohlkugeln sowie Kohlenstoff Aerogele konnten hergestellt werden. Mit Hilfe von einem zusätzlichen Pyrolyseschritt (d. h. Erhitzen unter Schutzgas) konnte die Leitfähigkeit der Materialien hergestellt werden, die daraufhin als Nichtmetall-Katalysatoren für Wasserstoff-Brennstoffzellen getestet wurden. Im zweiten Ansatz wurde HTC unter extremen Bedingungen ausgeführt, d. h. bei 550 °C und einem Druck von ca. 50 bar, welches im Wasser Phasendiagram dem Bereich des Heißdampfes entspricht. Es konnte gezeigt werden, dass die so erhaltene Hydrothermalkohle ungewöhnliche Eigenschaften besitzt. So hat die Hochtemperatur-Hydrothermalkohle zwar einen hohen Kohlenstoffgehalt (mehr als 90 Massenprozent), enthält aber auch viele Wasserstoffatome und ist dadurch schlecht leitfähig. Da damit elektrochemische Anwendungen so gut wie ausgeschlossen sind, wurde die Hochtemperatur-Hydrothermalkohle für Anwendungen vorgesehen, welche chemische Stabilität aber keine Leitfähigkeit voraussetzen. So wurden beispielsweise Hochtemperatur-Kohlenstoff-Nanohohlkugeln synthetisiert, die großes Potential als schall- und wärmeisolierende Additive für Beschichtungen darstellen. Insgesamt konnten erfolgreich verschiedenste Materialien mit Hilfe von HTC hergestellt werden. Es ist zu erwarten, dass sie in Zukunft zu nachhaltigen Technologien und damit zu einem weiteren Schritt weg von fossilen Brennstoffen beitragen werden. KW - Hydrothermale Karbonisierung KW - Heteroatom-Dotierung KW - Aerogele KW - Hohlkugeln KW - Elektrokatalyse KW - Hydrothermal Carbonization KW - Heteroatom Doping KW - Aerogels KW - Hollow Spheres KW - Electrocatalysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60120 ER - TY - THES A1 - Wittenberg, Eva T1 - With Light Verb Constructions from Syntax to Concepts T1 - Mit Funktionsverbgefügen von der Syntax zur konzeptuellen Struktur N2 - This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’. N2 - Diese Dissertation untersucht mittels psycho- und neurolinguistischer Experimente, wie deutsche und englische Funktionsverbgefüge (’light verb constructions’) mental repräsentiert und verarbeitet werden. Funktionsverbgefüge sind Konstruktionen wie einen Kuss geben, in denen die Semantik überwiegend durch die Nominalisierung Kuss geliefert wird, während das Funktionsverb geben lediglich den syntaktischen Rahmen und grammatische Marker, aber nur wenige Bedeutungsaspekte beiträgt. T3 - Potsdam Cognitive Science Series - 7 KW - light verb constructions KW - syntax KW - semantics KW - event-related potential KW - priming KW - Syntax KW - Semantik KW - Sprachverarbeitung KW - Funktionsverbgefüge KW - Priming Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82361 SN - 978-3-86956-329-9 SN - 2190-4545 SN - 2190-4553 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wittenbecher, Clemens T1 - Linking whole-grain bread, coffee, and red meat to the risk of type 2 diabetes T1 - Der Einfluss von Vollkornbrot, Kaffee, und rotem Fleisch auf das Typ 2 Diabetesrisiko BT - using metabolomics networks to infer potential biological mechanisms BT - Verwendung von Metabolomics-Netzwerken, um auf biologische Mechanismen zu schließen N2 - Background: Consumption of whole-grain, coffee, and red meat were consistently related to the risk of developing type 2 diabetes in prospective cohort studies, but potentially underlying biological mechanisms are not well understood. Metabolomics profiles were shown to be sensitive to these dietary exposures, and at the same time to be informative with respect to the risk of type 2 diabetes. Moreover, graphical network-models were demonstrated to reflect the biological processes underlying high-dimensional metabolomics profiles. Aim: The aim of this study was to infer hypotheses on the biological mechanisms that link consumption of whole-grain bread, coffee, and red meat, respectively, to the risk of developing type 2 diabetes. More specifically, it was aimed to consider network models of amino acid and lipid profiles as potential mediators of these risk-relations. Study population: Analyses were conducted in the prospective EPIC-Potsdam cohort (n = 27,548), applying a nested case-cohort design (n = 2731, including 692 incident diabetes cases). Habitual diet was assessed with validated semiquantitative food-frequency questionnaires. Concentrations of 126 metabolites (acylcarnitines, phosphatidylcholines, sphingomyelins, amino acids) were determined in baseline-serum samples. Incident type 2 diabetes cases were assed and validated in an active follow-up procedure. The median follow-up time was 6.6 years. Analytical design: The methodological approach was conceptually based on counterfactual causal inference theory. Observations on the network-encoded conditional independence structure restricted the space of possible causal explanations of observed metabolomics-data patterns. Given basic directionality assumptions (diet affects metabolism; metabolism affects future diabetes incidence), adjustment for a subset of direct neighbours was sufficient to consistently estimate network-independent direct effects. Further model-specification, however, was limited due to missing directionality information on the links between metabolites. Therefore, a multi-model approach was applied to infer the bounds of possible direct effects. All metabolite-exposure links and metabolite-outcome links, respectively, were classified into one of three categories: direct effect, ambiguous (some models indicated an effect others not), and no-effect. Cross-sectional and longitudinal relations were evaluated in multivariable-adjusted linear regression and Cox proportional hazard regression models, respectively. Models were comprehensively adjusted for age, sex, body mass index, prevalence of hypertension, dietary and lifestyle factors, and medication. Results: Consumption of whole-grain bread was related to lower levels of several lipid metabolites with saturated and monounsaturated fatty acids. Coffee was related to lower aromatic and branched-chain amino acids, and had potential effects on the fatty acid profile within lipid classes. Red meat was linked to lower glycine levels and was related to higher circulating concentrations of branched-chain amino acids. In addition, potential marked effects of red meat consumption on the fatty acid composition within the investigated lipid classes were identified. Moreover, potential beneficial and adverse direct effects of metabolites on type 2 diabetes risk were detected. Aromatic amino acids and lipid metabolites with even-chain saturated (C14-C18) and with specific polyunsaturated fatty acids had adverse effects on type 2 diabetes risk. Glycine, glutamine, and lipid metabolites with monounsaturated fatty acids and with other species of polyunsaturated fatty acids were classified as having direct beneficial effects on type 2 diabetes risk. Potential mediators of the diet-diabetes links were identified by graphically overlaying this information in network models. Mediation analyses revealed that effects on lipid metabolites could potentially explain about one fourth of the whole-grain bread effect on type 2 diabetes risk; and that effects of coffee and red meat consumption on amino acid and lipid profiles could potentially explain about two thirds of the altered type 2 diabetes risk linked to these dietary exposures. Conclusion: An algorithm was developed that is capable to integrate single external variables (continuous exposures, survival time) and high-dimensional metabolomics-data in a joint graphical model. Application to the EPIC-Potsdam cohort study revealed that the observed conditional independence patterns were consistent with the a priori mediation hypothesis: Early effects on lipid and amino acid metabolism had the potential to explain large parts of the link between three of the most widely discussed diabetes-related dietary exposures and the risk of developing type 2 diabetes. N2 - Hintergrund: Evidenz aus prospektiven Kohortenstudien belegt, dass der gewohnheitsmäßige Verzehr von Vollkorn, Kaffee und rotem Fleisch mit dem Risiko an Typ 2 Diabetes zu erkranken assoziiert ist. Dieser Risikobeziehung eventuell zugrunde liegende Mechanismen sind allerdings noch weitgehend unklar. Des Weiteren wurde gezeigt, dass Metabolitenprofile im Blut durch die oben genannten Ernährungs-expositionen beeinflusst werden und außerdem in Zusammenhang mit dem Typ 2 Diabetesrisiko stehen. Zusätzlich wurde beschrieben, dass grafische Netzwerkmodelle von Metabolitenprofilen die zugrunde liegenden Stoffwechselprozesse gut abbilden. Zielstellung: Das Ziel dieser Arbeit war es, Hypothesen bezüglich biologischer Mechanismen zu generieren, die die Assoziationen des Vollkornverzehrs, des Kaffeekonsums und des Fleischverzehrs mit dem Typ 2 Diabetesrisiko erklären könnten. Im speziellen sollten Aminosäure- und Lipidprofile als mögliche Mediatoren des Risikozusammenhangs untersucht werden. Studienpopulation: Analysen wurden auf Grundlage von Daten aus der prospektiven EPIC-Potsdam Kohortenstudie (n=27,548) durchgeführt, wobei ein Fall-Kohorten-Design verwendet wurde (n=2317, darunter 692 inzidente Typ 2 Diabetesfälle). Ernährungsgewohnheiten wurden mit einem validierten, semiquantitativen Verzehrshäufigkeitsfragebogen erfasst. Die Konzentrationen von 126 Metaboliten (Aminosäuren, Acylcarnitine, Sphingomyeline und Phosphatidylcholine) wurden zur Basiserhebung genommen Blutproben gemessen. Inzidente Typ 2 Diabetesfälle wurden im Rahmen einer aktiven Folgeerhebung detektiert und verifiziert. Die mediane Dauer des berücksichtigten prospektiven Erhebungszeitraums lag für diese Studie bei 6,6 Jahren. Aufbau der Analysen: Die theoretische Grundlage für den methodischen Ansatz dieser Arbeit bildete die kontrafaktische Theorie der Kausalinferenz. Die in Netzwerken kodierte konditionale Unabhängigkeitsstruktur wurde genutzt, um den Raum möglicher Modelle zu begrenzen, die die beobachteten Zusammenhänge zwischen den Metaboliten erklären könnten. Unter Annahme weniger grundlegender Effektrichtungen (von der Ernährung auf die Netzwerke gerichtete Effekte; von den Netzwerken auf das Diabetesrisiko gerichtete Effekte) genügt die Adjustierung für eine Teilmenge der direkten Nachbarn im Netzwerk, um netzwerkunabhängige direkte Effekte konsistent zu schätzen. Eine weitere Spezifizierung der Modelle war allerdings aufgrund fehlender Richtungsinformationen zu den Metaboliten-abhängigkeiten nicht möglich. Deshalb wurde ein Multi-Modellierungsansatz gewählt, um die Grenzen möglicher Effekte zu schlussfolgern. Alle möglichen Ernährungs-Metaboliten-Beziehungen und Metaboliten-Typ 2 Diabetesrisiko-Beziehungen wurden dadurch in eine der folgenden drei Kategorien klassifiziert: Direkter Effekt, Unklar, Kein Effekt. Querschnittsbeziehungen wurden in multivariabel adjustierten linearen Regressionsmodellen untersucht. Longitudinale Zusammenhänge wurden mit Cox-Regressionsmodellen geschätzt. Alle Modelle wurden für Alter, Geschlecht, Body-Mass-Index, prävalente Hypertonie, Ernährungs- und Lebensstilfaktoren und die Einnahme von Medikamenten adjustiert. Ergebnisse: Der Verzehr von Vollkornbrot stand im Zusammenhang mit niedrigeren Konzentrationen gesättigter und einfach ungesättigter Fettsäuren. Kaffee stand in Beziehung zu niedrigeren Konzentrationen verzweigtkettiger und aromatischer Aminosäuren und hatte potentielle Effekte auf das Fettsäureprofil in den Lipidmetaboliten. Rotes Fleisch zeigte einen Zusammenhang mit niedrigeren Glyzinspiegeln und mit höheren Konzentrationen verzweigtkettiger Aminosäuren. Außerdem stand das Fettsäureprofil in den verschieden Gruppen von Lipidmetaboliten in Zusammenhang mit dem Fleischverzehr. Des Weiteren wurden potentielle Effekte der Metabolite auf das Typ 2 Diabetesrisiko gefunden. Aromatische Aminosäuren und Lipidmetabolite mit geradzahligen, gesättigten (C14-C16) und mit spezifischen mehrfach ungesättigten Fettsäureseitenketten standen mit einem erhöhten Typ 2 Diabetesrisiko in Beziehung. Glyzin, Glutamin und Lipidmetabolite mit einfach ungesättigten und anderen mehrfach ungesättigten Fettsäureseitenketten zeigten einen günstigen Zusammenhang mit dem Diabetesrisiko. Mögliche Mediatoren der Beziehung der Ernährungsexpositionen wurden identifiziert, indem diese Informationen in gemeinsamen grafischen Modellen integriert wurden. Mediationsanalysen zeigten, dass die möglichen Effekte von Vollkornverzehr auf die Lipidmetabolite ungefähr ein Viertel des günstigen Einflusses von Vollkornverzehr auf das Diabetesrisikos erklären könnten. Die möglichen Effekte von Kaffeekonsum und von Fleischverzehr auf Aminosäuren und Lipidmetabolite könnten jeweils ungefähr zwei Drittel der Zusammenhänge mit dem Diabetesrisiko erklären. Schlussfolgerung: Grundlage für die Ergebnisse dieser Arbeit war die Entwicklung eines Algorithmus, der externe Faktoren (kontinuierlich Expositionsvariablen, Ereigniszeit-Daten) und hochdimensionale Metabolitenprofile in einem gemeinsamen grafischen Modell integriert. Die Anwendung dieses Algorithmus auf Daten aus der EPIC-Potsdam Kohortenstudie hat gezeigt, dass die beobachteten konditionalen Unabhängigkeitsstrukturen mit der a priori Mediationshypothese konsistent waren. Der frühe Einfluss auf den Aminosäure- und Lipidstoffwechsel könnte die beobachteten Zusammenhänge zwischen drei wichtigen Ernährungsfaktoren und dem Risiko an Typ 2 Diabetes zu erkranken zu großen Teilen erklären. KW - type 2 diabetes KW - nutrition KW - lipid metabolism KW - metabolomics KW - epidemiology KW - networks KW - graphical models KW - mediation analysis KW - red meat KW - whole-grain KW - Diabetes mellitus Typ 2 KW - Ernährung KW - Fettstoffwechsel KW - Metabolomics KW - Epidemiologie KW - Netzwerke KW - grafische Modelle KW - Mediationsanalyse KW - rotes Fleisch KW - Vollkorn KW - Kaffee KW - coffee Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404592 ER - TY - THES A1 - Wittek, Laura T1 - Comparison of metabolic cages - analysis of refinement measures on the welfare and metabolic parameters of laboratory mice T1 - Der Vergleich von Stoffwechselkäfigen - Analyse von Refinement-Maßnahmen auf das Wohlbefinden und Stoffwechselparameter von Labormäusen N2 - Housing in metabolic cages can induce a pronounced stress response. Metabolic cage systems imply housing mice on metal wire mesh for the collection of urine and feces in addition to monitoring food and water intake. Moreover, mice are single-housed, and no nesting, bedding, or enrichment material is provided, which is often argued to have a not negligible impact on animal welfare due to cold stress. We therefore attempted to reduce stress during metabolic cage housing for mice by comparing an innovative metabolic cage (IMC) with a commercially available metabolic cage from Tecniplast GmbH (TMC) and a control cage. Substantial refinement measures were incorporated into the IMC cage design. In the frame of a multifactorial approach for severity assessment, parameters such as body weight, body composition, food intake, cage and body surface temperature (thermal imaging), mRNA expression of uncoupling protein 1 (Ucp1) in brown adipose tissue (BAT), fur score, and fecal corticosterone metabolites (CMs) were included. Female and male C57BL/6J mice were single-housed for 24 h in either conventional Macrolon cages (control), IMC, or TMC for two sessions. Body weight decreased less in the IMC (females—1st restraint: 6.94%; 2nd restraint: 6.89%; males—1st restraint: 8.08%; 2nd restraint: 5.82%) compared to the TMC (females—1st restraint: 13.2%; 2nd restraint: 15.0%; males—1st restraint: 13.1%; 2nd restraint: 14.9%) and the IMC possessed a higher cage temperature (females—1st restraint: 23.7°C; 2nd restraint: 23.5 °C; males—1st restraint: 23.3 °C; 2nd restraint: 23.5 °C) compared with the TMC (females—1st restraint: 22.4 °C; 2nd restraint: 22.5 °C; males—1st restraint: 22.6 °C; 2nd restraint: 22.4 °C). The concentration of fecal corticosterone metabolites in the TMC (females—1st restraint: 1376 ng/g dry weight (DW); 2nd restraint: 2098 ng/g DW; males—1st restraint: 1030 ng/g DW; 2nd restraint: 1163 ng/g DW) was higher compared to control cage housing (females—1st restraint: 640 ng/g DW; 2nd restraint: 941 ng/g DW; males—1st restraint: 504 ng/g DW; 2nd restraint: 537 ng/g DW). Our results show the stress potential induced by metabolic cage restraint that is markedly influenced by the lower housing temperature. The IMC represents a first attempt to target cold stress reduction during metabolic cage application thereby producing more animal welfare friendly data. N2 - Die Unterbringung in Stoffwechselkäfigen kann eine ausgeprägte Stressreaktion hervorrufen. Mäuse werden in Stoffwechselkäfigen auf Metallgittern gehalten, um zusätzlich zur Überwachung der Futter- und Wasseraufnahme Urin und Kot aufzufangen. Darüber hinaus werden die Mäuse einzeln gehalten und es wird kein Nist-, Einstreu- oder Anreicherungs-Material zur Verfügung gestellt, was oft als Ursache für Kältestress angeführt wird, welcher sich auf das Wohlergehen der Tiere auswirkt. Wir haben daher versucht, den Stress bei der Haltung von Mäusen in Stoffwechselkäfigen zu reduzieren, indem wir einen innovativen Stoffwechselkäfig (IMC) mit einem kommerziell erhältlichen Stoffwechselkäfig der Tecniplast GmbH (TMC) und einem Kontrollkäfig verglichen haben. Für das Käfigdesign des IMC wurden wesentliche Refinement-Maßnahmen realisiert. Im Rahmen einer multifaktoriellen Beurteilung des Schweregrades wurden Parameter wie Körpergewicht, Körperzusammensetzung, Nahrungsaufnahme, Käfig- und Körperoberflächentemperatur (Wärmebildaufnahmen), mRNA-Expression von Uncoupling Protein 1 (Ucp1) im braunen Fettgewebe (BAT), Fur Score und fäkale Corticosteron-Metabolite (CMs) einbezogen. Weibliche und männliche C57BL/6J-Mäuse wurden für jeweils 24 Stunden entweder in konventionellen Macrolon-Käfigen (Kontrolle), IMC oder TMC zweimal untergebracht. Das Körpergewicht nahm in dem IMC weniger ab (Weibchen - 1. Haltung: -6,94%; 2. Haltung: -6,89%; Männchen - 1. Haltung: -8,08%; 2. Haltung: -5,82%) als in dem TMC (Weibchen - 1. Haltung: -13,2%; 2. Haltung: -15,0%; Männchen - 1. Haltung: -13,1%; 2. Haltung: -14,9%) und der IMC wies eine höhere Käfigtemperatur (Weibchen - 1. Haltung: 23,7 °C; 2. Haltung 23,5 °C; Männchen - 1. Haltung: 23,3 °C; 2. Haltung: 23,5 °C) im Vergleich zum TMC auf (Weibchen - 1. Haltung: 22,4 °C; 2. Haltung: 22,5 °C; Männchen - 1. Haltung: 22,6 °C; 2. Haltung: 22,4 °C). Die Konzentration der fäkalen Corticosteron-Metabolite im TMC (Weibchen - 1. Haltung: 1376 ng/g Trockengewicht (DW); 2. Haltung: 2098 ng/g DW; Männchen – 1. Haltung: 1030 ng/g DW; 2. Haltung: 1163 ng/g DW) war im Vergleich zur Kontrollkäfighaltung höher (Weibchen - 1. Haltung: 640 ng/g DW; 2. Haltung: 941 ng/g DW; Männchen - 1. Haltung: 504 ng/g DW; 2. Haltung: 537 ng/g DW). Unsere Ergebnisse zeigen das Stresspotenzial, welches durch die Haltung in Stoffwechselkäfigen ausgelöst wird, und dass durch die niedrigere Haltungstemperatur deutlich beeinflusst wird. Der IMC stellt einen ersten Versuch dar, den Kältestress während der Anwendung des Stoffwechselkäfigs zu reduzieren und dadurch tierschutzgerechtere Daten zu produzieren. KW - metabolic cage KW - laboratory mice KW - refinement KW - animal welfare KW - Tierschutz KW - Labormäuse KW - Stoffwechselkäfig KW - Refinement Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611208 ER - TY - THES A1 - Wittbrodt, Linda T1 - Minimum wage effects in Germany and Europe – four essays N2 - Am 1. Januar 2015 wurde in Deutschland ein allgemeiner gesetzlicher Mindestlohn in Höhe von 8,50 € brutto pro Stunde eingeführt. Diese Dissertation widmet sich den Auswirkungen der Mindestlohneinführung in Deutschland sowie Lohnuntergrenzen im Europäischen Kontext und trägt damit zur nationalen und internationalen Forschung bei. Das zweite Kapitel dieser Arbeit fasst die in bisherigen Studien herausgearbeiteten kurzfristigen Effekte der Mindestlohnreform in einem Überblick zusammen. Es zeigt sich, dass die Mindestlohneinführung einen deutlich positiven Effekt auf die Löhne am unteren Ende der Verteilung hatte. Allerdings wies kurz nach der Reform noch ein nicht unerheblicher Anteil der Beschäftigungsverhältnisse Löhne unter 8,50 € auf. Weiterhin deutet die Evidenz auf geringe negative Beschäftigungseffekte hin, welche durch eine Reduktion von Minijobs getrieben ist. Entgegen der Erwartungen konnten jedoch in der kurzen Frist keine Effekte auf Armut und allgemeine Ungleichheit gefunden werden. Dies hängt insbesondere mit der Tatsache zusammen, dass Arbeitsstunden reduziert wurden und sich die Stundenlohnerhöhung daher nicht auf die Monatslöhne niederschlug. Das dritte Kapitel geht der Frage nach, ob die im Vorfeld prognostizierten Arbeitsplatzverluste im Zuge der Reform kurzfristig eingetreten sind und welche Art der Beschäftigung davon gegebenenfalls stärker betroffen war. Zur empirischen Identifikation der Effekte wird in diesem (sowie im vierten Kapitel) ein regionaler Differenzen-von-Differenzen-Ansatz verwendet, mit dem die Auswirkungen auf reguläre Beschäftigung (Teil- und Vollzeit) sowie Minijobs geschätzt werden. Unsere Ergebnisse deuten darauf hin, dass der Mindestlohn die Gesamtbeschäftigung leicht reduziert hat, was im Wesentlichen auf einen Rückgang von Minijobs zurückzuführen ist. Das vierte Kapitel schließt methodisch an das vorige an. Seine Motivation ergibt sich aus der Beobachtung, dass Frauen unter den Niedriglohnempfänger:innen häufig überrepräsentiert sind. Die primäre Forschungsfrage in diesem Kapitel ist daher, ob der Mindestlohn zu einer Verringerung der geschlechterspezifischen Lohnlücke geführt hat. Dazu identifizieren wir die Effekte auf die Lohnlücke am 10. und 25. Perzentil sowie beim Mittelwert der zugrundeliegenden geschlechtsspezifischen Lohnverteilungen. Unsere Ergebnisse zeigen, dass – verglichen mit Regionen mit niedriger Eingriffstiefe – die geschlechtsspezifische Lohnlücke am 10. Perzentil für mindestlohnberechtigte Beschäftigte in Regionen mit hoher Eingriffstiefe um 4,6 Prozentpunkte gesunken ist. Wir schätzen, dass dies eine Reduktion um 32\% im Vergleich zu 2014 bedeutet. Am 25. Perzentil und am Mittelwert sind die Auswirkungen geringer und nicht gleichermaßen robust. Das fünfte Kapitel behält den geschlechterspezifischen Fokus auf die Mindestlohneffekte bei. Im Vergleich zum Rest der Dissertation weitet es jedoch den Blick auf andere Länder der Europäischen Union. Gemäß der für das vorangegangene Kapitel dargelegten Überlegungen, könnten Frauen potenziell besonders von einem Mindestlohn profitieren. Dies könnte jedoch auch bedeuten, dass sie dadurch auch öfter von Arbeitsplatzverlusten oder Arbeitszeitverkürzungen betroffen sind. Dieses Kapitel resümiert daher einerseits vorhandene Evidenz aus EU-Staaten, die sich auf den Zusammenhang zwischen Lohnuntergrenzen und der geschlechtsspezifischen Lohnlücke bezieht. Darüber hinaus enthält es eine systematische Zusammenfassung von Studien, die den Einfluss von Mindestlöhnen auf Beschäftigungsverluste oder Arbeitszeitveränderungen untersuchen, von denen insbesondere Frauen betroffen sind. Es zeigen sich Hinweise, dass höhere Lohnuntergrenzen mit einer geringeren geschlechtsspezifischen Lohnlücke verbunden sind. Hinsichtlich der Beschäftigung scheinen Frauen nicht per se größere Beschäftigungsverluste zu erleiden als Männer. Allerdings zeigen Studien, dass sich der Mindestlohn hier besonders auf Teilzeitbeschäftigte auswirkt. Es ist daher nicht auszuschließen, dass der negative Zusammenhang zwischen dem Mindestlohn und dem geschlechtsspezifischen Lohngefälle mit den Arbeitsplatzverlusten dieser schlechter bezahlten, oft weiblichen Teilzeitbeschäftigten zusammenhängt. Diese spezifische Form der Arbeit sollte daher im Zusammenhang mit dem Mindestlohn besondere Beachtung finden. N2 - On January 1, 2015, Germany introduced a general statutory minimum wage of €8.50 gross per hour. This thesis analyses the effects of the minimum wage introduction in Germany as well as wage floors in the European context, contributing to national and international research. The second chapter of this dissertation summarizes the short-run effects of the minimum wage reform found in previous studies. We show that the introduction of the minimum wage had a positive effect on wages at the bottom of the distribution. Yet, there was still a significant amount of non-compliance shortly after the reform. Additionally, previous evidence points to small negative employment effects mainly driven by a reduction in mini-jobs. Contrary to expectations, though, there were no effects on poverty and general inequality found in the short run. This is mostly due to the fact that working hours were reduced and the increase of hourly wages was therefore not reflected in monthly wages. The third chapter identifies whether the job losses predicted in ex-ante studies materialized in the short run and, if so, which type of employment was affected the most. To identify the effects, this chapter (as well as chapter four) uses a regional difference-in-difference approach to estimate the effects on regular employment (part- and full-time) and mini-jobs. Our results suggest that the minimum wage has slightly reduced overall employment, mainly due to a decline in mini-jobs. The fourth chapter has the same methodological approach as the previous one. Its motivated by the fact that women are often overrepresented among low-wage employees. Thus, the primary research question in this chapter is whether the minimum wage has led to a narrowing of the gender wage gap. In order to answer that, we identify the effects on the wage gap at the 10th and 25th percentiles and at the mean of the underlying gender-specific wage distributions. Our results imply that for eligible employees the gender wage gap at the 10th percentile decreased by 4.6 percentage points between 2014 and 2018 in high-bite regions compared to low-bite regions. We estimate this to be a reduction of 32% compared to 2014. Higher up the distribution – i.e. at the 25th percentile and the mean – the effects are smaller and not as robust. The fifth chapter keeps the gender-specific emphasis on minimum wage effects. However, in contrast to the rest of the dissertation, it widens the scope to other European Union countries. Following the rationale of the previous chapter, women could potentially benefit particularly from a minimum wage. However, they could also be more prone to suffer from the possibly induced job losses or reductions in working hours. Therefore, this chapter summarizes existing evidence from EU member states dealing with the relationship between wage floors and the gender wage gap. In addition, it provides a systematic summary of studies that examine the impact of minimum wages on employment losses or changes in working hours that particularly affect women. The evidence shows that higher wage floors are often associated with smaller gender wage gaps. With respect to employment, women do not appear to experience greater employment losses than men per se. However, studies show that the minimum wage has a particular impact on part-time workers. Therefore, it cannot be ruled out that the negative correlation between the minimum wage and the gender wage gap is related to the job losses of these lower-paid, often female, part-time workers. This working arrangement should therefore be specially focused on in the context of minimum wages. KW - minimum wage KW - employment effects KW - gender wage gap KW - Beschäftigungseffekte KW - Mindestlohn KW - geschlechtsspezifische Lohnlücke Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556977 ER - TY - THES A1 - Witt, Tanja Ivonne T1 - Camera Monitoring at volcanoes T1 - Kameramonitoring an Vulkanen BT - Identification and characterization of lava fountain activity and near-vent processes and their relevance for early warning systems BT - Identifikation und Charakterizierung der Aktivität von Lavafontänen und Near-Vent Prozesse und deren Relevanz für Frühwarnsysteme N2 - Basaltic fissure eruptions, such as on Hawai'i or on Iceland, are thought to be driven by the lateral propagation of feeder dikes and graben subsidence. Associated solid earth processes, such as deformation and structural development, are well studied by means of geophysical and geodetic technologies. The eruptions themselves, lava fountaining and venting dynamics, in turn, have been much less investigated due to hazardous access, local dimension, fast processes, and resulting poor data availability. This thesis provides a detailed quantitative understanding of the shape and dynamics of lava fountains and the morphological changes at their respective eruption sites. For this purpose, I apply image processing techniques, including drones and fixed installed cameras, to the sequence of frames of video records from two well-known fissure eruptions in Hawai'i and Iceland. This way I extract the dimensions of multiple lava fountains, visible in all frames. By putting these results together and considering the acquisition times of the frames I quantify the variations in height, width and eruption velocity of the lava fountains. Then I analyse these time-series in both time and frequency domains and investigate the similarities and correlations between adjacent lava fountains. Following this procedure, I am able to link the dynamics of the individual lava fountains to physical parameters of the magma transport in the feeder dyke of the fountains. The first case study in this thesis focuses on the March 2011 Pu'u'O'o eruption, Hawai'i, where a continuous pulsating behaviour at all eight lava fountains has been observed. The lava fountains, even those from different parts of the fissure that are closely connected, show a similar frequency content and eruption behaviour. The regular pattern in the heights of lava fountain suggests a controlling process within the magma feeder system like a hydraulic connection in the underlying dyke, affecting or even controlling the pulsating behaviour. The second case study addresses the 2014-2015 Holuhraun fissure eruption, Iceland. In this case, the feeder dyke is highlighted by the surface expressions of graben-like structures and fault systems. At the eruption site, the activity decreases from a continuous line of fire of ~60 vents to a limited number of lava fountains. This can be explained by preferred upwards magma movements through vertical structures of the pre-eruptive morphology. Seismic tremors during the eruption reveal vent opening at the surface and/or pressure changes in the feeder dyke. The evolving topography of the cinder cones during the eruption interacts with the lava fountain behaviour. Local variations in the lava fountain height and width are controlled by the conduit diameter, the depth of the lava pond and the shape of the crater. Modelling of the fountain heights shows that long-term eruption behaviour is controlled mainly by pressure changes in the feeder dyke. This research consists of six chapters with four papers, including two first author and two co-author papers. It establishes a new method to analyse lava fountain dynamics by video monitoring. The comparison with the seismicity, geomorphologic and structural expressions of fissure eruptions shows a complex relationship between focussed flow through dykes, the morphology of the cinder cones, and the lava fountain dynamics at the vents of a fissure eruption. N2 - Basaltische Spalteneruptionen, wie auf Hawaii oder Island, werden vermutlich durch die laterale Ausbreitung von Förderdikes und damit verbundener Grabenbildung verursacht. Prozesse der festen Erde sind mittels geophysikalischer und geodätischer Technologien gut erforscht. Die Ausbrüche selbst, d.h. die Lavafontä}nen und die Ventdynamik wiederum wurden aufgrund des gefährlichen Zugangs, der lokalen Dimension, der schnellen Prozesse und der daraus resultierenden schlechten Datenverfügbarkeit kaum untersucht. Diese Arbeit liefert ein detailliertes quantitatives Verständnis über Form und Dynamik von Lavafontänen und der morphologischen Veränderungen an ihren jeweiligen Eruptionsstellen. Mittels Bildverarbeitungstechniken, einschließlich Dronen und festen Kameras, wurden von mir die Videoframes von zwei bekannten Spaltausbrüchen auf Hawaii und Island ausgewertet. Auf diese Weise extrahiere ich die Dimensionen mehrerer Lavafontänen, die in allen Frames sichtbar sind. Durch die Zusammenstellung dieser Ergebnisse und unter Berücksichtigung der Erfassungszeiten quantifiziere ich die Schwankungen in Höhe, Breite und Eruptionsgeschwindigkeit. Dann analysiere ich diese Zeitreihen im Zeit- und Frequenzbereich und untersuche die Ähnlichkeiten und Zusammenhänge zwischen benachbarten Lavafontänen. Anschließend verknüpfte ich die Dynamik der einzelnen Lavafontänen mit den physikalischen Parametern des Magmatransports im Förderdike. Die erste Fallstudie dieser Arbeit konzentriert sich auf die Pu'u'O'o Ausbruch, Hawaii im März 2011, bei der ein kontinuierliches pulsierendes Verhalten an allen Lavafontänen beobachtet werden konnte. Lavafontänen verschiedener Teilsegmenten der Spalte sind eng miteinander verbunden, sie weisen Ähnlichkeiten im Frequenzgehalt und Ausbruchsverhalten auf. Das regelmäßige Muster in den Lavafontänenhöhen deutet auf eine hydraulische Verbindung im darunter liegenden Dike als steuernden Prozess innerhalb des Magma-Fördersystems hin. Die zweite Fallstudie befasst sich mit dem Holuhraun-Ausbruch 2014/2015. In diesem Fall wird der horizontale Förderdike durch grabenartige Strukturen und Bruchsysteme an der Oberfläche hervorgehoben. An der Ausbruchsstelle nimmt die Aktivität von einer kontinuierlichen Feuerlinie auf einzelne Lavafontänen ab. Dies lässt sich durch eine bevorzugte Aufwärtsbewegung des Magmas durch vertikale Strukturen der prä-eruptiven Morphologie erklären. Seismische Erschütterungen während des Ausbruchs zeigen Ventöffnungen an der Oberfläche und/oder Druckveränderungen im Förderdike. Die sich während des Ausbruchs entwickelnde Topographie der Schlackenkegel interagiert mit dem Verhalten der Lavafontänen. Lokale Schwankungen in Höhe und Breite der Lavafontäne werden jedoch durch den Schlotdurchmesser, die Tiefe des Lavaponds und die Form des Kraters gesteuert. Die Modellierung der Fontänenhöhe zeigt, dass das langfristige Ausbruchsverhalten vor allem durch Druckänderungen im Förderdike gesteuert wird. Diese Forschungsarbeit besteht aus sechs Kapiteln mit je zwei Papern als Erst- bzw. Co-Autor. Es etabliert eine neue Methode zur Analyse der Dynamik von Lavafontänen durch Videoüberwachung. Der Vergleich mit der Seismizität, den geomorphologischen und strukturellen Ausprägungen von Spalteneruptionen zeigt einen komplexen Zusammenhang zwischen der Dikeströmung, der Vulkanmorphologie und der Dynamik der Lavafontänen an einer Spalteneruption. KW - volcanology KW - Spalteneruption KW - fissure eruption KW - Vulkanologie KW - lava fountains KW - video analysis KW - basaltic volcanoes KW - Lavafontänen KW - Videoanalyse KW - Basalt-Vulkane Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421073 ER - TY - THES A1 - Wist, Dominic T1 - Attacking complexity in logic synthesis of asynchronous circuits T1 - Komplexitätsbewältigung in der Logiksynthese asynchroner Schaltungen N2 - Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results. N2 - Moderner Schaltungsentwurf fokussiert hauptsächlich synchrone Schaltungstechnik mit allen inhärenten Problemen. Asynchone (d.h. ungetaktete) Schaltungen zeichnen sich jedoch nicht nur durch das Fehlen der Taktversatzproblematik gegenüber ihren synchronen Pendents aus, sondern auch insbesondere durch geringeren Energieverbrauch, günstigere EMV-Eigenschaften, hohe Performance, Modularität und Robustheit gegenüber Schwankungen in der Spannungsversorgung, im Herstellungsprozess sowie Temperaturunterschieden. Diese Vorteile werden mit höherer Integration sowie höheren Taktraten signifikanter. Jedoch ist der Entwurf und auch der Test asynchroner Schaltungen erheblich schwieriger verglichen mit synchronen Schaltungen. Entwurfswerkzeuge zur Synthese asynchroner Schaltungen aus Hochsprachen-Spezifikationen sind zwar inzwischen verfügbar, sie sind jedoch noch nicht so ausgereift und bei weitem noch nicht so akzeptiert in der Industrie, wie ihre Äquivalente für den synchronen Schaltungsentwurf. Insbesondere fehlt es an Werkzeugunterstützung im Bereich der Logiksynthese komplexer Steuerungen („Controller“), welche kritisch für die Effizienz – z.B. in Bezug auf Chipfläche und Geschwindigkeit – der resultierenden Schaltungen oder Systeme ist. Zur Spezifikation von Steuerungen haben sich Signalflankengraphen („signal transition graphs“, STGs) bewährt, die auch als Entwurfseinstieg für eine Logiksynthese von SI-Schaltungen („speed independent“) verwendet werden. (SI-Schaltungen gelten als sehr robuste asynchrone Schaltungen.) Aus den STGs werden zwecks Logiksynthese Automaten abgeleitet werden, deren Zustandszahl aber oft prohibitiv groß werden kann. Durch sogenannte STG-Dekomposition wird die Logiksynthese einer komplexen Schaltung ermöglicht, was bislang aufgrund von Zustandsexplosion oft nicht möglich war. Dabei wird der Spezifikations-STG laut einer gegebenen Partition von Ausgangssignalen in viele kleinere Teilnetze dekomponiert, wobei zu jedem Partitionsblock ein Teilnetz – mit normalerweise signifikant kleinerem Zustandsraum im Vergleich zur Spezifikation – erzeugt wird. Zu jedem Teilnetz wird dann eine Teilschaltung (Komponente) mittels Logiksynthese generiert. Durch die Anwendung von STG-Dekomposition können jedoch Teilnetze erzeugt werden, die sogenannte irreduzible CSC-Konflikte aufweisen (d.h. zu diesen Teilnetzen kann keine SI-Schaltung erzeugt werden), obwohl die Spezifikation keine solchen Konflikte hatte. Diese Arbeit präsentiert einen neuen Ansatz, welcher die Entstehung solcher irreduziblen Konflikte vermeidet, und zwar durch die Einführung interner Kommunikation zwischen den (zu den Teilnetzen gehörenden) Schaltungskomponenten. Bisher werden STG-Dekompositionen total durchgeführt, d.h. pro resultierender Komponente wird ein Ausgangssignal erzeugt. Das führt gewöhnlich nicht zu optimalen Schaltungsimplementierungen. In dieser Arbeit werden Heuristiken zur Bestimmung gröberer Ausgabepartitionen (d.h. Partitionsblöcke mit mehreren Ausgangssignalen) vorgestellt, die zu kleineren Schaltungen führen. Die vorgestellten Algorithmen werden formal abgesichert und wurden in das bereits vorhandene Dekompositionswerkzeug DESIJ integriert. An praxisrelevanten Beispielen konnten die vorgestellten Verfahren erfolgreich erprobt werden. KW - Asynchrone Schaltung KW - Logiksynthese KW - Komplexitätsbewältigung KW - STG-Dekomposition KW - CSC KW - asynchronous circuit KW - logic synthesis KW - speed independence KW - STG decomposition KW - CSC Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59706 ER - TY - THES A1 - Wischnewski, Juliane T1 - Reconstructing climate variability on the Tibetan Plateau : comparing aquatic and terrestrial signals T1 - Klimarekonstruktionen auf dem Tibet Plateau : aquatische und terrestrische Signale im Vergleich N2 - Spatial and temporal temperature and moisture patterns across the Tibetan Plateau are very complex. The onset and magnitude of the Holocene climate optimum in the Asian monsoon realm, in particular, is a subject of considerable debate as this time period is often used as an analogue for recent global warming. In the light of contradictory inferences regarding past climate and environmental change on the Tibetan Plateau, I have attempted to explain mismatches in the timing and magnitude of change. Therefore, I analysed the temporal variation of fossil pollen and diatom spectra and the geochemical record from palaeo-ecological records covering different time scales (late Quaternary and the last 200 years) from two core regions in the NE and SE Tibetan Plateau. For interpretation purposes I combined my data with other available palaeo-ecological data to set up corresponding aquatic and terrestrial proxy data sets of two lake pairs and two sets of sites. I focused on the direct comparison of proxies representing lacustrine response to climate signals (e.g., diatoms, ostracods, geochemical record) and proxies representing changes in the terrestrial environment (i.e., terrestrial pollen), in order to asses whether the lake and its catchments respond at similar times and magnitudes to environmental changes. Therefore, I introduced the established numerical technique procrustes rotation as a new approach in palaeoecology to quantitatively compare raw data of any two sedimentary records of interest in order to assess their degree of concordance. Focusing on the late Quaternary, sediment cores from two lakes (Kuhai Lake 35.3°N; 99.2°E; 4150 m asl; and Koucha Lake 34.0°N; 97.2°E; 4540 m asl) on the semi-arid northeastern Tibetan Plateau were analysed to identify post-glacial vegetation and environmental changes, and to investigate the responses of lake ecosystems to such changes. Based on the pollen record, five major vegetation and climate changes could be identified: (1) A shift from alpine desert to alpine steppe indicates a change from cold, dry conditions to warmer and more moist conditions at 14.8 cal. ka BP, (2) alpine steppe with tundra elements points to conditions of higher effective moisture and a stepwise warming climate at 13.6 cal. ka BP, (3) the appearance of high-alpine meadow vegetation indicates a further change towards increased moisture, but with colder temperatures, at 7.0 cal. ka BP, (4) the reoccurrence of alpine steppe with desert elements suggests a return to a significantly colder and drier phase at 6.3 cal. ka BP, and (5) the establishment of alpine steppe-meadow vegetation indicates a change back to relatively moist conditions at 2.2 cal. ka BP. To place the reconstructed climate inferences from the NE Tibetan Plateau into the context of Holocene moisture evolution across the Tibetan Plateau, I applied a five-scale moisture index and average link clustering to all available continuous pollen and non-pollen palaeoclimate records from the Tibetan Plateau, in an attempt to detect coherent regional and temporal patterns of moisture evolution on the Plateau. However, no common temporal or spatial pattern of moisture evolution during the Holocene could be detected, which can be assigned to the complex responses of different proxies to environmental changes in an already very heterogeneous mountain landscape, where minor differences in elevation can result in marked variations in microenvironments. Focusing on the past 200 years, I analysed the sedimentary records (LC6 Lake 29.5°N, 94.3°E, 4132 m asl; and Wuxu Lake 29.9°N, 101.1°E, 3705 m asl) from the southeastern Tibetan Plateau. I found that despite presumed significant temperature increases over that period, pollen and diatom records from the SE Tibetan Plateau reveal only very subtle changes throughout their profiles. The compositional species turnover investigated over the last 200 years appears relatively low in comparison to the species reorganisations during the Holocene. The results indicate that climatically induced ecological thresholds are not yet crossed, but that human activity has an increasing influence, particularly on the terrestrial ecosystem. Forest clearances and reforestation have not caused forest decline in our study area, but a conversion of natural forests to semi-natural secondary forests. The results from the numerical proxy comparison of the two sets of two pairs of Tibetan lakes indicate that the use of different proxies and the work with palaeo-ecological records from different lake types can cause deviant stories of inferred change. Irrespective of the timescale (Holocene or last 200 years) or region (SE or NE Tibetan Plateau) analysed, the agreement in terms of the direction, timing, and magnitude of change between the corresponding terrestrial data sets is generally better than the match between the corresponding lacustrine data sets, suggesting that lacustrine proxies may partly be influenced by in-lake or local catchment processes whereas the terrestrial proxy reflects a more regional climatic signal. The current disaccord on coherent temporal and spatial climate patterns on the Tibetan Plateau can partly be ascribed to the complexity of proxy response and lake systems on the Tibetan Plateau. Therefore, a multi-proxy, multi-site approach is important in order to gain a reliable climate interpretation for the complex mountain landscape of the Tibetan Plateau. N2 - Die räumlichen und zeitlichen Temperatur- und Feuchtigkeitsmuster auf dem Tibet-Plateau sind sehr komplex. Im Einzugsbereich der asiatischen Monsune sind insbesondere der Beginn und das Ausmaß des Klimaoptimums während des Holozäns von wissenschaftlichem Interesse, da diese Periode oft als Analogie für die derzeitige globale Klimaerwärmung herangezogen wird. In Hinblick auf sich teilweise widersprechende Paläoklima- und Umweltrekonstruktionen für das Tibet-Plateau, ist es mein Ziel, die bestehenden Unstimmigkeiten bezüglich des Zeitpunktes und des Ausmaßes des Umweltwandels zu erklären. Dafür wurden von mir zeitliche Variationen fossiler Pollen- und Diatomeenspektren und geochemische Untersuchungen an Seesedimenten unterschiedlicher Zeitskalen (Spätquartär und die letzten 200 Jahre) aus zwei Kernregionen auf dem NO und SO Tibet-Plateau analysiert. Zur Unterstützung der Interpretation wurden die hier erhobenen Daten mit bereits vorhandenen paläoökologischen Aufzeichnungen der Lokalitäten kombiniert, um Datensätze der entsprechenden aquatischen und terrestrischen Proxy-Daten (Stellvertreterdaten) zweier Seenpaare aus den beiden Regionen gegenüberstellen zu können. Hierbei konzentrierte ich mich auf den direkten Vergleich von Proxies, die die Seenentwicklung reflektieren (z.B. Diatomeen, Ostracoden, geochemische Eigenschaften), mit Proxies, die Veränderungen der terrestrischen Umgebung des Sees beschreiben (terrestrische Pollen). Durch diesen Vergleich lässt sich beurteilen, ob Veränderungen im See selbst mit Umweltveränderungen in dem jeweiligen Einzugsgebiet zeitlich übereinstimmen. Dafür habe ich die bereits etablierte numerische Methode Procrustes-Rotation als neuen Ansatz in der Paläoökologie eingeführt. Damit ist ein quantitativer Vergleich von Rohdaten zweier beliebiger sedimentärer Datensätze möglich, um den Grad der Übereinstimmung zu prüfen. Um die in dieser Arbeit rekonstruierten Umwelt- und Klimaereignisse des nordöstlichen Tibet-Plateaus in einen größeren Zusammenhang hinsichtlich holozäner Klimaentwicklung des gesamten Plateaus setzen zu können, und um schlüssige zeitliche und räumliche Klimatrends auf dem Plateau erkennen zu können, habe ich auf alle vorhandenen Paläoklimadatensätze einen Fünf-Skalen Feuchtigkeitsindex und eine Clusteranalyse angewandt. Es konnten jedoch keine einheitlichen zeitlichen und räumlichen Trends der holozänen Klimaentwicklung nachgewiesen werden, was meiner Analyse entsprechend, auf die komplexen Reaktionen verschiedener Proxies auf Umweltveränderungen in einer ohnehin sehr heterogen Berglandschaft, zurückgeführt werden kann. Die Ergebnisse des numerischen Proxy-Vergleichs beider Seenpaare zeigen, dass die Verwendung von verschiedenen Proxies und die Arbeit mit paläo-ökologischen Datensätzen unterschiedlicher See-Typen zu abweichenden Klimaableitungen führen können. Unabhängig vom untersuchten Zeitraum (Holozän oder die letzten 200 Jahren) oder der Region (SO oder NO Tibet-Plateau), ist die Übereinstimmung zweier Datensätze hinsichtlich der Richtung, des Zeitpunktes und des Ausmaßes der abgeleiteten Paläo-Umweltverhältnisse in der Regel zwischen den entsprechenden terrestrischen Datensätzen besser als zwischen den entsprechenden lakustrinen Datensätzen. Die derzeitige Uneinigkeit über stimmige zeitliche und räumliche Klimatrends auf dem Tibet-Plateau kann daher teilweise der Komplexität der verschieden Proxies und ihrer individuellen Empfindlichkeiten gegenüber Umweltveränderungen sowie der unterschiedlichen Reaktionsweise verschiedenartiger See-Systeme auf dem Plateau zugeschrieben werden. Meine Ergebnisse zeigen, dass ein „Multi-Proxy-Multi-Site-Ansatz“ für zuverlässige Paläoklimaableitungen für das Tibet-Plateau von zentraler Bedeutung ist. KW - Tibet Plateau KW - Holozän KW - Pollen KW - Diatomeen KW - Prokrustes Analyse KW - Tibetan Plateau KW - Holocene KW - Pollen KW - Diatoms KW - Procrustes rotation analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52453 ER - TY - THES A1 - Windirsch-Woiwode, Torben T1 - Permafrost carbon stabilisation by recreating a herbivore-driven ecosystem T1 - Stabilisierung von Permafrostkohlenstoff durch die Wiedereinführung eines Herbivor-geprägten Ökosystems N2 - With Arctic ground as a huge and temperature-sensitive carbon reservoir, maintaining low ground temperatures and frozen conditions to prevent further carbon emissions that contrib-ute to global climate warming is a key element in humankind’s fight to maintain habitable con-ditions on earth. Former studies showed that during the late Pleistocene, Arctic ground condi-tions were generally colder and more stable as the result of an ecosystem dominated by large herbivorous mammals and vast extents of graminoid vegetation – the mammoth steppe. Characterised by high plant productivity (grassland) and low ground insulation due to animal-caused compression and removal of snow, this ecosystem enabled deep permafrost aggrad-ation. Now, with tundra and shrub vegetation common in the terrestrial Arctic, these effects are not in place anymore. However, it appears to be possible to recreate this ecosystem local-ly by artificially increasing animal numbers, and hence keep Arctic ground cold to reduce or-ganic matter decomposition and carbon release into the atmosphere. By measuring thaw depth, total organic carbon and total nitrogen content, stable carbon iso-tope ratio, radiocarbon age, n-alkane and alcohol characteristics and assessing dominant vegetation types along grazing intensity transects in two contrasting Arctic areas, it was found that recreating conditions locally, similar to the mammoth steppe, seems to be possible. For permafrost-affected soil, it was shown that intensive grazing in direct comparison to non-grazed areas reduces active layer depth and leads to higher TOC contents in the active layer soil. For soil only frozen on top in winter, an increase of TOC with grazing intensity could not be found, most likely because of confounding factors such as vertical water and carbon movement, which is not possible with an impermeable layer in permafrost. In both areas, high animal activity led to a vegetation transformation towards species-poor graminoid-dominated landscapes with less shrubs. Lipid biomarker analysis revealed that, even though the available organic material is different between the study areas, in both permafrost-affected and sea-sonally frozen soils the organic material in sites affected by high animal activity was less de-composed than under less intensive grazing pressure. In conclusion, high animal activity af-fects decomposition processes in Arctic soils and the ground thermal regime, visible from reduced active layer depth in permafrost areas. Therefore, grazing management might be utilised to locally stabilise permafrost and reduce Arctic carbon emissions in the future, but is likely not scalable to the entire permafrost region. N2 - Mit dem arktischen Boden als riesigem und temperatursensiblen Kohlenstoffspeicher ist die Aufrechterhaltung niedriger Bodentemperaturen und gefrorener Bedingungen zur Verhinde-rung weiterer Kohlenstoffemissionen, die zum globalen Klimawandel beitragen, ein Schlüs-selelement im Kampf der Menschheit, die Erde weiterhin bewohnbar zu halten. Vorangehen-de Studien ergaben, dass die Bodenbedingungen in der Arktis während des späten Pleisto-zäns im Allgemeinen kälter und dadurch stabiler waren, als Ergebnis eines Ökosystems, das von großen pflanzenfressenden Säugetieren und weiten Flächen grasartiger Vegetation do-miniert wurde - der Mammutsteppe. Gekennzeichnet durch hohe Pflanzenproduktivität (Gras-land) und geringe Bodenisolierung aufgrund von Kompression und Schneeräumung durch Tiere, ermöglichte dieses Ökosystem eine tiefreichende Entwicklung des Permafrosts. Heut-zutage, mit der vorherrschenden Tundra- und Strauchvegetation in der Arktis, sind diese Ef-fekte nicht mehr präsent. Es scheint aber möglich, dieses Ökosystem lokal durch künstliche Erhöhung der Tierbestände nachzubilden und somit den arktischen Boden kühl zu halten, um den Abbau von organischem Material und die Freisetzung von Kohlenstoff in die Atmosphäre zu verringern. Durch Messungen der Auftautiefe, des Gesamtgehalts des organischen Kohlenstoffs und Stickstoffs, des stabilen Kohlenstoff-Isotopenverhältnisses, des Radiocarbonalters, der n-Alkan- und Alkoholcharakteristika sowie durch Bestimmung der vorherrschenden Vegetati-onstypen entlang von Beweidungsgradienten in zwei unterschiedlichen arktischen Gebieten habe ich festgestellt, dass die Schaffung ähnlicher Bedingungen wie in der Mammutsteppe möglich sein könnte. Für durch Permafrost beeinflusste Böden konnte ich zeigen, dass eine intensive Beweidung im direkten Vergleich mit unbeweideten Gebieten die Tiefe der Auftau-schicht verringert und zu höheren Gehalten an organischem Kohlenstoff im oberen Bodenbe-reich führt. Für im Winter nur oberflächlich gefrorene Böden konnte kein Anstieg des organi-schen Kohlenstoffgehalts mit zunehmender Beweidungsintensität festgestellt werden, höchstwahrscheinlich aufgrund von Störfaktoren wie vertikalen Wasser- und Kohlenstoffbe-wegungen, die nicht durch eine undurchlässige Schicht wie beim Permafrost begrenzt sind. In beiden Gebieten führte eine hohe Tieraktivität zu einer Umwandlung der Vegetation hin zu artenarmen, von Gräsern dominierten Landschaften mit weniger Sträuchern. Die Analyse von Lipid-Biomarkern ergab, dass das verfügbare organische Material zwar zwischen den Unter-suchungsgebieten unterschiedlich war, aber sowohl in Permafrostgebieten als auch in saiso-nal gefrorenen Böden in Bereichen mit hoher Tieraktivität weniger stark zersetzt war als unter geringerer Beweidungsintensität. Zusammenfassend beeinflusst eine hohe Tieraktivität die Zersetzungsvorgänge in arktischen Böden und das thermische Regime des Bodens, was sich in einer reduzierten Tiefe der Auftauschicht in Permafrostgebieten widerspiegelt. Daher könn-te das Beweidungsmanagement in Zukunft aktiv eingesetzt werden, um den Permafrost lokal zu stabilisieren und gefroren zu halten sowie die Kohlenstoffemissionen in der Arktis zu ver-ringern. Aufgrund der Größe der Fläche, die in der terrestrischen Arktis von Permafrost be-einflusst ist, wird ein solches Beweidungsmanagement aber nicht als Maßnahme auf die ge-samte Permafrostregion ausgedehnt werden können. KW - permafrost KW - carbon KW - climate change KW - grazing KW - Arctic KW - Arktis KW - Kohlenstoff KW - Klimawandel KW - Beweidung KW - Permafrost Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624240 ER - TY - THES A1 - Winck, Flavia Vischi T1 - Nuclear proteomics and transcription factor profiling in Chlamydomonas reinhardtii T1 - Nukleare Proteomics und Transkriptionsfaktoren : Profiling in Chlamydomonas reinhardtii N2 - The transcriptional regulation of the cellular mechanisms involves many different components and different levels of control which together contribute to fine tune the response of cells to different environmental stimuli. In some responses, diverse signaling pathways can be controlled simultaneously. One of the most important cellular processes that seem to possess multiple levels of regulation is photosynthesis. A model organism for studying photosynthesis-related processes is the unicellular green algae Chlamydomonas reinhardtii, due to advantages related to culturing, genetic manipulation and availability of genome sequence. In the present study, we were interested in understanding the regulatory mechanisms underlying photosynthesis-related processes. To achieve this goal different molecular approaches were followed. In order to indentify protein transcriptional regulators we optimized a method for isolation of nuclei and performed nuclear proteome analysis using shotgun proteomics. This analysis permitted us to improve the genome annotation previously published and to discover conserved and enriched protein motifs among the nuclear proteins. In another approach, a quantitative RT-PCR platform was established for the analysis of gene expression of predicted transcription factor (TF) and other transcriptional regulator (TR) coding genes by transcript profiling. The gene expression profiles for more than one hundred genes were monitored in time series experiments under conditions of changes in light intensity (200 µE m-2 s-1 to 700 µE m-2 s-1), and changes in concentration of carbon dioxide (5% CO2 to 0.04% CO2). The results indicate that many TF and TR genes are regulated in both environmental conditions and groups of co-regulated genes were found. Our findings also suggest that some genes can be common intermediates of light and carbon responsive regulatory pathways. These approaches together gave us new insights about the regulation of photosynthesis and revealed new candidate regulatory genes, helping to decipher the gene regulatory networks in Chlamydomonas. Further experimental studies are necessary to clarify the function of the candidate regulatory genes and to elucidate how cells coordinately regulate the assimilation of carbon and light responses. N2 - Pflanzen nutzen das Sonnenlicht um Substanzen, sogenannte Kohlenhydrate, zu synthetisieren. Diese können anschließend als Energielieferant für das eigene Wachstum genutzt werden. Der aufbauende Prozess wird als Photosynthese bezeichnet. Ein wichtiges Anliegen ist deshalb zu verstehen, wie Pflanzen äußere Einflüsse wahrnehmen und die Photosynthese dementsprechend regulieren. Ihre Zellen tragen diese Informationen in den Genen. Die Pflanzen nutzen aber in der Regel nicht alle ihre Gene gleichzeitig, die sie zur Anpassung an Umwelteinflüsse besitzen. Zu meist wird nur eine Teilfraktion der gesamten Information benötigt. Wir wollten der Frage nachgehen, welche Gene die Zellen für welche Situation regulieren. Im Zellkern gibt es Proteine, sogenannte Transkriptionsfaktoren, die spezifische Gene finden können und deren Transkription modulieren. Wenn ein Gen gebraucht wird, wird seine Information in andere Moleküle übersetzt (transkribiert), sogenannte Transkripte. Die Information dieser Transkripte wird benutzt um Proteine, Makromoleküle aus Aminsäuren, zu synthetisieren. Aus der Transkription eines Gens kann eine große Zahl des Transkripts entstehen. Es ist wahrscheinlich, dass ein Gen, dass gerade gebraucht wird, mehr Transkriptmoleküle hat als andere Gene. Da die Transkriptionsfaktoren mit der Transkription der Gene interferieren können, entwickelten wir in der vorliegenden Arbeit Strategien zur Identifikation dieser im Zellkern zu findenden Proteine mittels eines „Proteomics“-Ansatzes. Wir entwickelten weiterhin eine Strategie zur Identififikation von Transkripten Transkriptionsfaktor-codierender Gene in der Zelle und in welche Menge sie vorkommen. Dieser Ansatz wird als „Transcript-Profiling“ bezeichnet. Wir fanden Zellkern-lokalisierte Proteine, die als Signalmoleküle funktionieren könnten und Transkripte, die bei unterschiedlichen Umweltbedingungen in der Zelle vorhanden waren. Wir benutzten, die oben genannten Ansätze um die einzellige Grünalge Chlamydomonas zu untersuchen. Die Informationen, die wir erhielten, halfen zu verstehen welche Transkriptionsfaktoren notwendig sind, damit Chlamydomonas bei unterschiedlichen Umweltbedingungen, wie z.B. unterschiedliche Lichtintensitäten und unterschiedlicher Konzentration von Kohlenstoffdioxid, überlebt. KW - Proteomics KW - Transkriptionsfaktoren KW - Pflanzen KW - Chlamydomonas KW - Transcriptomics KW - Proteomics KW - Transcription factors KW - Plants KW - Chlamydomonas KW - Transcriptomics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53909 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER - TY - THES A1 - Willersinn, Jochen T1 - Self-Assembly of double hydrophilic block copolymers T1 - Selbstorganisation Doppelt Hydrophiler Blockcopolymere BT - organized particles and vesicles beyond amphiphiles BT - organisierte Partikel und Vesikel jenseits von Amphiphilen N2 - The motivation of this work was to investigate the self-assembly of a block copolymer species that attended little attraction before, double hydrophilic block copolymers (DHBCs). DHBCs consist of two linear hydrophilic polymer blocks. The self-assembly of DHBCs towards suprastructures such as particles and vesicles is determined via a strong difference in hydrophilicity between the corresponding blocks leading to a microphase separation due to immiscibility. The benefits of DHBCs and the corresponding particles and vesicles, such as biocompatibility, high permeability towards water and hydrophilic compounds as well as the large amount of possible functionalizations that can be addressed to the block copolymers make the application of DHBC based structures a viable choice in biomedicine. In order to assess a route towards self-assembled structures from DHBCs that display the potential to act as cargos for future applications, several block copolymers containing two hydrophilic polymer blocks were synthesized. Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone) (PEO-b-PVP) and Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone-co-N-vinylimidazole) (PEO-b-P(VP-co-VIm) block copolymers were synthesized via reversible deactivation radical polymerization (RDRP) techniques starting from a PEO-macro chain transfer agent. The block copolymers displayed a concentration dependent self-assembly behavior in water which was determined via dynamic light scattering (DLS). It was possible to observe spherical particles via laser scanning confocal microscopy (LSCM) and cryogenic scanning electron microscopy (cryo SEM) at highly concentrated solutions of PEO-b-PVP. Furthermore, a crosslinking strategy with (PEO-b-P(VP-co-VIm) was developed applying a diiodo derived crosslinker diethylene glycol bis(2-iodoethyl) ether to form quaternary amines at the VIm units. The formed crosslinked structures proved stability upon dilution and transfer into organic solvents. Moreover, self-assembly and crosslinking in DMF proved to be more advantageous and the crosslinked structures could be successfully transferred to aqueous solution. The afforded spherical submicron particles could be visualized via LSCM, cryo SEM and Cryo TEM. Double hydrophilic pullulan-b-poly(acrylamide) block copolymers were synthesized via copper catalyzed alkyne azide cycloaddition (CuAAC) starting from suitable pullulan alkyne and azide functionalized poly(N,N-dimethylacrylamide) (PDMA) and poly(N-ethylacrylamide) (PEA) homopolymers. The conjugation reaction was confirmed via SEC and 1H-NMR measurements. The self-assembly of the block copolymers was monitored with DLS and static light scattering (SLS) measurements indicating the presence of hollow spherical structures. Cryo SEM measurements could confirm the presence of vesicular structures for Pull-b-PEA block copolymers. Solutions of Pull-b-PDMA displayed particles in cryo SEM. Moreover, an end group functionalization of Pull-b-PDMA with Rhodamine B allowed assessing the structure via LSCM and hollow spherical structures were observed indicating the presence of vesicles, too. An exemplified pathway towards a DHBC based drug delivery vehicle was demonstrated with the block copolymer Pull-b-PVP. The block copolymer was synthesized via RAFT/MADIX techniques starting from a pullulan chain transfer agent. Pull-b-PVP displayed a concentration dependent self-assembly in water with an efficiency superior to the PEO-b-PVP system, which could be observed via DLS. Cryo SEM and LSCM microscopy displayed the presence of spherical structures. In order to apply a reversible crosslinking strategy on the synthesized block copolymer, the pullulan block was selectively oxidized to dialdehydes with NaIO4. The oxidation of the block copolymer was confirmed via SEC and 1H-NMR measurements. The self-assembled and oxidized structures were subsequently crosslinked with cystamine dihiydrochloride, a pH and redox responsive crosslinker resulting in crosslinked vesicles which were observed via cryo SEM. The vesicular structures of crosslinked Pull-b-PVP could be disassembled by acid treatment or the application of the redox agent tris(2-carboxyethyl)-phosphin-hydrochloride. The successful disassembly was monitored with DLS measurements. To conclude, self-assembled structures from DHBCs such as particles and vesicles display a strong potential to generate an impact on biomedicine and nanotechnologies. The variety of DHBC compositions and functionalities are very promising features for future applications. N2 - Die Selbstanordnung von amphiphilen Blockcopolymeren in Wasser zu Strukturen höherer Ordnung, wie Partikel oder Vesikel, ist seit vielen Jahren bekannt und findet Anwendung in vielen Aspekten der Medizin und Materialwissenschaft. Allerdings ist die treibende Kraft dieser Selbstanordnung zu Vesikeln, die Hydrophobie des wasserunlöslichen Polmyerblocks, auch ein Hindernis für den gezielten Transport von neuen Medikamenten und Wirkstoffen, da die Membran dieser Vesikel aufgrund des hydrophoben Anteils sehr dicht gepackt ist und eine Diffusion der Wirkstoffe durch diese Membran häufig nur durch hohen synthetischen Aufwand gewährleistet werden kann. Einen möglichen Ausweg bietet die Anwendung von doppelt hydrophilen Blockcopolymeren (DHBCs), respektive Blockcopolymere die aus zwei Polymerblöcken mit unterschiedlicher Hydrophilie bestehen. Ist dieser Unterschied groß genug, können DHBCs Partikel- und Vesikelstrukturen ausbilden, die denen der amphiphilen Blockcopolymere ähnlich sind. Um das Potential von DHBC Strukturen zu untersuchen und einen tieferen Einblick in die fundamentalen Prinzipien dieser Selbstanordnung zu erhalten, wurden in dieser Arbeit fünf verschiedene Blockcopolymere hergestellt. Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon) und Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon-co-N-Vinylimidazol) Blockcopolymere wurden über eine kontrollierte radikalische Polymerisation hergestellt und zeigten eine konzentrationsabhängige Selbstanordnung zu Partikeln mit Größen unter einem Mikrometer. Diese Partikel konnten vernetzt werden, sodass sie auch bei starker Verdünnung nicht zerfallen. Zwei Pullulan-b-Poly(Acrylamid) Blockcopolymere wurden über eine Konjugationsreaktion hergestellt, die die beiden separaten Polymerblöcke miteinander verbindet. Diese Blockcopolymere ordneten sich in Wasser zu Vesikulären Strukturen mit Größen zwischen 250 nm und 500 nm. Des Weiteren war es möglich, einen Farbstoff an ein Blockcopolymer anzubringen und den vesikulären Charakter mit konfokaler Mikroskopie zu untersuchen. Ein Ausblick auf mögliche medizinische Anwendung von DHBCs wurde mit dem letzten Blockcopolymer Pullulan-b-Poly(N-Vinylpyrrolidon) gegeben. Vesikel aus diesem Blockcopolymer wurden mit einem pH- und Redox-responsivem Vernetzer vernetzt und es wurde gezeigt, dass sich die vesikulären Strukturen durch Säurebehandlung zersetzen lassen. Dieses System veranschaulicht die theoretische Anwendungsmöglichkeit von DHBCs im gezielten Medikamententransport. KW - self-assembly KW - double hydrophilic block copolymers KW - polymer chemistry KW - RAFT/MADIX polymerization KW - block copolymer vesicles KW - Selbstorganisation KW - Doppelt hydrophile Blockcopolymere KW - Polymerchemie KW - RAFT/MADIX Polymerisation KW - Blockcopolymervesikel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408578 ER - TY - THES A1 - Wilke, Franziska Daniela Helena T1 - Quantifying crystalline exhumation in the Himalaya T1 - Quantifizierung von Exhumationsbedingungen der kristallinen Gesteine aus dem Himalaja N2 - In 1915, Alfred Wegener published his hypotheses of plate tectonics that revolutionised the world for geologists. Since then, many scientists have studied the evolution of continents and especially the geologic structure of orogens: the most visible consequence of tectonic processes. Although the morphology and landscape evolution of mountain belts can be observed due to surface processes, the driving force and dynamics at lithosphere scale are less well understood despite the fact that rocks from deeper levels of orogenic belts are in places exposed at the surface. In this thesis, such formerly deeply-buried (ultra-) high-pressure rocks, in particular eclogite facies series, have been studied in order to reveal details about the formation and exhumation conditions and rates and thus provide insights into the geodynamics of the most spectacular orogenic belt in the world: the Himalaya. The specific area investigated was the Kaghan Valley in Pakistan (NW Himalaya). Following closure of the Tethyan Ocean by ca. 55-50 Ma, the northward subduction of the leading edge of India beneath the Eurasian Plate and subsequent collision initiated a long-lived process of intracrustal thrusting that continues today. The continental crust of India – granitic basement, Paleozoic and Mesozoic cover series and Permo-Triassic dykes, sills and lavas – has been buried partly to mantle depths. Today, these rocks crop out as eclogites, amphibolites and gneisses within the Higher Himalayan Crystalline between low-grade metamorphosed rocks (600-640°C/ ca. 5 kbar) of the Lesser Himalaya and Tethyan sediments. Beside tectonically driven exhumation mechanisms the channel flow model, that describes a denudation focused ductile extrusion of low viscosity material developed in the middle to lower crust beneath the Tibetan Plateau, has been postulated. To get insights into the lithospheric and crustal processes that have initiated and driven the exhumation of this (ultra-) high-pressure rocks, mineralogical, petrological and isotope-geochemical investigations have been performed. They provide insights into 1) the depths and temperatures to which these rocks were buried, 2) the pressures and temperatures the rocks have experienced during their exhumation, 3) the timing of these processes 4) and the velocity with which these rocks have been brought back to the surface. In detail, through microscopical studies, the identification of key minerals, microprobe analyses, standard geothermobarometry and modelling using an effective bulk rock composition it has been shown that published exhumation paths are incomplete. In particular, the eclogites of the northern Kaghan Valley were buried to depths of 140-100 km (36-30 kbar) at 790-640°C. Subsequently, cooling during decompression (exhumation) towards 40-35 km (17-10 kbar) and 630-580°C has been superseded by a phase of reheating to about 720-650°C at roughly the same depth before final exhumation has taken place. In the southern-most part of the study area, amphibolite facies assemblages with formation conditions similar to the deduced reheating phase indicate a juxtaposition of both areas after the eclogite facies stage and thus a stacking of Indian Plate units. Radiometric dating of zircon, titanite and rutile by U-Pb and amphibole and micas by Ar-Ar reveal peak pressure conditions at 47-48 Ma. With a maximum exhumation rate of 14 cm/a these rocks reached the crust-mantle boundary at 40-35 km within 1 Ma. Subsequent exhumation (46-41 Ma, 40-35 km) decelerated to ca. 1 mm/a at the base of the continental crust but rose again to about 2 mm/a in the period of 41-31 Ma, equivalent to 35-20 km. Apatite fission track (AFT) and (U-Th)/He ages from eclogites, amphibolites, micaschists and gneisses yielded moderate Oligocene to Miocene cooling rates of about 10°C/Ma in the high altitude northern parts of the Kaghan Valley using the mineral-pair method. AFT ages are of 24.5±3.8 to 15.6±2.1 Ma whereas apatite (U-Th)/He analyses yielded ages between 21.0±0.6 and 5.3±0.2 Ma. The southern-most part of the Valley is dominated by younger late Miocene to Pliocene apatite fission track ages of 7.6±2.1 and 4.0±0.5 Ma that support earlier tectonically and petrologically findings of a juxtaposition and stack of Indian Plate units. As this nappe is tectonically lowermost, a later distinct exhumation and uplift driven by thrusting along the Main Boundary Thrust is inferred. A multi-stage exhumation path is evident from petrological, isotope-geochemical and low temperature thermochronology investigations. Buoyancy driven exhumation caused an initial rapid exhumation: exhumation as fast as recent normal plate movements (ca. 10 cm/a). As the exhuming units reached the crust-mantle boundary the process slowed down due to changes in buoyancy. Most likely, this exhumation pause has initiated the reheating event that is petrologically evident (e.g. glaucophane rimmed by hornblende, ilmenite overgrowth of rutile). Late stage processes involved widespread thrusting and folding with accompanied regional greenschist facies metamorphism, whereby contemporaneous thrusting on the Batal Thrust (seen by some authors equivalent to the MCT) and back sliding of the Kohistan Arc along the inverse reactivated Main Mantle Thrust caused final exposure of these rocks. Similar circumstances have been seen at Tso Morari, Ladakh, India, 200 km further east where comparable rock assemblages occur. In conclusion, as exhumation was already done well before the initiation of the monsoonal system, climate dependent effects (erosion) appear negligible in comparison to far-field tectonic effects. N2 - Seit der von Alfred Wegener 1915 postulierten Hypothese der Plattentektonik haben viele Forscher Anstrengungen unternommen die Entstehungsgeschichte und den geologischen Aufbau von Gebirgen nachzuvollziehen. Oberflächennahe Abläufe sind ansatzweise verstanden, während Prozesse im Erdinneren weit weniger bekannt sind. Informationen hierüber können jedoch aus den Gesteinen, ihren Mineralen und wiederum deren chemischen Komponenten gewonnen werden, da diese die Entstehung und Entwicklung der Gebirgsbildung “miterlebt”, und wichtige Informationen gespeichert haben. In dieser Arbeit wurden dazu exemplarisch (Ultra-) Hochdruckgesteine ((U-)HP), sogenannte Eklogite, und deren Umgebungsgesteine aus dem nordwestlichen Himalaja, insbesondere aus dem Kaghan Tal in Pakistan untersucht um den Exhumationsprozess von tief subduzierten Krustengesteinen im allgemeinen, und im Hinblick auf mögliche klimabedingte Einflüsse, besser zu verstehen. Die Bildung des Himalajas ist auf die Versenkung, eines südlich der eurasischen Platte angesiedelten Ozeans, der Tethys, und die nachfolgende Kollision Indiens mit dem Eurasischen Kontinent vor und seit etwa 50-55 Millionen Jahre zurück zu führen. Dabei wurden kalter, dichter Ozeanboden und leichtere Krustensegmente rasch in große Tiefen subduziert. Heute sind diese Hochdruck- und ultra Hochdruckgesteine in einigen Bereichen des Himalaja zwischen schwach metamorph überprägten (600-640°C/ca. 5 kbar) Gesteinen und alten Sedimenten der Tethys aufgeschlossen. Anhand von petrographischen, mineral-chemischen, petrologischen und isotopen-geochemischen Untersuchungen dieser (Ultra) Hochdruckgesteine konnte ich zeigen, dass 1) die Gesteine in über 100 km Tiefe also bis in den Erdmantel vordrangen, 2) sie bei ihrem Aufstieg in Krustenbereiche von 40-35 km zuerst von 790-640°C auf 630-580°C abgekühlten um danach wieder auf 720-650°C aufgeheizt zu werden, sie 3) innerhalb von 700.000 Jahren um mindestens 60 km Richtung Erdoberfläche exhumiert wurden und somit 4) Geschwindigkeiten von 9-14 cm pro Jahr erreichten, die der normaler Plattengeschwindigkeiten (>10 cm/a) entspricht, wobei sich 5) dieser Prozess ab 40-35 km auf 0.1-0.2 cm/a stark verlangsamte und auch 6) ab einer Tiefe von 6 km bis zur Erdoberfläche keine, z. B. niederschlagsbedingt, erhöhte Abkühlungsrate zu erkennen ist. Eine schnelle initiale Exhumierung erfolgte durch den Dichteunterschied von leichtem, subduzierten Krustengestein zum dichteren Mantel. Dieser Prozess kam an der Krusten-Mantel-Grenze nahezu zum erliegen, einhergehend mit einer sekundären Aufheizung des Gesteins und wurde, jedoch weit weniger schnell, durch die Kollision der beiden Kontinente Eurasien und Indien und dadurch bedingte Überschiebungen, Faltungen und gravitative Abschiebungen fortgesetzt, die Gesteine zur Oberfläche transportiert und dort freigelegt. Eine erosions- und damit klimabedingte Beschleunigung oder gar gänzlich davon abhängige kontinuierliche Exhumation konnte in dieser Region des Himalajas nicht bestätigt werden. Vielmehr belegen die Daten eine mehrstufige Exhumation wie sie auch im Tso Morari Gebiet (NW Indien) angenommen wird, für weitere Ultrahochdruckareale wie, z. B. das Kokchetav Massif (Kasachstan), den Dabie Shan (China) oder den europäischen Varisziden (z. B. Böhmisches Massiv) jedoch noch geklärt werden muss, um generell gültige Mantel- und Krustenprozesse abzuleiten. KW - Himalaja (Kaghan) KW - Eklogite KW - Druck-Temperatur Bedingungen KW - (Alters-) Datierungen KW - Exhumationsraten KW - Himalaya (Kaghan Valley) KW - eclogite (UHP) KW - multi-stage exhumation KW - exhumation rates KW - geochronology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43138 ER - TY - THES A1 - Wilhelm, Susann T1 - Climate induced impacts on lake functioning in summer T1 - Auswirkungen des Klimawandels auf Seen im Sommer N2 - Es gibt bereits viele Hinweise dafür, dass Seen sehr sensibel auf die anthropogen verursachte Klimaerwärmung reagiert haben. Bis jetzt haben sich die Studien der Klimafolgenforschung hauptsächlichst auf die Auswirkungen der Erwärmung im Winter und Frühling konzentriert. Über den Einfluss der Klimaerwärmung auf Seen in den gemäßigten Breiten im Sommer ist weniger bekannt. In der vorliegenden Doktorarbeit habe ich einige Faktoren, welche die Reaktion von Seen auf die Erwärmung im Sommer vermutlich stark mitbestimmt haben, untersucht. Der Schwerpunkt lag dabei auf klimatisch induzierten Auswirkungen auf die thermische Charakteristik und die Phänologie und Abundanz des Planktons eines flachen und polymiktischen Sees (Müggelsee, Berlin). Zuerst wurde der Einfluss der Klimaerwärmung auf die Phänologie und Abundanz des Planktons in verschiedenen Jahreszeiten untersucht. Das schnellwachsende Phyto- und Zooplankton (Daphnia) im Frühjahr hat sich vorwiegend synchron vorverschoben, wohingegen Veränderungen des Sommerzooplanktons deutlich artspezifisch und nicht synchron waren. Die Phänologie oder Abundanz einiger Sommercopepoden hat sich entsprechend der individuellen thermischen Anforderungen innerhalb bestimmter Entwicklungsstufen, wie zum Beispiel der Emergenz von der Diapause im Frühling, verändert. Die Studie unterstreicht, dass nicht nur der Grad der Erwärmung, sondern auch dessen Zeitpunkt innerhalb des Jahres von großer ökologischer Bedeutung ist. Um die Auswirkungen des Klimawandels auf die thermischen Eigenschaften des Sees zu erforschen, habe ich die Langzeitentwicklung der täglichen epilimnischen Temperaturextrema während des Sommers untersucht. Durch diese Studie wurde zum ersten Mal für Seen gezeigt, dass die täglichen epilimnischen Minima (Nacht) stärker angestiegen sind als die Maxima (Tag), wodurch sich der tägliche epilimnische Temperaturbereich deutlich verringert hat. Diese Tag-Nacht-Asymmetrie in der epilimnischen Temperatur wurde durch eine erhöhte Emission von Langwellenstrahlung aus der Atmosphäre während der Nacht verursacht. Dies unterstreicht, dass nicht nur Erhöhungen der Lufttemperatur, sondern auch Änderungen anderer meteorologischer Variablen wie der Windgeschwindigkeit, der Luftfeuchte und der Bewölkung eine wichtige Rolle bei der Bestimmung der Seetemperatur im Hinblick auf weitere Klimaveränderungen spielen werden. Zudem wurde eine Kurzzeitanalyse zum Schichtungsverhalten des polymiktischen Sees durchgeführt, um die Häufigkeit und Dauer von Schichtungsereignissen und deren Einfluss auf den gelösten Sauerstoff, die gelösten Nährstoffe und das Phytoplankton zu untersuchen. Selbst während der längsten Schichtungsereignisse (Hitzewellen 2003 und 2006) unterschieden sich die Auswirkungen auf den See von denen, welche in flachen dimiktischen Seen während der kontinuierlichen Sommerschichtung auftreten. Die hypolimnische Temperatur war höher, was die Sauerstoffzehrung und die Akkumulation von gelösten Nährstoffen begünstigt hat. Die thermische Schichtung wird in Zukunft sehr wahrscheinlich zunehmen. Dies lässt darauf schließen, dass polymiktische Seen sehr anfällig gegenüber Änderungen im Hinblick auf projizierte Klimaveränderungen sein werden. Abschließend wurde eine Studie über Lang- und Kurzzeitveränderungen in der Entwicklung der planktischen Larven der Muschel Dreissena polymorpha durchgeführt, um den Einfluss der Veränderungen im thermischen und trophischen Regime des Sees zu analysieren. Die Klimaerwärmung und die Verringerung in der externen Nährstofffracht haben die Abundanz der Larven stark beeinflusst indem sie jeweils auf bestimmte Entwicklungsphasen dieser Art während der warmen Jahreszeiten gewirkt haben. Der Anstieg in der Abundanz und der Länge der Larven stand im Zusammenhang mit dem Rückgang der Nährstofffracht und der Veränderung der Phytoplanktonzusammensetzung. Die Hitzewellen in den Jahren 2003 und 2006 haben diesen positiven Effekt auf die Larvenabundanz jedoch durch ungünstige Sauerstoffkonzentrationen während der sehr langen Schichtung aufgehoben. Die Klimaerwärmung kann demzufolge entgegenwirkende Effekte in produktiven flachen Seen, in welchen die externe Nährstofffracht reduziert wurde, auslösen. Aus diesen Ergebnissen schließe ich, dass nicht nur die Art des Klimawandels und damit der Zeitpunkt der Erwärmung und das Auftreten von Extremen wie Hitzewellen, sondern auch standortspezifische Bedingungen wie Schichtungsverhalten und Trophiegrad entscheidende Faktoren sind, welche die Auswirkungen der Klimaerwärmung auf interne Seeprozesse im Sommer bestimmen. Somit sollte sich die weiterführende Klimafolgenforschung für Seen darauf konzentrieren, wie verschiedene Seetypen auf die komplexen Umweltveränderungen im Sommer reagieren, damit ein umfassenderes Verständnis über den Einfluss von anthropogen verursachten Veränderungen auf Seen der gemäßigten Breiten erreicht wird. N2 - There is already strong evidence that temperate lakes have been highly vulnerable to human induced climate warming during the last century. Hitherto climate impact studies have mainly focussed on the impacts of the recent long-term warming in winter and spring and little is known on the influence of climate warming on temperate lakes in summer. In the present thesis, I studied some aspects, which may have been strongly involved in determining the response of a lake to climate warming in summer. Thereby I have focussed on climate induced impacts on the thermal characteristics and the phenology and abundance of summer plankton in a shallow polymictic lake (Müggelsee, Germany). First, the influence of climate warming on the phenology and abundance of the lake plankton was investigated across seasons. Fast-growing spring phytoplankton and zooplankton (Daphnia) advanced largely synchronously, whereas long-term changes in the phenology of slow-growing summer zooplankton were clearly species-specific and not synchronised. The phenology and/or abundance of several summer copepod species changed according to their individual thermal requirements at decisive developmental stages such as emergence from diapause in spring. The study emphasises that not only the degree of warming, but also its timing within the annual cycle is of great ecological importance. To analyse the impact of climate change on the thermal characteristics of the lake, I examined the long-term development of the daily epilimnetic temperature extrema during summer. The study demonstrated for the first time for lakes that the daily epilimnetic minima (during nighttime) have increased more rapidly than the daily epilimnetic maxima (during daytime), resulting in a distinct decrease in the daily epilimnetic temperature range. This day-night asymmetry in epilimnetic temperature was likely caused by an increased nighttime emission of long-wave radiation from the atmosphere. This underlines that not only increases in air temperature, but also changes in other meteorological variables such as wind speed, relative humidity and cloud cover may play an important role in determining the lake temperature with respect to further climate change. Furthermore, a short-term analysis on the mixing regime of the polymictic lake was conducted to examine the frequency and duration of stratification events and their impacts on dissolved oxygen, dissolved nutrients and summer phytoplankton. Even during the longest stratification events (heatwaves in 2003 and 2006) the thermal characteristics of the lake differed from those typically found in shallow dimictic lakes, which exhibit a continuous stratification during summer. Particularly, hypolimnetic temperatures were higher, favouring the depletion of oxygen and the accumulation of dissolved nutrient in the hypolimnion. Thermal stratification will be very likely amplified in the future, thus, I conclude that polymictic lakes will be very vulnerable to alterations in the thermal regime with respect to projections of further climate change during summer. Finally, a long-term case study on the long and short-term changes in the development of the planktonic larvae of the freshwater mussel Dreissena polymorpha was performed to analyse the impacts of simultaneous changes in the thermal and in the trophic regime of the lake. Both the climate warming and the decrease in external nutrient load were important in determining the abundance of the pelagic larvae by affecting different features of the life-history of this species throughout the warm season. The long-term increase in the abundance and length of larvae was related to the decrease in external nutrient loading and the change in phytoplankton composition. However, the recent heatwaves in 2003 and 2006 have offset this positive effect on larval abundance, due to unfavourable low oxygen concentrations that had resulted from extremely long stratification events, mimicking the effects of nutrient enrichment. Climate warming may thus induce counteracting effects in productive shallow lakes that underwent lake restoration through a decrease in external nutrient loading. I conclude that not only the nature of climate change and thus the timing of climate warming throughout the seasons and the occurrence of climatic extremes as heatwaves, but also site-specific lake conditions as the thermal mixing regime and the trophic state are crucial factors governing the impacts of climate warming on internal lake processes during summer. Consequently, further climate impact research on lake functioning should focus on how the different lake types respond to the complex environmental forcing in summer, to allow for a comprehensive understanding of human induced environmental changes in lakes. KW - Klimawandel KW - Gewässerökologie KW - Seen KW - Climate change KW - freshwater ecology KW - lakes Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14599 ER - TY - THES A1 - Wilhelm, Alina T1 - Stochastic re-acceleration of particles in supernova remnants T1 - Stochastische Nachbeschleunigung von Teilchen in Supernovaüberresten N2 - Supernova remnants (SNRs) are discussed as the most promising sources of galactic cosmic rays (CR). The diffusive shock acceleration (DSA) theory predicts particle spectra in a rough agreement with observations. Upon closer inspection, however, the photon spectra of observed SNRs indicate that the particle spectra produced at SNRs shocks deviate from the standard expectation. This work suggests a viable explanation for a softening of the particle spectra in SNRs. The basic idea is the re-acceleration of particles in the turbulent region immediately downstream of the shock. This thesis shows that at the re-acceleration of particles by the fast-mode waves in the downstream region can be efficient enough to impact particle spectra over several decades in energy. To demonstrate this, a generic SNR model is presented, where the evolution of particles is described by the reduced transport equation for CR. It is shown that the resulting particle and the corresponding synchrotron spectra are significantly softer compared to the standard case. Next, this work outlines RATPaC, a code developed to model particle acceleration and corresponding photon emissions in SNRs. RATPaC solves the particle transport equation in test-particle mode using hydrodynamic simulations of the SNR plasma flow. The background magnetic field can be either computed from the induction equation or follows analytic profiles. This work presents an extended version of RATPaC that accounts for stochastic re-acceleration by fast-mode waves that provide diffusion of particles in momentum space. This version is then applied to model the young historical SNR Tycho. According to radio observations, Tycho’s SNR features the radio spectral index of approximately −0.65. In previous modeling approaches, this fact has been attributed to the strongly distinctive Alfvénic drift, which is assumed to operate in the shock vicinity. In this work, the problems and inconsistencies of this scenario are discussed. Instead, stochastic re-acceleration of electrons in the immediate downstream region of Tycho’s SNR is suggested as a cause for the soft radio spectrum. Furthermore, this work investigates two different scenarios for magnetic-field distributions inside Tycho’s SNR. It is concluded that magnetic-field damping is needed to account for the observed filaments in the radio range. Two models are presented for Tycho’s SNR, both of them feature strong hadronic contribution. Thus, a purely leptonic model is considered as very unlikely. Additionally, to the detailed modeling of Tycho’s SNR, this dissertation presents a relatively simple one-zone model for the young SNR Cassiopeia A and an interpretation for the recently analyzed VERITAS and Fermi-LAT data. It shows that the γ-ray emission of Cassiopeia A cannot be explained without a hadronic contribution and that the remnant accelerates protons up to TeV energies. Thus, Cassiopeia A is found to be unlikely a PeVatron. N2 - Supernovaüberreste werden als meistversprechende Quellen für die galaktische kosmische Strahlung angesehen. Die Theorie der diffusen Schockbeschleunigung prognostiziert ein Teilchenspektrum, das grob mit den Beobachtungen übereinstimmt. Dennoch weisen die Emissionsspektren von mehreren Supernovaüberresten bei näherer Betrachtung darauf hin, dass die an der Schockwelle erzeugten Teilchenspektren von der üblichen Erwartung abweichen. Im Rahmen dieser Dissertation wird eine tragfähige Erklärung für die weicheren Teilchenspektren in Supernovaüberresten vorgestellt. Die Grundidee ist dabei eine Nachbeschleunigung von Teilchen in einem turbulenten Bereich stromabwärts unmittelbar hinter der Stoßfront. Die vorliegende Arbeit demonstriert, dass die Nachbeschleunigung von Teilchen mittels der schnellen magnetoakustischen Wellen direkt hinter dem Shock das Teilchenspektrum signifikant beeinflussen kann. Um dies zu zeigen, wird ein generisches Modell für Supernovaüberreste benutzt, bei dem die Zeitentwicklung der Teilchen durch die reduzierte Transportgleichung der kosmischen Strahlung beschrieben wird. Es zeigt sich, dass die resultierenden Teilchen- sowie dazugehörigen Synchrotronspektren im Vergleich zum Standardfall deutlich weicher sind. Als Nächstes beschreibt diese Dissertation einen Code namens RATPaC, der zur Modellierung der Teilchenbeschleunigung und entsprechenden Photonenemissionen in Supernovaüberresten entwickelt wurde. RATPaC löst die Transportgleichung der kosmischen Strahlung im Test-Teilchen-Regime unter Verwendung hydrodynamischer Simulationen für den Plasmastrom eines Supernovaüberrestes. Das Magnetfeld kann entweder mithilfe der Induktionsgleichung berechnet werden oder folgt einer analytischen Verteilung. Diese Arbeit präsentiert eine erweiterte Version von RATPaC, die unter anderem die stochastische Nachbeschleunigung mittels der schnellen magnetoakustischen Wellen und damit die Teilchendiffusion im Impulsraum enthält. Diese Version wird angewendet, um den jungen historischen Supernovaüberrest Tycho zu modellieren. Gemäß den Beobachtungen im Radiobereich weist Tycho einen spektralen Index von ungefähr -0.65 auf. In den früheren Modellierungsansätzen wurde diese Tatsache dem stark ausgeprägten Alfvénischen Drift in der Schockumgebung zugeschrieben. Im Rahmen dieser Arbeit werden Probleme und Inkonsistenzen dieses Szenarios erläutert und diskutiert. Die Nachbeschleunigung von Elektronen unmittelbar stromabwärts hinter dem Schock wird stattdessen als mögliche Ursache für das weiche Photonenspektrum im Radiobereich vorgeschlagen. Darüber hinaus werden in dieser Dissertation zwei unterschiedliche Szenarien für die Magnetfeldverteilung in Tychos Supernovaüberrest untersucht. Es wird festgestellt, dass die Dämpfung des Magnetfeldes erforderlich ist, um die beobachteten Filamente im Radiobereich zu erklären. Insgesamt werden zwei Modelle für Tychos Supernovaüberrest vorgestellt, die beide einen ausgeprägten hadronischen Beitrag aufweisen. Daraus wird festgestellt, dass ein rein leptonishes Model äußerst unwahrscheinlich ist. Zusätzlich zur detaillierten Modellierung von Tycho präsentiert diese Dissertation ein relativ einfaches Ein-Zonen-Modell für den jungen Supernovaüberrest Cassiopeia A und eine Interpretation für seine vor Kurzem analysierten VERITAS- und Fermi-LAT-Daten. Im Rahmen dieser Arbeit wird gezeigt, dass die -Strahlung von Cassiopeia A ohne einen hadronischen Beitrag nicht erklärt werden kann. Der Überrest soll dabei Protonen bis auf TeV-Energielevel beschleunigen. Somit ist es sehr unwahrscheinlich, dass es sich bei Cassiopeia A um ein PeVatron handelt. KW - supernova remnants KW - particle acceleration KW - Cassiopeia A KW - SN 1572 KW - cosmic rays KW - Supernovaüberreste KW - kosmische Strahlung KW - Teilchenbeschleunigung KW - Cassiopeia A KW - SN 1572 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512915 ER - TY - THES A1 - Wijesingha Ahchige, Micha T1 - Canalization of plant metabolism and yield T1 - Kanalisierung des Pflanzenmetabolismus und -ertrags N2 - Plant metabolism is the main process of converting assimilated carbon to different crucial compounds for plant growth and therefore crop yield, which makes it an important research topic. Although major advances in understanding genetic principles contributing to metabolism and yield have been made, little is known about the genetics responsible for trait variation or canalization although the concepts have been known for a long time. In light of a growing global population and progressing climate change, understanding canalization of metabolism and yield seems ever-more important to ensure food security. Our group has recently found canalization metabolite quantitative trait loci (cmQTL) for tomato fruit metabolism, showing that the concept of canalization applies on metabolism. In this work two approaches to investigate plant metabolic canalization and one approach to investigate yield canalization are presented. In the first project, primary and secondary metabolic data from Arabidopsis thaliana and Phaseolus vulgaris leaf material, obtained from plants grown under different conditions was used to calculate cross-environment coefficient of variations or fold-changes of metabolite levels per genotype and used as input for genome wide association studies. While primary metabolites have lower CV across conditions and show few and mostly weak associations to genomic regions, secondary metabolites have higher CV and show more, strong metabolite to genome associations. As candidate genes, both potential regulatory genes as well as metabolic genes, can be found, albeit most metabolic genes are rarely directly related to the target metabolites, suggesting a role for both potential regulatory mechanisms as well as metabolic network structure for canalization of metabolism. In the second project, candidate genes of the Solanum lycopersicum cmQTL mapping are selected and CRISPR/Cas9-mediated gene-edited tomato lines are created, to validate the genes role in canalization of metabolism. Obtained mutants appeared to either have strong aberrant developmental phenotypes or appear wild type-like. One phenotypically inconspicuous mutant of a pantothenate kinase, selected as candidate for malic acid canalization shows a significant increase of CV across different watering conditions. Another such mutant of a protein putatively involved in amino acid transport, selected as candidate for phenylalanine canalization shows a similar tendency to increased CV without statistical significance. This potential role of two genes involved in metabolism supports the hypothesis of structural relevance of metabolism for its own stability. In the third project, a mutant for a putative disulfide isomerase, important for thylakoid biogenesis, is characterized by a multi-omics approach. The mutant was characterized previously in a yield stability screening and showed a variegated leaf phenotype, ranging from green leaves with wild type levels of chlorophyll over differently patterned variegated to completely white leaves almost completely devoid of photosynthetic pigments. White mutant leaves show wild type transcript levels of photosystem assembly factors, with the exception of ELIP and DEG orthologs indicating a stagnation at an etioplast to chloroplast transition state. Green mutant leaves show an upregulation of these assembly factors, possibly acting as overcompensation for partially defective disulfide isomerase, which seems sufficient for proper chloroplast development as confirmed by a wild type-like proteome. Likely as a result of this phenotype, a general stress response, a shift to a sink-like tissue and abnormal thylakoid membranes, strongly alter the metabolic profile of white mutant leaves. As the severity and pattern of variegation varies from plant to plant and may be effected by external factors, the effect on yield instability, may be a cause of a decanalized ability to fully exploit the whole leaf surface area for photosynthetic activity. N2 - Der pflanzliche Stoffwechsel ist der Hauptprozess, der assimilierten Kohlenstoff in unterschiedliche Stoffe umwandelt, die wichtig für das Pflanzenwachstum und somit den Ertrag sind, weswegen es ein wichtiges Forschungsthema ist. Obwohl große Fortschritte beim Verständnis der genetischen Prinzipien, die zum Stoffwechsel und Ertrag beitragen, gemacht wurden, ist noch relativ wenig über die genetischen Prinzipien bekannt, die für die Variation oder Kanalisierung von Eigenschaften verantwortlich sind, obwohl diese Konzepte schon lange bekannt sind. In Anbetracht einer wachsenden Weltbevölkerung und des fortschreitenden Klimawandels, scheint es immer wichtiger zu sein, Kanalisierung von Metabolismus und Ertrag zu verstehen, um Ernährungssicherheit zu garantieren. Unsere Gruppe hat kürzlich metabolisch kanalisierte quantitative Merkmalsregionen für den Stoffwechsel von Tomatenfrüchten gefunden und damit gezeigt, dass sich das Konzept der Kanalisierung sich auf den Stoffwechsel anwenden lässt. In dieser Arbeit werden zwei Ansätze zu Untersuchung von Kanalisierung des pflanzlichen Stoffwechsels und ein Ansatz zur Untersuchung von Ertragskanalisierung präsentiert. Im ersten Projekt, wurden Daten von Primär- und Sekundärmetaboliten von Arabidopsis thaliana und Phaseolus vulgaris, gewonnen von Pflanzen, die unter unterschiedlichen Bedingungen wuchsen, verwendet, um den Variationskoeffizient (VarK) oder die relative Änderung von Stoffgehalten umweltübergreifend für jeden Genotyp zu berechnen und als Eingabe für genomweite Assoziationsstudien verwendet. Während Primärmetabolite über unterschiedliche Umweltbedingungen einen geringeren VarK haben und nur wenige eher schwache Assoziationen zu genomischen Regionen zeigen, haben Sekundärstoffe einen höheren VarK und zeigen mehr und stärkere Assoziationen zwischen Metabolit und Genom. Als Kandidatengene können sowohl potenziell regulatorische, als auch metabolische Gene gefunden werden, jedoch sind metabolische Gene selten direkt zu den Zielmetaboliten verbunden, was für eine Rolle von sowohl regulatorischen Mechanismen als auch metabolischer Netzwerkstruktur für die Kanalisierung des Stoffwechsels spricht. Im zweiten Projekt wurden Kandidatengene aus der Solanum lycopersicum cmQTL-Kartierung, ausgewählt und CRISPR/Cas9-vermittelte, genomeditierte Tomatenlinien erschaffen, um die Rolle dieser Gene in der Kanalisierung des Metabolismus zu validieren. Erhaltene Mutanten zeigten entweder starke Fehlentwicklungsphänotypen oder erschienen wildtypähnlich. Eine phänotypisch unauffällige Mutante einer Pantothensäurekinase, die als Kandidat für die Kanalisierung von Apfelsäure gewählt wurde, zeigte einen signifikanten Anstieg des VarK über unterschiedliche Bewässerungsbedingungen. Eine andere solche Mutante eines Proteins, welches mutmaßlich im Aminosäuretransport involviert ist, welches als Kandidat für die Kanalisierung von Phenylalanin gewählt wurde, zeigt eine ähnliche Tendenz zu einem erhöhten VarK ohne statistische Signifikanz. Diese potenzielle Rolle von zwei Genen, die im Stoffwechsel involviert sind, unterstützt die Hypothese einer strukturellen Relevanz des Metabolismus für seine eigene Stabilität. Im dritten Projekt wurde eine Mutante einer mutmaßlichen Disulfid-Isomerase, welche wichtig für die Thylakoidbiogenese ist, durch einen Multiomik Ansatz charakterisiert. Die Mutante wurde vorher in einer Ertragsstabilitäts-Selektierung charakterisiert und zeigte einen panaschierten Blattphänotyp, welcher von grünen Blättern mit Wildtyp Chlorophyllgehalt über unterschiedlich gemustert panaschierte Blätter bis zu komplett weißen Blätter reichte, die fast gar keine photosynthetischen Pigmente enthielten. Weiße Blätter der Mutante zeigen Wildtyp Transkriptlevel von Photosystem-Aufbaufaktoren, mit der Ausnahme von ELIP und DEG Orthologen, was indikativ für eine Stagnation in einer Etioplast-zu-Chloroplast-Übergangsphase ist. Grüne Blätter der Mutante zeigen eine Hochregulierung dieser Aufbaufaktoren, was möglicherweise als Überkompensation für eine partiell defekte Disulfid-Isomerase wirkt und letztlich ausreichend für Chloroplastenentwicklung zu sein scheint, was wiederum durch ein wildtyp-ähnliches Proteom bestätigt wird. Wahrscheinlich als Effekt dieses Phänotyps ändern, eine generelle Stressantwort, eine Umschaltung zu einem Senke-ähnlichen Gewebe und abnormale Thylakoidmembranen, stark das metabolische Profil von weißen Blättern der Mutante. Da der Schweregrad und das Muster der Panaschierung von Pflanze zu Pflanze unterschiedlich ist und durch äußere Faktoren beeinflusst sein könnte, könnte der Effekt auf die Ertragsstabilität eine Folge einer dekanalisierten Fähigkeit sein die ganze Blattoberfläche für photosynthetische Aktivität zu nutzen. KW - canalization KW - phenotypic variation KW - metabolism KW - CRISPR/Cas9 KW - GWAS KW - CRISPR/Cas9 KW - GWAS KW - Kanalisierung KW - Metabolismus KW - phänotypische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548844 ER - TY - THES A1 - Wierzba, Marta T1 - Revisiting prosodic reconstruction T1 - Prosodische Rekonstruktion neu betrachtet BT - an interface-based approach to partial focus and topic fronting in German BT - eine schnittstellenbasierte Analyse partieller Fokus- und Topikvoranstellung im Deutschen N2 - In this thesis, I develop a theoretical implementation of prosodic reconstruction and apply it to the empirical domain of German sentences in which part of a focus or contrastive topic is fronted. Prosodic reconstruction refers to the idea that sentences involving syntactic movement show prosodic parallels with corresponding simpler structures without movement. I propose to model this recurrent observation by ordering syntax-prosody mapping before copy deletion. In order to account for the partial fronting data, the idea is extended to the mapping between prosody and information structure. This assumption helps to explain why object-initial sentences containing a broad focus or broad contrastive topic show similar prosodic and interpretative restrictions as sentences with canonical word order. The empirical adequacy of the model is tested against a set of gradient acceptability judgments. N2 - In dieser Dissertation wird ein theoretisches Modell prosodischer Rekonstruktion entwickelt und auf den empirischen Bereich deutscher Sätze mit teilweiser Voranstellung eines Fokus oder eines kontrastiven Topiks angewendet. Mit prosodischer Rekonstruktion ist die Idee gemeint, dass Sätze, die syntaktische Bewegung enthalten, prosodische Parallelen mit einfacheren Konstruktionen ohne Bewegung aufweisen. Es wird vorgeschlagen, diese Beobachtung dadurch zu modellieren, dass die Abbildungsoperation zwischen Syntax und Prosodie der Löschung von Kopien vorangeht. Auf diese Weise ist die Ausgangsposition bewegter Konstituenten noch zugänglich, wenn die prosodische Struktur bestimmt wird, und kann somit die Akzentverteilung beeinflussen. Um die Daten zu partieller Voranstellung mitzuerfassen, wird das Modell auf die Abbildung zwischen Prosodie und Informationsstruktur ausgeweitet. Diese Annahme trägt dazu bei zu erklären, wieso objektinitiale Sätze, die einen weiten Fokus oder ein weites kontrastives Topik enthalten, ähnliche prosodische und interpretative Beschränkungen aufweisen wie Sätze mit kanonischer Wortfolge. Die empirische Adäquatheit des Modells wird anhand eines neuen Datensatzes gradienter Akzeptabilitätsurteile getestet. KW - prosody KW - syntax KW - interface KW - focus KW - contrastive topic KW - Prosodie KW - Syntax KW - Schnittstelle KW - Fokus KW - kontrastives Topik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403152 ER - TY - THES A1 - Wieland, Volkmar T1 - Particle-in-cell simulations of perpendicular supernova shock fronts T1 - Particle-in-Cell Simulationen von senkrechten Supernova Schock-Fronten N2 - The origin of cosmic rays was the subject of several studies for over a century. The investigations done within this dissertation are one small step to shed some more light on this mystery. Locating the sources of cosmic rays is not trivial due to the interstellar magnetic field. However, the Hillas criterion allows us to arrive at the conclusion that supernova remnants are our main suspect for the origin of galactic cosmic rays. The mechanism by which they are accelerating particles is found within the field of shock physics as diffusive shock acceleration. To allow particles to enter this process also known as Fermi acceleration pre-acceleration processes like shock surfing acceleration and shock drift acceleration are necessary. Investigating the processes happening in the plasma shocks of supernova remnants is possible by utilising a simplified model which can be simulated on a computer using Particle-in-Cell simulations. We developed a new and clean setup to simulate the formation of a double shock, i.e., consisting of a forward and a reverse shock and a contact discontinuity, by the collision of two counter-streaming plasmas, in which a magnetic field can be woven into. In a previous work, we investigated the processes at unmagnetised and at magnetised parallel shocks, whereas in the current work, we move our investigation on to magnetised perpendicular shocks. Due to a much stronger confinement of the particles to the collision region the perpendicular shock develops much faster than the parallel shock. On the other hand, this leads to much weaker turbulence. We are able to find indications for shock surfing acceleration and shock drift acceleration happening at the two shocks leading to populations of pre-accelerated particles that are suitable as a seed population to be injected into further diffusive shock acceleration to be accelerated to even higher energies. We observe the development of filamentary structures in the shock ramp of the forward shock, but not at the reverse shock. This leads to the conclusion that the development of such structures in the shock ramp of quasi-perpendicular collisionless shocks might not necessarily be determined by the existence of a critical sonic Mach number but by a critical shock speed. The results of the investigations done within this dissertation might be useful for further studies of oblique shocks and for studies using hybrid or magnetohydrodynamic simulations. Together with more sophisticated observational methods, these studies will help to bring us closer to an answer as to how particles can be accelerated in supernova remnants and eventually become cosmic rays that can be detected on Earth. N2 - Der Ursprung der kosmischen Strahlung war seit über einem Jahrhundert Gegenstand von zahlreichen Untersuchungen. Die Untersuchungen, welche innerhalb dieser Dissertation gemacht wurden, sind ein kleiner Schritt dazu etwas mehr Licht auf dieses Geheimnis zu werfen. Die Quellen der kosmischen Strahlung herauszufinden stellt sich aufgrund des interstellaren Magnetfeldes als nicht trivial heraus. Jedoch erlaubt uns das Hillas-Kriterium die Schlussfolgerung, dass Supernovaüberreste unsere Hauptverdächtigen für den Ursprung der galaktischen kosmischen Strahlung sind. Der Mechanismus, durch welchen sie Teilchen beschleunigen, kann im Gebiet der Schock-Physik in Form der diffusen Schockbeschleunigung gefunden werden. Um den Teilchen zu ermöglichen an diesem Prozess, der auch als Fermi-Beschleunigung bekannt ist, teilzunehmen, sind Vorbeschleunigungsprozesse wie die Schock-Surfing-Beschleunigung und die Schock-Drift-Beschleunigung nötig. Die Untersuchung der Prozesse in Plasma-Schocks ist durch die Verwendung eines vereinfachten Modells möglich, welches sich mit Hilfe von Particle-in-Cell Simulationen auf einem Computer simulieren lässt. Wir haben einen neuen und sauberen Setup entwickelt um die Entstehung eines Doppelschocks, bestehend aus einem vorwärts und einem rückwärts gerichtet Schock und einer Kontakt-Diskontinuität, durch die Kollision zweier gegeneinander strömender Plasmen, in welche ein Magnetfeld eingelagert werden kann, zu simulieren. In einer vorhergehenden Arbeit haben wir bereits die Prozesse an unmagnetisierten und an magnetisierten parallelen Schocks untersucht, weshalb wir in der vorliegenden Arbeit zu der Untersuchung magnetisierter senkrechter Schocks weiter gegangen sind. Aufgrund eines sehr viel stärkeren Einfangens der Teilchen in der Kollisionsregion, entwickelt sich der senkrechte Schock sehr viel schneller als der parallele Schock. Andererseits führt dies zu einer viel schwächeren Turbulenz. Wir finden Anzeichen für Schock-Surfing-Beschleunigung und Schock-Drift-Beschleunigung in beiden Schocks, welche Populationen von vorbeschleunigten Teilchen erzeugen, die wiederum als Ausgangspopulation für die Injektion in die diffusive Schock-Beschleunigung geeignet sind um zu noch höheren Energien beschleunigt zu werden. Wir beobachten die Entwicklung von Filamentstrukturen in der Schockrampe des vorwärts gerichteten Schocks, jedoch nicht im rückwärts gerichtet Schock. Dies führt zu der Schlussfolgerung, dass die Entwicklung dieser Strukturen in der Schockrampe von quasi-senkrechten kollisionsfreien Schocks nicht notwendigerweise durch die Existenz einer kritischen sonischen Machzahl bestimmt ist, sondern durch eine kritische Schock-Geschwindigkeit. Die Ergebnisse der Untersuchungen in dieser Dissertation können sich für weiterführende Untersuchungen von schrägen Schocks und für Untersuchungen mit Hilfe von hybriden oder magnetohydrodynamischen Simulationen als nützlich erweisen. Zusammen mit ausgefeilteren Beobachtungsmethoden helfen uns diese Untersuchungen dabei näher an eine Antwort auf die Frage zu kommen, wie Teilchen in Supernovaüberresten beschleunigt werden können um schließlich als kosmische Strahlung auf der Erde detektiert werden zu können. KW - cosmic rays KW - kosmische Strahlung KW - supernova remnants KW - Supernovaüberreste KW - particle-in-cell simulations Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74532 ER - TY - THES A1 - Widdrat, Marc T1 - Formation and alteration of magnetite nanoparticles N2 - Magnetite is an iron oxide, which is ubiquitous in rocks and is usually deposited as small nanoparticulate matter among other rock material. It differs from most other iron oxides because it contains divalent and trivalent iron. Consequently, it has a special crystal structure and unique magnetic properties. These properties are used for paleoclimatic reconstructions where naturally occurring magnetite helps understanding former geological ages. Further on, magnetic properties are used in bio- and nanotechnological applications –synthetic magnetite serves as a contrast agent in MRI, is exploited in biosensing, hyperthermia or is used in storage media. Magnetic properties are strongly size-dependent and achieving size control under preferably mild synthesis conditions is of interest in order to obtain particles with required properties. By using a custom-made setup, it was possible to synthesize stable single domain magnetite nanoparticles with the co-precipitation method. Furthermore, it was shown that magnetite formation is temperature-dependent, resulting in larger particles at higher temperatures. However, mechanistic approaches about the details are incomplete. Formation of magnetite from solution was shown to occur from nanoparticulate matter rather than solvated ions. The theoretical framework of such processes has only started to be described, partly due to the lack of kinetic or thermodynamic data. Synthesis of magnetite nanoparticles at different temperatures was performed and the Arrhenius plot was used determine an activation energy for crystal growth of 28.4 kJ mol-1, which led to the conclusion that nanoparticle diffusion is the rate-determining step. Furthermore, a study of the alteration of magnetite particles of different sizes as a function of their storage conditions is presented. The magnetic properties depend not only on particle size but also depend on the structure of the oxide, because magnetite oxidizes to maghemite under environmental conditions. The dynamics of this process have not been well described. Smaller nanoparticles are shown to oxidize more rapidly than larger ones and the lower the storage temperature, the lower the measured oxidation. In addition, the magnetic properties of the altered particles are not decreased dramatically, thus suggesting that this alteration will not impact the use of such nanoparticles as medical carriers. Finally, the effect of biological additives on magnetite formation was investigated. Magnetotactic bacteria¬¬ are able to synthesize and align magnetite nanoparticles of well-defined size and morphology due to the involvement of special proteins with specific binding properties. Based on this model of morphology control, phage display experiments were performed to determine peptide sequences that preferably bind to (111)-magnetite faces. The aim was to control the shape of magnetite nanoparticles during the formation. Magnetotactic bacteria are also able to control the intracellular redox potential with proteins called magnetochromes. MamP is such a protein and its oxidizing nature was studied in vitro via biomimetic magnetite formation experiments based on ferrous ions. Magnetite and further trivalent oxides were found. This work helps understanding basic mechanisms of magnetite formation and gives insight into non-classical crystal growth. In addition, it is shown that alteration of magnetite nanoparticles is mainly based on oxidation to maghemite and does not significantly influence the magnetic properties. Finally, biomimetic experiments help understanding the role of MamP within the bacteria and furthermore, a first step was performed to achieve morphology control in magnetite formation via co-precipitation. N2 - Magnetit ist ein Eisenoxid, welches ein häufiger Bestandteil in Mineralen ist und normalerweise als nm-großen Teilchen unter anderem Gesteinsmaterial verteilt ist. Es unterscheidet sich in seiner Zusammensetzung von den meisten anderen Eisenoxiden, da es sowohl divalente als auch trivalente Eisenoxide enthält. Die Folge ist eine besondere Kristallstruktur und somit einzigartige magnetische Eigenschaften. Diese Eigenschaften werden bei paläoklimatologischen Rekonstruktionen genutzt, bei denen natürlich vorkommender Magnetit hilft, die Bedingungen vergangener Zeitalter zu verstehen. Weiterhin werden die magnetischen Eigenschaften in bio- und nanotechnologischen Anwendungen genutzt. Synthetischer Magnetit dient als Kontrastmittel in der MRT, in biologischen Sensorsystemen, bei Hyperthermie-Behandlungen oder als Grundlage für Datenspeichermedien. Da die magnetischen Eigenschaften im nm-Bereich stark von der Größe der Teilchen abhängen, ist eine möglichst präzise Kontrolle der Größe von enormer Bedeutung. Mit Hilfe eines maßgefertigten Syntheseaufbaus war es möglich durch Mitfällung Teilchen oberhalb des superparamagnetischen Schwellenwerts zu produzieren. Außerdem konnte eine Temperaturabhängigkeit gezeigt werden; höhere Temperaturen während der Magnetit-Bildung resultieren in größeren Teilchen. Der Prozess dahinter ist jedoch noch nicht vollständig geklärt. Die Bildung von Magnetit in wässriger Lösung erfolgt nicht über Ionen, sondern wird über die zwischenzeitliche Bildung von nm-großen Vorläufern realisiert. Unter Berücksichtigung dieser Vorläufer wurde die Bildung von Magnetit in einen neuen theoretischen Rahmen gesetzt, jedoch mangelt es bisher an kinetischen Daten. Durch die Synthese von Magnetit bei unterschiedlichen Temperaturen konnte mit Hilfe des Arrhenius-Plots eine Aktivierungsenergie für das Kristallwachstum von 28.4 kJ mol-1 ermittelt werden. Dieser Wert deutet auf einen diffusionskontrollierten Prozess hin. Auch die Alterung von Magnetit-Nanopartikeln spielt eine wichtige Rolle, da Magnetit unter Umgebungsbedingungen zu Maghämit oxidiert wird. Deshalb wird hier eine Studie zur Alterung von Magnetit-Nanopartikeln unterschiedlicher Größe unter verschiedenen Lagerungsbedingungen präsentiert. Kleine Teilchen tendieren zu stärkerer Oxidation im selben Zeitraum und weiterhin oxidieren die Teilchen weniger, je geringer die Temperatur ist. Da Magnetit und Maghämit sich in ihren magnetischen Eigenschaften nur geringfügig unterscheiden, werden diese durch den oxidativen Prozess nur geringfügig beeinflusst. Als letztes wurde der Einfluss biologischer Zusätze zur Magnetit-Bildung überprüft. Magnetotaktische Bakterien sind in der Lage, Magnetit-Nanopartikel von definierter Größe und Morphologie herzustellen, involviert sind eine Reihe von spezifischen Proteinen mit speziellen Bindungseigenschaften. Darauf basierend wurden, zur Selektion spezifischer Peptidsequenzen, Phagen-Display-Experimente an einer (111)-Magnetitoberfläche durchgeführt. Diese sollten eine Morphologie-Kontrolle während der Magnetit-Synthese ermöglichen. Magnetotaktische Bakterien sind außerdem in der Lage das intrazelluläre Redox-Potential mit Hilfe von Proteinen, den Magnetochromen, zu kontrollieren. MamP ist eines dieser Proteine und sein oxidatives Potential wurde in einer in vitro-Magnetit-Synthese überprüft. Der Einsatz von FeII ergab sowohl Magnetit als auch trivalente Eisenoxide als Produkte. Diese Arbeit ermöglicht einen Einblick in die grundlegenden Mechanismen der Magnetit-Bildung, welche unter nicht-klassischen Bedingungen abläuft. Die Alterung der Nanopartikel, welche hauptsächlich die Oxidation zu Maghämit beinhaltet, hat nur geringen Einfluss auf die magnetischen Eigenschaften. Biomimetische Experimente halfen die Rolle von MamP innerhalb der Bakterien zu verstehen und zuletzt wurde ein erster Versuch unternommen, die von den Bakterien erreichte Morphologie-Kontrolle auch in vitro zu ermöglichen. T2 - Bildung und Alterung von Magnetit-Nanopartikeln KW - crystallization of magnetite nanoparticle KW - alteration of magnetite KW - growth kinetics KW - Kristallisation von Magnetit-Nanopartikeln KW - Wachstumskinetik KW - magnetische Eigenschaften KW - Röntgenbeugung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72239 ER - TY - THES A1 - Wick, Kristin T1 - Motor and cognitive performance in kindergarten children T1 - Motorische und kognitive Leistungsfähigkeit bei Kindergartenkindern N2 - Childhood compared to adolescence and adulthood is characterized by high neuroplasticity represented by accelerated cognitive maturation and rapid cognitive developmental trajectories. Natural growth, biological maturation and permanent interaction with the physical and social environment fosters motor and cognitive development in children. Of note, the promotion of physical activity, physical fitness, and motor skill learning at an early age is mandatory first, as these aspects are essential for a healthy development and an efficient functioning in everyday life across the life span and second, physical activity behaviors and lifestyle habits tend to track from childhood into adulthood. The main objective of the present thesis was to optimize and deepen the knowledge of motor and cognitive performance in young children and to develop an effective and age-appropriate exercise program feasible for the implementation in kindergarten and preschool settings. A systematic review with meta-analysis was conducted to examine the effectiveness of fundamental movement skill and exercise interventions in healthy preschool-aged children. Further, the relation between measures of physical fitness (i.e., static balance, muscle strength, power, and coordination) and attention as one domain of cognitive performance in preschool-aged children was analyzed. Subsequently, effects of a strength-dominated kindergarten-based exercise program on physical fitness components (i.e., static balance, muscle strength, power, and coordination) and cognitive performance (i.e., attention) compared to a usual kindergarten curriculum was examined. The systematic review included trials focusing on healthy young children in kindergarten or preschool settings that applied fundamental movement skill-enhancing intervention programs of at least 4 weeks and further reported standardized motor skill outcome measures for the intervention and the control group. Children aged 4-6 years from three kindergartens participated in the cross-sectional and the longitudinal study. Product-orientated measures were conducted for the assessment of muscle strength (i.e., handgrip strength), muscle power (i.e., standing long jump), balance (i.e., timed single-leg stand), coordination (hopping on right/left leg), and attentional span (i.e., “Konzentrations-Handlungsverfahren für Vorschulkinder” [concentration-action procedure for preschoolers]). With regards to the scientific literature, exercise and fundamental movement skill interventions are an effective method to promote overall proficiency in motor skills (i.e., object control and locomotor skills) in preschool children particularly when conducted by external experts with a duration of 4 weeks to 5 months. Moreover, significant medium associations were found between the composite score of physical fitness and attention as well as between coordination separately and attention in children aged 4-6 years. A 10-weeks strength-dominated exercise program implemented in kindergarten and preschool settings by educated and trained kindergarten teachers revealed significant improvements for the standing long jump test and the Konzentrations-Handlungsverfahren of intervention children compared to children of the control group. The findings of the present thesis imply that fundamental movement skill and exercise interventions improve motor skills (i.e., locomotor and object control skills). Nonetheless, more high-quality research is needed. Additionally, physical fitness, particularly high performance in complex fitness components (i.e., coordination measured with the hopping on one leg test), tend to predict attention in preschool age. Furthermore, an exercise program including strength-dominated exercises, fundamental movement skills and elements of gymnastics has a beneficial effect on jumping performance with a concomitant trend toward improvements in attentional capacity in healthy preschool children. Finally, it is recommended to start early with the integration of muscular fitness (i.e., muscle strength, muscle power, muscular endurance) next to coordination, agility, balance, and fundamental movement skill exercises into regular physical activity curriculums in kindergarten settings. N2 - Das Kindesalter ist im Vergleich zum Jugend- und Erwachsenenalter durch eine hohe Neuroplastizität, charakterisiert, welche durch beschleunigte Reifungsprozesse und rasche kognitive Entwicklungsverläufe gekennzeichnet ist. Natürliches Wachstum, biologische Reifung und die permanente Auseinandersetzung mit der physischen und sozialen Umwelt unterstützen und fördern die motorische und kognitive Entwicklung von Kindern. Bemerkenswert ist, dass bereits ab dem frühen Kindesalter die Förderung von körperlicher Aktivität, motorischen Fähigkeiten und Fertigkeiten unablässig ist, da sie zum einen wesentliche Faktoren für eine gesunde Entwicklung sowie eine effiziente alltägliche Funktionstüchtigkeit im Lebensverlauf darstellen und zum anderen das Aktivitätsverhalten und die Lebensgewohnheiten des Kindesalters tendenziell ins Erwachsenenalter übernommen werden. Die Zielstellung der vorliegenden Arbeit war es, das Wissen über motorische und kognitive Leistungsfähigkeit im frühen Kindesalter zu vertiefen und effektive altersgerechte Bewegungsprogramme für die Umsetzung im Setting Kindertagesstätte zu entwickeln. Es wurde ein systematisches Review mit Metaanalyse erarbeitet, um die Effekte von Bewegungsprogrammen zur Verbesserung elementarer Bewegungsfertigkeiten bei gesunden Vorschulkindern zu untersuchen. Zudem wurden die Zusammenhänge zwischen motorischen Fähigkeiten (z.B. statisches Gleichgewicht, Maximalkraft, Schnellkraft und Koordination) und der Konzentration, als ein Bereich der kognitiven Leistungsfähigkeit, im Kindesalter analysiert. Anschließend wurde die Wirksamkeit eines kraft-orientierten Bewegungsprogramms gegenüber einem gewöhnlichen Kindergartencurriculums auf motorische Fähigkeiten, wie statisches Gleichgewicht, Maximalkraft, Schnellkraft und Koordination sowie auf kognitive Leistungsfähigkeit, wie die Konzentration, überprüft. Das systematische Review beinhaltete Studien mit gesunden jungen Kindern im Setting Kindertagesstätte, welche Bewegungsprogramme von mindestens 4 Wochen zur Verbesserung der elementaren Bewegungsfertigkeiten durchführten und Ergebnisse der Interventions- sowie Kontrollgruppen mithilfe standardisierter motorischer Tests berichteten. In der Querschnitts- und Längsschnittstudie nahmen Kinder im Alter von 4-6 Jahren aus drei Kindertagesstätten teil. Ergebnisorientierte motorische Messungen wurden durchgeführt, um die Maximalkraft (Handkraft), die Schnellkraft (Standweitsprung), das Gleichgewicht (Einbeinstand), die Koordination (einbeiniges Hüpfen rechts/links) und die Konzentrationsfähigkeit (Konzentrations-Handlungsverfahren für Vorschulkinder (KHV-VK)) zu erheben. Mit Bezug zur wissenschaftlichen Literatur stellen Bewegungsprogramme eine effektive Möglichkeit dar, motorische Fertigkeiten (lokomotorische sowie objektbezogene Fertigkeiten) bei Vorschulkindern zu fördern, vor allem, wenn sie von externen Experten durchgeführt werden und eine Dauer von 4 Wochen bis 5 Monaten haben. Darüber hinaus konnten signifikante Zusammenhänge zwischen motorischen Fähigkeiten und der Konzentration sowie insbesondere zwischen der Koordination allein und der Konzentration bei Kindern im Alter von 4-6 Jahren gefunden werden. Ein 10-wöchiges kraft-orientiertes Bewegungsprogramm, welches durch geschultes und qualifiziertes Kindergartenpersonal in Kindertagesstätten durchgeführt wurde, führte zudem zu signifikanten Verbesserungen im Standweitsprung und im KHV-VK bei Kindern der Interventionsgruppe im Vergleich zu Kontrollgruppe. Die Ergebnisse der vorliegenden Arbeit zeigen, dass Bewegungsprogramme motorische Fertigkeiten, wie lokomotorische und objektbezogenen Fertigkeiten, verbessern. Dennoch gibt es Bedarf an weiterführenden, methodisch gut designten und qualitativ hochwertigen Interventionsstudien. Motorische Fähigkeiten, besonders gut ausgebildete komplexe Fähigkeiten wie die Koordination (gemessen mit dem einbeinigen Hüpfen), scheinen die Konzentrationsfähigkeit im Vorschulalter zu beeinflussen. Zudem verbessert ein Trainingsprogramm mit kraft-orientierte Übungen, elementare Bewegungsfertigkeiten und turnerischen Elementen die Sprungleistung und scheint gleichzeitig einen Einfluss auf die Konzentrationsfähigkeit bei gesunden Vorschulkindern zu haben. Letztendlich empfiehlt es sich, bereits in jungen Jahren Kraftfähigkeiten, wie Maximal- und Schnellkraft und Kraftausdauer neben Koordination, Agilität, Gleichgewicht und elementaren Bewegungsfertigkeiten zu schulen und diese in regelmäßige Bewegungsstunden im Setting Kindertagesstätte zu integrieren. KW - kindergarten KW - preschool children KW - cognitive skills KW - fundamental movement skills KW - physical fitness KW - kognitive Fähigkeiten KW - elementare Bewegungsfertigkeiten KW - körperliche Fitness KW - Vorschulkinder KW - Kindergarten Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-592532 ER - TY - THES A1 - Wichura, Henry T1 - Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography T1 - Die topographische Entwicklung des Ostafrikanischen Plateaus : eine kombinierte Studie über Lavastrommodellierung und Paläotopographie N2 - The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa. N2 - Das Ostafrikanische Plateau ist ein eindrucksvolles Beispiel für aktive, kontinentale Grabenbildung, aber auch für geodynamische Hochebenenbildung mit weitreichendem klimatischen Einfluss auf die gesamte Region. Als integraler Bestandteil des Ostafrikanischen Grabensystems beläuft sich die mittlere Höhe des Plateaus auf durchschnittlich 1000 m ü.NN. Seine Lage korreliert gut mit der Präsenz einer halbkreisförmigen negativen Bouguer-Schwereanomalie, die an den Aufstieg eines Manteldiapirs im Untergrund gekoppelt ist. Dieser prägte die känozoische Krustenentwicklung seit seinem Aufstieg im Eozän-Oligozän. Die Hebungsgeschichte und topographische Entwicklung des Hochlandes steht seither in enger Beziehung zum einsetzenden Vulkanismus, der Bildung erster Abschiebungssysteme und führte schließlich zur Entwicklung des heutigen Vollgrabensystems. Neueste Hypothesen lassen den Schluss zu, dass topographische Veränderungen als dominierende Einflussgrößen atmosphärischer Zirkulationsmuster sowie der regionalen Niederschlagsverbreitung anzusehen sind. Zusätzlich werden diese Prozesse durch die äquatoriale Lage des Ostafrikanischen Plateaus verstärkt und die Hebung dieser Region oft mit wichtigen Klima- und Umweltveränderungen in Ostafrika und angrenzende Gebiete in Verbindung gebracht. Während der weitreichende klimatische Einfluss des Hochlandes größtenteils akzeptiert ist, sind Zeitpunkt und Ausmaß seiner Heraushebung nicht eindeutig bestimmt und daher noch immer Grundlage bestehender Diskussionen. Diese Zwangslage hat ihre Ursache im Fehlen aussagekräftiger und datierbarer Referenzhorizonte. Um den Hebungsbetrag zu quantifizieren und Beweise signifikanten Reliefs vor der Entwicklung des Grabensystems entlang des Ostafrikanischen Hochlandes zu erbringen, analysierte und modellierte ich einen der längsten terrestrischen Lavaströme. Dieser vor 13,5 Ma abgelagerte Yatta-Lavastrom hat mit 300 km Länge seinen Ursprung in der Region der heutigen östlichen Grabenschulter des zentralen Kenia-Rifts. Die phonolitische Lava ergoss sich entlang eines Flussbettes, das einst die östliche Flanke des Hochlandes entwässerte. Aufgrund unterschiedlicher Erosionspotentiale bildet der Lavastrom gegenwärtig ein positives Relief und befindet sich oberhalb des Athi Flusses, der parallel zum Paläofluß, und somit versetzt zu seinen früheren Verlauf, strömt. Mein Ansatz der Lavastrom-Modellierung basiert auf einer Methode, die das Fließverhalten einer beliebigen Lava in Abhängigkeit von Temperatur und Magmenzusammensetzung in einem rechtwinkligen Kanal berechnet. Die wesentlichen Wachstumsmuster des Lavastroms sind durch ein eindimensionales Modell beschrieben, wobei Newtonsches Fließverhalten im Innern hinter der Lavastromfront von der zeitlichen Entwicklung der Viskosität und/oder der Fließgeschwindigkeit bestimmt wird. Vergleiche meiner Resultate mit verschiedenen Magmenzusammensetzungen zeigen, dass sich lange, kanalisierte Lavaströme mit hohen Ergussraten und schneller Platznahme bilden können. Dies geschieht unter annähernd isothermalen Bedingungen und erfordert laminares Fließen. Die Integration der Yatta- Lavastrom-Dimensionen und der bedeckten Paläotopographie (Neigungswinkel) in das Modell, erlaubte es mir die Topographie des Ostafrikanischen Hochlandes vor der Grabenbildung zu modellieren. Das Ergebnis der Modellierung ergibt einen Neigungswinkel von mindestens 0,2° und impliziert, dass der Lavastrom seinen Ursprung in einer Höhe von mindestens 1400 m ü.NN gehabt haben muss. Somit existierte bereits vor 13,5 Ma hohe Topographie in der heutigen Region des zentralen Kenia-Rifts. Diese abgeleitete regionale Hebungsgeschichte im mittleren Miozän korreliert mit der zweistufigen Ausbreitung der Graslandschaften, sowie dem Aufkommen neuer Arten im tropischen Afrika. Die Kombination aus Fließverhalten, Entstehungsort und morphologischer Eigenschaften macht den Yatta-Lavastrom zu einem “Paläoneigungsmesser” und wichtigen vulkanischen Untersuchungsobjekt für die topographische Entwicklung in Ostafrika. KW - Ostafrika KW - Plateau KW - Paläotopographie KW - Miozän KW - Yatta KW - East African Plateau KW - paleo-topography KW - Miocene KW - Yatta Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52363 ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - THES A1 - Wetzel, Maria T1 - Pore space alterations and their impact on hydraulic and mechanical rock properties quantified by numerical simulations T1 - Numerische Simulationen zum Einfluss von Porenraumveränderungen auf die Entwicklung hydraulischer und mechanischer Gesteinseigenschaften N2 - Geochemical processes such as mineral dissolution and precipitation alter the microstructure of rocks, and thereby affect their hydraulic and mechanical behaviour. Quantifying these property changes and considering them in reservoir simulations is essential for a sustainable utilisation of the geological subsurface. Due to the lack of alternatives, analytical methods and empirical relations are currently applied to estimate evolving hydraulic and mechanical rock properties associated with chemical reactions. However, the predictive capabilities of analytical approaches remain limited, since they assume idealised microstructures, and thus are not able to reflect property evolution for dynamic processes. Hence, aim of the present thesis is to improve the prediction of permeability and stiffness changes resulting from pore space alterations of reservoir sandstones. A detailed representation of rock microstructure, including the morphology and connectivity of pores, is essential to accurately determine physical rock properties. For that purpose, three-dimensional pore-scale models of typical reservoir sandstones, obtained from highly resolved micro-computed tomography (micro-CT), are used to numerically calculate permeability and stiffness. In order to adequately depict characteristic distributions of secondary minerals, the virtual samples are systematically altered and resulting trends among the geometric, hydraulic, and mechanical rock properties are quantified. It is demonstrated that the geochemical reaction regime controls the location of mineral precipitation within the pore space, and thereby crucially affects the permeability evolution. This emphasises the requirement of determining distinctive porosity-permeability relationships by means of digital pore-scale models. By contrast, a substantial impact of spatial alterations patterns on the stiffness evolution of reservoir sandstones are only observed in case of certain microstructures, such as highly porous granular rocks or sandstones comprising framework-supporting cementations. In order to construct synthetic granular samples a process-based approach is proposed including grain deposition and diagenetic cementation. It is demonstrated that the generated samples reliably represent the microstructural complexity of natural sandstones. Thereby, general limitations of imaging techniques can be overcome and various realisations of granular rocks can be flexibly produced. These can be further altered by virtual experiments, offering a fast and cost-effective way to examine the impact of precipitation, dissolution or fracturing on various petrophysical correlations. The presented research work provides methodological principles to quantify trends in permeability and stiffness resulting from geochemical processes. The calculated physical property relations are directly linked to pore-scale alterations, and thus have a higher accuracy than commonly applied analytical approaches. This will considerably improve the predictive capabilities of reservoir models, and is further relevant to assess and reduce potential risks, such as productivity or injectivity losses as well as reservoir compaction or fault reactivation. Hence, the proposed method is of paramount importance for a wide range of natural and engineered subsurface applications, including geothermal energy systems, hydrocarbon reservoirs, CO2 and energy storage as well as hydrothermal deposit exploration. N2 - Geochemische Lösungs- und Fällungsprozesse verändern die Struktur des Porenraums und können dadurch die hydraulischen und mechanischen Gesteinseigenschaften erheblich beeinflussen. Die Quantifizierung dieser Parameteränderung und ihre Berücksichtigung in Reservoirmodellen ist entscheidend für eine nachhaltige Nutzung des geologischen Untergrunds. Aufgrund fehlender Alternativen werden dafür bisher analytische Methoden genutzt. Da diese Ansätze eine idealisierte Mikrostruktur annehmen, können insbesondere Änderungen der Gesteinseigenschaften infolge von dynamischen Prozessen nicht zuverlässig abgebildet werden. Ziel der vorliegenden Doktorarbeit ist es deshalb, die Entwicklung von Gesteinspermeabilitäten und -steifigkeiten aufgrund von Porenraumveränderungen genauer vorherzusagen. Für die möglichst exakte Bestimmung physikalischer Gesteinsparameter ist eine detaillierte Darstellung der Mikrostruktur notwendig. Basierend auf mikro-computertomographischen Scans werden daher hochaufgelöste, dreidimensionale Modelle typischer Reservoirsandsteine erstellt und Gesteinspermeabilität und -steifigkeit numerisch berechnet. Um charakteristische Verteilungen von Sekundärmineralen abzubilden, wird der Porenraum dieser virtuellen Sandsteinproben systematisch verändert und die resultierenden Auswirkungen auf die granulometrischen, hydraulischen und elastischen Gesteinseigenschaften bestimmt. Die Ergebnisse zeigen deutlich, dass charakteristische Fällungsmuster unterschiedlicher geochemischer Reaktionsregime die Permeabilität erheblich beeinflussen. Folglich ist die Nutzung von porenskaligen Modellen zur Bestimmung der Porosität-Permeabilitätsbeziehungen unbedingt notwendig. Im Gegensatz dazu ist die Verteilung von Sekundärmineralen für die Gesteinssteifigkeit nur bei bestimmten Mikrostrukturen von Bedeutung, hierzu zählen hochporöse Sandsteine oder solche mit Korngerüst-stützenden Zementierungen. In der Arbeit wird außerdem ein Ansatz zur Konstruktion granularer Gesteine vorgestellt, welcher sowohl die Kornsedimentation als auch die diagenetische Verfestigung umfasst. Es wird gezeigt, dass die synthetischen Proben die mikrostrukturelle Komplexität natürlicher Reservoirsandsteine gut abbilden. Dadurch können generelle Limitationen von bildgebenden Verfahren überwunden und unterschiedlichste virtuelle Repräsentationen von granularen Gesteinen generiert werden. Die synthetischen Proben können zukünftig in virtuellen Experimenten verwendet werden, um die Auswirkungen von Lösungs- und Fällungsreaktionen auf verschiedene petrophysikalische Korrelationen zu untersuchen. Die vorgestellte Arbeit liefert methodische Grundlagen zur Quantifizierung von Permeabilitäts- und Steifigkeitsänderungen infolge geochemischer Prozesse. Die berechneten petrophysikalischen Beziehungen basieren direkt auf mikrostrukturellen Veränderungen des Porenraums. Daher bieten sie eine genauere Vorhersage der Gesteinseigenschaften als herkömmliche analytische Methoden, wodurch sich die Aussagekraft von Reservoirmodellen erheblich verbessert. Somit können Risiken, wie Produktivitäts- oder Injektivitätsverluste sowie Reservoirkompaktion oder Störungsreaktivierung, verringert werden. Die präsentierten Ergebnisse sind daher relevant für verschiedenste Bereiche der geologischen Untergrundnutzung wie CO2- oder Energiespeicherung, Geothermie, Kohlenwasserstoffgewinnung sowie die Erkundung hydrothermaler Lagerstätten. KW - digital rock physics KW - synthetic sandstone KW - permeability evolution KW - elastic rock properties KW - micro-CT KW - Digitale Gesteinsphysik KW - Elastische Gesteinseigenschaften KW - Mikro-CT KW - Permeabilitätsentwicklung KW - Synthetische Sandsteine Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512064 ER - TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER - TY - THES A1 - Westbury, Michael V. T1 - Unraveling evolution through Next Generation Sequencing T1 - Entschlüsselung von Evolution durch Sequenzierung der nächsten Generation N2 - The sequencing of the human genome in the early 2000s led to an increased interest in cheap and fast sequencing technologies. This interest culminated in the advent of next generation sequencing (NGS). A number of different NGS platforms have arisen since then all promising to do the same thing, i.e. produce large amounts of genetic information for relatively low costs compared to more traditional methods such as Sanger sequencing. The capabilities of NGS meant that researchers were no longer bound to species for which a lot of previous work had already been done (e.g. model organisms and humans) enabling a shift in research towards more novel and diverse species of interest. This capability has greatly benefitted many fields within the biological sciences, one of which being the field of evolutionary biology. Researchers have begun to move away from the study of laboratory model organisms to wild, natural populations and species which has greatly expanded our knowledge of evolution. NGS boasts a number of benefits over more traditional sequencing approaches. The main benefit comes from the capability to generate information for drastically more loci for a fraction of the cost. This is hugely beneficial to the study of wild animals as, even when large numbers of individuals are unobtainable, the amount of data produced still allows for accurate, reliable population and species level results from a small selection of individuals. The use of NGS to study species for which little to no previous research has been carried out on and the production of novel evolutionary information and reference datasets for the greater scientific community were the focuses of this thesis. Two studies in this thesis focused on producing novel mitochondrial genomes from shotgun sequencing data through iterative mapping, bypassing the need for a close relative to serve as a reference sequence. These mitochondrial genomes were then used to infer species level relationships through phylogenetic analyses. The first of these studies involved reconstructing a complete mitochondrial genome of the bat eared fox (Otocyon megalotis). Phylogenetic analyses of the mitochondrial genome confidently placed the bat eared fox as sister to the clade consisting of the raccoon dog and true foxes within the canidae family. The next study also involved reconstructing a mitochondrial genome but in this case from the extinct Macrauchenia of South America. As this study utilised ancient DNA, it involved a lot of parameter testing, quality controls and strict thresholds to obtain a near complete mitochondrial genome devoid of contamination known to plague ancient DNA studies. Phylogenetic analyses confidently placed Macrauchenia as sister to all living representatives of Perissodactyla with a divergence time of ~66 million years ago. The third and final study of this thesis involved de novo assemblies of both nuclear and mitochondrial genomes from brown and striped hyena and focussed on demographic, genetic diversity and population genomic analyses within the brown hyena. Previous studies of the brown hyena hinted at very low levels of genomic diversity and, perhaps due to this, were unable to find any notable population structure across its range. By incorporating a large number of genetic loci, in the form of complete nuclear genomes, population structure within the brown hyena was uncovered. On top of this, genomic diversity levels were compared to a number of other species. Results showed the brown hyena to have the lowest genomic diversity out of all species included in the study which was perhaps caused by a continuous and ongoing decline in effective population size that started about one million years ago and dramatically accelerated towards the end of the Pleistocene. The studies within this thesis show the power NGS sequencing has and its utility within evolutionary biology. The most notable capabilities outlined in this thesis involve the study of species for which no reference data is available and in the production of large amounts of data, providing evolutionary answers at the species and population level that data produced using more traditional techniques simply could not. N2 - Die Sequenzierung des ersten menschlichen Genoms Anfang der 2000er Jahre förderte das Interesse an kostengünstigen und gleichzeitig schnelleren Sequenziertechniken. Dieses Interesse erreichte seinen derzeitigen Höhepunkt in der Einführung des sogenannten Next Generation Sequencings (NGS). Seitdem wurden zahlreiche NGS-Plattformen entwickelt, die alle dem gleichen Prinzip folgen, nämlich das Erzeugen großer Mengen genetischer Information zu relativ geringen Preisen verglichen mit herkömmlichen Methoden wie der Sanger-Sequenzierung. Die neue Leistungsfähigkeit von NGS bedeutete, dass Forscher nicht mehr länger an Organismen gebunden waren an denen bereits seit Jahren geforscht wurde (bspw. Modellorganismen oder der Mensch), sondern ermöglichte eine Verschiebung in Richtung neuerer und unterschiedlicher Arten von Interesse. Dieses Potential hat viele Wissenschaftsfelder positiv beeinflusst innerhalb der Biowissenschaften, u.a. das Feld der Evolutionsbiologie. Forscher haben angefangen sich zunehmend von Modellorganismen in Laboratorien wegzubewegen hinzu wildlebenden, natürlich vorkommenden Populationen und Arten, was unser Verständnis von Evolution maßgeblich erweitert hat. NGS hat mehrere Vorteile aufzuweisen gegenüber den herkömmlichen Sequenziermethoden. Der wohl größte Vorteil ist die Gewinnung genetischer Daten für mehrere Genorte (Loci) gleichzeitig zu einem Bruchteil der bisherigen Kosten. Das ist besonders nützlich für die Untersuchung wildlebender Tiere da, selbst wenn nicht ausreichend viele Individuen vorliegen, die gewonnene Menge an Daten genaue und verlässliche Ergebnisse auf Populations- sowie Artebene für eine kleine Auswahl an Individuen liefert. Die Verwendung von NGS zur Untersuchung von Arten, für die bisher wenig oder gar keine vorherigen Forschungsergebnisse vorliegen sowie die Gewinnung neuartiger Informationen im Bereich Evolution ebenso wie die Erstellung eines Referenzdatensatzes, der der wissenschaftlichen Gemeinschaft zur Verfügung gestellt werden kann, waren der Fokus dieser Arbeit. Zwei Studien in dieser Arbeit setzten ihren Fokus in der Gewinnung noch nicht publizierter, mitochondrialer Genome, die mittels iterative mapping erstellt wurden und so das Vorhandensein einer Referenzsequenz eines nahen Verwandten der untersuchten Art unnötig machten. In beiden Fällen wurden Shotgun Sequenzierungsdaten verwendet. Die so gewonnenen mitochondrialen Genome wurden dann genutzt, um innerartliche Verwandtschaftsverhältnisse mit hilfe von phylogenetischen Analysen zu klären. Die erste Studie befasste sich mit der Rekonstruktion des kompletten mitochondrialen Genoms des Löffelhundes (Otocyon megalotis). Die phylogenetische Analyse des mitochondrialen Genoms positionierten den Löffelhund sicher als Schwestergruppe der Klade bestehend aus Marderhund und echten Füchsen innerhalb der Familie Canidae. Die zweite Studie hat sich ebenfalls mit der Rekonstruktion eines mitochondrialen Genoms auseinandergesetzt, diesmal von einer bereits ausgestorbenen Art Südamerikas, dem Macrauchenia. Da diese Studie auf sehr alter DNA (ancient DNA) basiert, schließt sie viele Parametertests, Qualitätskontrollen sowie strenge Filterkriterien ein um ein fast vollständiges mitochondriales Genom erhalten zu können, frei von den für ancient DNA typischen Kontaminationen. Phylogenetische Analysen positionieren Macrauchenia als Schwestergruppe zu allen anderen lebenden Vertretern der Perissodactyla mit einer Abspaltung vor ~66 Millionen Jahren. Die dritte und letzte Studie dieser Arbeit beinhaltet die de novo Konstruktionen von nukleären und mitochondrialen Genomen der Schabracken- und Streifenhyäne mit Fokus auf demographische, genetische Diversität sowie Populationsgenomische Analysen innerhalb der Schabrackenhyänen. Vorausgehende Studien an der Schabrackenhyäne gaben Hinweise für einen geringen Grad an genomischer Diversität und, waren vielleicht deshalb, bisher nicht in der Lage eine nennenswerte Populationsstruktur der Schabrackenhyäne aufzudecken. Zusätzlich wurde die genomische Diversität mit der von einer Reihe anderer Arten verglichen. Die Ergebnisse zeigen, dass die Schabrackenhyäne die niedrigste genomische Diversität aufweist im Vergleich zu den in dieser Studie verwendeten Arten, was vielleicht mit einem kontinuierlichen und fortschreitenden Rückgang der effektiven Populationsgröße dieser Spezies zu erklären ist, der vor ca. einer Million Jahre eingesetzt hat und dramatisch zugenommen hat zum Ende des Pleistozän. Die Studien dieser Arbeit zeigen das Potential von NGS Sequenzierung und ihren Nutzen innerhalb der Evolutionsbiologie. Die nennenswertesten Anwendungen von NGS, die in dieser Arbeit hervorgehoben wurden, sind zum Einen der Nutzen für Organismen bzw. Arten für die es keine verfügbaren Referenzdaten gibt sowie zum Anderen die Gewinnung von großen Datenmengen, die die Grundlage bilden zur Beantwortung evolutionsbiologischer Fragestellungen auf Art- und Populationsebene, was vorhergegangene, traditionelle Methoden bisher nicht leisten konnten. KW - Next generation sequencing KW - Evolution KW - Hyena KW - Evolution KW - Hyäne KW - Sequenzierung der nächsten Generation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409981 ER - TY - THES A1 - Werth, Susanna T1 - Calibration of the global hydrological model WGHM with water mass variations from GRACE gravity data T1 - Kalibrierung des globalen hydrologischen Modelles WGHM mit Wassermassenvariationen aus GRACE-Schwerefelddaten N2 - Since the start-up of the GRACE (Gravity Recovery And Climate Experiment) mission in 2002 time dependent global maps of the Earth's gravity field are available to study geophysical and climatologically-driven mass redistributions on the Earth's surface. In particular, GRACE observations of total water storage changes (TWSV) provide a comprehensive data set for analysing the water cycle on large scales. Therefore they are invaluable for validation and calibration of large-scale hydrological models as the WaterGAP Global Hydrology Model (WGHM) which simulates the continental water cycle including its most important components, such as soil, snow, canopy, surface- and groundwater. Hitherto, WGHM exhibits significant differences to GRACE, especially for the seasonal amplitude of TWSV. The need for a validation of hydrological models is further highlighted by large differences between several global models, e.g. WGHM, the Global Land Data Assimilation System (GLDAS) and the Land Dynamics model (LaD). For this purpose, GRACE links geodetic and hydrological research aspects. This link demands the development of adequate data integration methods on both sides, forming the main objectives of this work. They include the derivation of accurate GRACE-based water storage changes, the development of strategies to integrate GRACE data into a global hydrological model as well as a calibration method, followed by the re-calibration of WGHM in order to analyse process and model responses. To achieve these aims, GRACE filter tools for the derivation of regionally averaged TWSV were evaluated for specific river basins. Here, a decorrelation filter using GRACE orbits for its design is most efficient among the tested methods. Consistency in data and equal spatial resolution between observed and simulated TWSV were realised by the inclusion of all most important hydrological processes and an equal filtering of both data sets. Appropriate calibration parameters were derived by a WGHM sensitivity analysis against TWSV. Finally, a multi-objective calibration framework was developed to constrain model predictions by both river discharge and GRACE TWSV, realised with a respective evolutionary method, the ε-Non-dominated-Sorting-Genetic-Algorithm-II (ε-NSGAII). Model calibration was done for the 28 largest river basins worldwide and for most of them improved simulation results were achieved with regard to both objectives. From the multi-objective approach more reliable and consistent simulations of TWSV within the continental water cycle were gained and possible model structure errors or mis-modelled processes for specific river basins detected. For tropical regions as such, the seasonal amplitude of water mass variations has increased. The findings lead to an improved understanding of hydrological processes and their representation in the global model. Finally, the robustness of the results is analysed with respect to GRACE and runoff measurement errors. As a main conclusion obtained from the results, not only soil water and snow storage but also groundwater and surface water storage have to be included in the comparison of the modelled and GRACE-derived total water budged data. Regarding model calibration, the regional varying distribution of parameter sensitivity suggests to tune only parameter of important processes within each region. Furthermore, observations of single storage components beside runoff are necessary to improve signal amplitudes and timing of simulated TWSV as well as to evaluate them with higher accuracy. The results of this work highlight the valuable nature of GRACE data when merged into large-scale hydrological modelling and depict methods to improve large-scale hydrological models. N2 - Das Schwerefeld der Erde spiegelt die Verteilung von Massen auf und unter der Erdoberfläche wieder. Umverteilungen von Erd-, Luft- oder Wassermassen auf unserem Planeten sind damit über eine kontinuierliche Vermessung des Erdschwerefeldes beobachtbar. Besonders Satellitenmissionen sind hierfür geeignet, da deren Umlaufbahn durch zeitliche und räumliche Veränderung der Schwerkraft beeinflusst wird. Seit dem Start der Satellitenmission GRACE (Gravity Recovery And Climate Experiment) im Jahr 2002 stellt die Geodäsie daher globale Daten von zeitlichen Veränderungen des Erdschwerefeldes mit hoher Genauigkeit zur Verfügung. Mit diesen Daten lassen sich geophysikalische und klimatologische Massenumverteilungen auf der Erdoberfläche studieren. GRACE liefert damit erstmals Beobachtungen von Variationen des gesamten kontinentalen Wasserspeichers, welche außerordentlich wertvoll für die Analyse des Wasserkreislaufes über große Regionen sind. Die Daten ermöglichen die Überprüfung von großräumigen mathematischen Modellen der Hydrologie, welche den natürlichen Kreislauf des Wassers auf den Kontinenten, vom Zeitpunkt des Niederschlags bis zum Abfluss in die Ozeane, nachvollziehbar machen. Das verbesserte Verständnis über Transport- und Speicherprozesse von Süßwasser ist für genauere Vorhersagen über zukünftige Wasserverfügbarkeit oder potentielle Naturkatastrophen, wie z.B. Überschwemmungen, von enormer Bedeutung. Ein globales Modell, welches die wichtigsten Komponenten des Wasserkreislaufes (Boden, Schnee, Interzeption, Oberflächen- und Grundwasser) berechnet, ist das "WaterGAP Global Hydrology Model" (WGHM). Vergleiche von berechneten und beobachteten Wassermassenvariationen weisen bisher insbesondere in der jährlichen Amplitude deutliche Differenzen auf. Sehr große Unterschiede zwischen verschiedenen hydrologischen Modellen betonen die Notwendigkeit, deren Berechnungen zu verbessern. Zu diesem Zweck verbindet GRACE die Wissenschaftsbereiche der Geodäsie und der Hydrologie. Diese Verknüpfung verlangt von beiden Seiten die Entwicklung geeigneter Methoden zur Datenintegration, welche die Hauptaufgaben dieser Arbeit darstellten. Dabei handelt es sich insbesondere um die Auswertung der GRACE-Daten mit möglichst hoher Genauigkeit sowie um die Entwicklung einer Strategie zur Integration von GRACE Daten in das hydrologische Modell. Mit Hilfe von GRACE wurde das Modell neu kalbriert, d.h. Parameter im Modell so verändert, dass die hydrologischen Berechnungen besser mit den GRACE Beobachtungen übereinstimmen. Dabei kam ein multikriterieller Kalibrieralgorithmus zur Anwendung mit dem neben GRACE-Daten auch Abflussmessungen einbezogen werden konnten. Die Modellkalibierung wurde weltweit für die 28 größten Flusseinzugsgebiete durchgeführt. In den meisten Fällen konnte eine verbesserte Berechnung von Wassermassenvariationen und Abflüssen erreicht werden. Hieraus ergeben sich, z.B. für tropische Regionen, größere saisonale Variationen. Die Ergebnisse führen zu einem verbesserten Verständnis hydrologischer Prozesse. Zum Schluss konnte die Robustheit der Ergebnisse gegenüber Fehlern in GRACE- und Abflussmessungen erfolgreich getestet werden. Nach den wichtigsten Schlussfolgerungen, die aus den Ergebnissen abgeleitet werden konnten, sind nicht nur Bodenfeuchte- und Schneespeicher, sondern auch Grundwasser- und Oberflächenwasserspeicher in Vergleiche von berechneten und GRACE-beobachteten Wassermassenvariationen einzubeziehen. Weiterhin sind neben Abflussmessungen zusätzlich Beobachtungen von weiteren hydrologischen Prozessen notwendig, um die Ergebnisse mit größerer Genauigkeit überprüfen zu können. Die Ergebnisse dieser Arbeit heben hervor, wie wertvoll GRACE-Daten für die großräumige Hydrologie sind und eröffnen eine Methode zur Verbesserung unseres Verständnisses des globalen Wasserkreislaufes. KW - Schwerefeld KW - Hydrolgische Modellierung KW - Globaler Wasserkreislauf KW - Wassermassenvariationen KW - gravity KW - gydrological modelling KW - global water cycle KW - water mass variations Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41738 ER - TY - THES A1 - Werhahn, Maria T1 - Simulating galaxy evolution with cosmic rays: the multi-frequency view T1 - Galaxienentwicklung in Simulationen mit komischer Strahlung und deren Strahlungsprozessen N2 - Cosmic rays (CRs) constitute an important component of the interstellar medium (ISM) of galaxies and are thought to play an essential role in governing their evolution. In particular, they are able to impact the dynamics of a galaxy by driving galactic outflows or heating the ISM and thereby affecting the efficiency of star-formation. Hence, in order to understand galaxy formation and evolution, we need to accurately model this non-thermal constituent of the ISM. But except in our local environment within the Milky Way, we do not have the ability to measure CRs directly in other galaxies. However, there are many ways to indirectly observe CRs via the radiation they emit due to their interaction with magnetic and interstellar radiation fields as well as with the ISM. In this work, I develop a numerical framework to calculate the spectral distribution of CRs in simulations of isolated galaxies where a steady-state between injection and cooling is assumed. Furthermore, I calculate the non-thermal emission processes arising from the modelled CR proton and electron spectra ranging from radio wavelengths up to the very high-energy gamma-ray regime. I apply this code to a number of high-resolution magneto-hydrodynamical (MHD) simulations of isolated galaxies, where CRs are included. This allows me to study their CR spectra and compare them to observations of the CR proton and electron spectra by the Voyager-1 satellite and the AMS-02 instrument in order to reveal the origin of the measured spectral features. Furthermore, I provide detailed emission maps, luminosities and spectra of the non-thermal emission from our simulated galaxies that range from dwarfs to Milk-Way analogues to starburst galaxies at different evolutionary stages. I successfully reproduce the observed relations between the radio and gamma-ray luminosities with the far-infrared (FIR) emission of star-forming (SF) galaxies, respectively, where the latter is a good tracer of the star-formation rate. I find that highly SF galaxies are close to the limit where their CR population would lose all of their energy due to the emission of radiation, whereas CRs tend to escape low SF galaxies more quickly. On top of that, I investigate the properties of CR transport that are needed in order to match the observed gamma-ray spectra. Furthermore, I uncover the underlying processes that enable the FIR-radio correlation (FRC) to be maintained even in starburst galaxies and find that thermal free-free-emission naturally explains the observed radio spectra in SF galaxies like M82 and NGC 253 thus solving the riddle of flat radio spectra that have been proposed to contradict the observed tight FRC. Lastly, I scrutinise the steady-state modelling of the CR proton component by investigating for the first time the influence of spectrally resolved CR transport in MHD simulations on the hadronic gamma-ray emission of SF galaxies revealing new insights into the observational signatures of CR transport both spectrally and spatially. N2 - Kosmische Strahlung (CR) ist ein essentieller Bestandteil des interstellaren Mediums (ISM) von Galaxien und spielt eine wichtige Rolle in deren Entwicklung. Insbesondere ist sie in der Lage, die Dynamik einer Galaxie zu beeinflussen, indem sie galaktische Ausflüsse treibt oder das ISM aufheizt und sich dadurch auf die Effizienz der Sternentstehung auswirkt. Um Galaxienentstehung zu verstehen ist es daher notwendig, diesen nicht-thermischen Bestandteil des ISM genau zu modellieren. Aber außerhalb unserer lokalen Umgebung innerhalb der Milchstraße haben wir keine Möglichkeit, um CRs in anderen Galaxien direkt zu messen. Allerdings gibt es viele Möglichkeiten, CRs indirekt über die Strahlung zu beobachten, die sie auf Grund ihrer Interaktion mit Magnetfeldern und interstellarer Strahlung sowie mit dem ISM emittieren. In dieser Arbeit habe ich einen numerischen Code entwickelt, der die spektrale Verteilung der CRs in Simulationen von isolierten Galaxien berechnet, wobei ein stationäres Verhältnis zwischen Injektion und Kühlen angenommen wird. Des Weiteren berechnet er die nicht-thermischen Strahlungsprozesse, die aus den modellierten CR Protonen- und Elektronenspektren hervorgehen. Diese reichen von Radiowellenlängen bis hin zu hochenergetischer Gammastrahlung. Ich wende diesen Code auf eine Vielzahl von hoch aufgelösten, magneto-hydrodynamischen Simulationen von isolierten Galaxien an, die CRs beinhalten. Das ermöglicht es mir, ihre CR Spektren zu untersuchen und mit Beobachtungen des Voyager-1 Satelliten sowie des AMS-02 Instruments von CR Protonen- und Elektronenspektren zu vergleichen, um dem Ursprung von den gemessenen spektralen Besonderheiten nachzugehen. Außerdem lege ich detaillierte Emissionskarten, Leuchtkräfte und Spektren der nicht-thermischen Strahlung unserer simulierten Galaxien vor, die von Zwerggalaxien über Milchstraßen-ähnliche Galaxien bis hin zu Starburst-Galaxien bei verschiedensten Entwicklungsstadien reichen. Damit kann ich erfolgreich die beobachteten Zusammenhänge zwischen jeweils der Radio- und Gammastrahlungsleuchtkraft mit der Ferninfrarot (FIR) Strahlung der sternbildenden Galaxien reproduzieren, wobei die FIR Strahlung ein guter Indikator für die Rate der Sternentstehung ist. Dabei finde ich heraus, dass Galaxien mit einer hohen Rate an Sternentstehung sehr nah an dem Limit sind, in dem ihre CR Population all ihre Energie an die Produktion von Strahlung verlieren würde, während CRs dazu tendieren, Galaxien mit einer niedrigen Sternentstehungsrate schneller zu verlassen. Zusätzlich untersuche ich die Eigenschaften des Transports von CRs, die benötigt werden, um die beobachteten Spektren der Gammastrahlung zu reproduzieren. Außerdem decke ich die zugrundeliegenden physikalischen Prozesse auf, durch die die Korrelation zwischen der FIR- und Radioleuchtkraft auch in Starburst-Galaxien aufrecht erhalten werden kann und finde heraus, dass die thermische Emission natürlicherweise die beobachteten Radiospektren in Galaxien wie M82 und NGC 253 erklärt, wodurch sich das Rätsel der flachen Radiospektren löst, die scheinbar im Widerspruch zum beobachteten engen Zusammenhang zwischen der FIR- und Radioleuchtkraft standen. Zuletzt hinterfrage ich die Annahme eines stationären Zustandes bei der Modellierung der CR Protonenspektren, indem ich zum ersten Mal den Einfluss von spektral aufgelöstem Transport von CR Protonen in magneto-hydrodynamischen Simulationen auf die hadronische Gammastrahlung von sternbildenden Galaxien untersuche, was neue Einblicke in beobachtbare Signaturen, sowohl spektral als auch räumlich, von CR-Transport ermöglicht. KW - galaxies KW - cosmic rays KW - numerical astrophysics KW - kosmische Strahlung KW - Galaxien KW - numerische Astrophysik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572851 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Wen, Xi T1 - Distribution patterns and environmental drivers of methane-cycling microorganisms in natural environments and restored wetlands N2 - Methane is an important greenhouse gas contributing to global climate change. Natural environments and restored wetlands contribute a large proportion to the global methane budget. Methanogenic archaea (methanogens) and methane oxidizing bacteria (methanotrophs), the biogenic producers and consumers of methane, play key roles in the methane cycle in those environments. A large number of studies revealed the distribution, diversity and composition of these microorganisms in individual habitats. However, uncertainties exist in predicting the response and feedback of methane-cycling microorganisms to future climate changes and related environmental changes due to the limited spatial scales considered so far, and due to a poor recognition of the biogeography of these important microorganisms combining global and local scales. With the aim of improving our understanding about whether and how methane-cycling microbial communities will be affected by a series of dynamic environmental factors in response to climate change, this PhD thesis investigates the biogeographic patterns of methane-cycling communities, and the driving factors which define these patterns at different spatial scales. At the global scale, a meta-analysis was performed by implementing 94 globally distributed public datasets together with environmental data from various natural environments including soils, lake sediments, estuaries, marine sediments, hydrothermal sediments and mud volcanos. In combination with a global biogeographic map of methanogenic archaea from multiple natural environments, this thesis revealed that biogeographic patterns of methanogens exist. The terrestrial habitats showed higher alpha diversities than marine environments. Methanoculleus and Methanosaeta (Methanothrix) are the most frequently detected taxa in marine habitats, while Methanoregula prevails in terrestrial habitats. Estuary ecosystems, the transition zones between marine and terrestrial/limnic ecosystems, have the highest methanogenic richness but comparably low methane emission rates. At the local scale, this study compared two rewetted fens with known high methane emissions in northeastern Germany, a coastal brackish fen (Hütelmoor) and a freshwater riparian fen (Polder Zarnekow). Consistent with different geochemical conditions and land-use history, the two rewetted fens exhibit dissimilar methanogenic and, especially, methanotrophic community compositions. The methanotrophic community was generally under-represented among the prokaryotic communities and both fens show similarly low ratios of methanotrophic to methanogenic abundances. Since few studies have characterized methane-cycling microorganisms in rewetted fens, this study provides first evidence that the rapid and well re-established methanogenic community in combination with the low and incomplete re-establishment of the methanotrophic community after rewetting contributes to elevated sustained methane fluxes following rewetting. Finally, this thesis demonstrates that dispersal limitation only slightly regulates the biogeographic distribution patterns of methanogenic microorganisms in natural environments and restored wetlands. Instead, their existence, adaption and establishment are more associated with the selective pressures under different environmental conditions. Salinity, pH and temperature are identified as the most important factors in shaping microbial community structure at different spatial scales (global versus terrestrial environments). Predicted changes in climate, such as increasing temperature, changes in precipitation patterns and increasing frequency of flooding events, are likely to induce a series of environmental alterations, which will either directly or indirectly affect the driving environmental forces of methanogenic communities, leading to changes in their community composition and thus potentially also in methane emission patterns in the future. N2 - Methan ist ein wichtiges Treibhausgas, das zum globalen Klimawandel beiträgt. Bedeutend für das globale Methanbudget sind unter anderem natürliche und wiedervernäßte Moore. Methanogene Archaeen (Methanogene) und Methan-oxidierende Bakterien (Methanotrophe) sind die biogenen Produzenten und Konsumenten von Methan. Daher nehmen sie global, und speziell in Mooren, eine Schlüsselrolle für das Methanbudget ein. Eine Vielzahl von Studien hat die Verteilung, Vielfalt und Zusammensetzung dieser Mikroorganismen in einzelnen Lebensräumen untersucht. Es bestehen jedoch Unsicherheiten in der Vorhersage, wie sie auf den globalen Wandel und auf die damit verbundenen Umweltveränderungen reagieren werden. Diese Unsicherheiten basieren unter anderem auf bislang fehlenden biogeographischen Untersuchungen, die globale und lokale Skalen kombinieren, und auf einem unzureichenden Verständnis dazu, ob und welche Umweltfaktoren speziell methanogene Gemeinschaften beeinflussen. Zudem gibt es trotz der Bedeutung von Projekten zur Moorwiedervernässung für das regionale und globale Treibhausgasbudget nahezu keine Untersuchungen zur Zusammensetzung und Verbreitung von methanogenen und methanotrophen Gemeinschaften in degradierten wiedervernäßten, eutrophen Niedermooren. Das Ziel dieser Doktorarbeit ist es, unser Verständnis zur Reaktion der am Methanbudget beteiligten mikrobiellen Gemeinschaften auf den globalen Wandel und auf die damit einhergehenden Umweltänderungen zu verbessern. Die Arbeit untersucht daher zum einen die biogeographischen Muster methanogener Gemeinschaften und die ihnen zugrunde liegenden Umweltfaktoren auf verschiedenen räumlichen Skalen. Auf globaler Ebene wurde eine Meta-Analyse durchgeführt, die auf 94 global verteilten, öffentlichen Sequenzdatensätzen sowie den dazugehörigen Umweltdaten aus verschiedenen natürlichen Ökosystemen basiert. Hierzu gehören Böden, Seesedimente, Ästuare, marine Sedimente, hydrothermale Sedimente und Schlammvulkane. In Kombination mit einer globalen biogeographischen Karte zur Verbreitung methanogener Archaeen konnte diese Arbeit zeigen, dass biogeographische Muster von Methanogenen existieren. Terrestrische Ökosysteme zeigen zudem eine höhere Diversität als marine Ökosysteme. Ästuare, Übergangszonen zwischen marinen und terrestrischen/ limnischen Ökosystemen, weisen die größte methanogene Diversität bei jedoch vergleichsweise geringen Methanemissionen auf. Methanoculleus und Methanosaeta (Methanothrix) sind die am häufigsten nachgewiesenen Taxa in marinen Lebensräumen, während Methanoregula in terrestrischen Ökosystemen dominiert. Auf lokaler Ebene wurden in dieser Arbeit zwei wiedervernässte, eutrophe Niedermoore im Nordosten Deutschlands verglichen, das von der Ostsee beeinflusste „Hütelmoor“ und das Durchströmungsmoor „Polder Zarnekow“. Beide Moore sind durch hohe Methanemissionen infolge der Wiedervernässung charakterisiert. Einhergehend mit unterschiedlichen geochemischen Bedingungen und unterschiedlicher Nutzungshistorie weisen diese beiden wiedervernässten Standorte in ihrer Zusammensetzung unterschiedliche methanogene und methanotrophe Gemeinschaften auf lokaler Ebene auf. Zudem ist die Gruppe der Methanotrophen innerhalb der prokaryotischen Gemeinschaften jeweils unterrepräsentiert und beide Moore zeigen ein vergleichbar niedriges Verhältnis von Methanotrophen im Vergleich zu Methanogenen. Diese Arbeit liefert erste Hinweise darauf, dass die schnelle und erfolgreiche Wiederbesiedlung durch Methanogene in Kombination mit einer offenbar schlecht etablierten methanotrophen Gemeinschaft zu den erhöhten Methanflüssen in beiden Mooren nach Wiedervernässung beiträgt. Abschließend zeigt diese Arbeit, dass eine eingeschränkte Migration („dispersal limitation“) die biogeographischen Verteilungsmuster von Methanogenen in natürlichen Ökosystemen kaum beeinflusst. Stattdessen werden Vorkommen und Anpassung von methanogenen Gemeinschaften vor allem durch den selektiven Druck verschiedener Umweltbedingungen reguliert. Die Umweltparameter Salzgehalt, pH-Wert und Temperatur wurden dabei als wichtigste Faktoren identifiziert, die die Verbreitung methanogener Gemeinschaften global bzw. speziell in terrestrischen Standorten beeinflussen. Es ist daher wahrscheinlich, dass prognostizierte Klimaveränderungen wie steigende Temperatur, Änderungen der Niederschlagsmuster und zunehmende Häufigkeit von Überschwemmungsereignissen zu Änderungen in der Zusammensetzung methanogener Gemeinschaften führen, die möglicherweise auch die Methanemissionsmuster beeinflussen werden. T2 - Verteilungsmuster Methan produzierender und Methan oxidierender Mikroorganismen und deren Abhängigkeit von Umweltfaktoren in natürlichen Ökosystemen und wiedervernäßten Mooren KW - biogeography KW - Biogeographie KW - methanogens KW - methanotrophs KW - Methanogene KW - Methanotrophe KW - distribution pattern KW - Verteilungsmuster KW - methane KW - Methane Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471770 ER - TY - THES A1 - Welsch, Maryna T1 - Investigation of the stress tolerance regulatory network integration of the NAC transcription factor JUNGBRUNNEN1 (JUB1) T1 - Untersuchung des Stresstoleranz-Regulationsnetzwerks des NAC-Transkriptionsfaktors JUNGBRUNNEN1 (JUB1) N2 - The NAC transcription factor (TF) JUNGBRUNNEN1 (JUB1) is an important negative regulator of plant senescence, as well as of gibberellic acid (GA) and brassinosteroid (BR) biosynthesis in Arabidopsis thaliana. Overexpression of JUB1 promotes longevity and enhances tolerance to drought and other abiotic stresses. A similar role of JUB1 has been observed in other plant species, including tomato and banana. Our data show that JUB1 overexpressors (JUB1-OXs) accumulate higher levels of proline than WT plants under control conditions, during the onset of drought stress, and thereafter. We identified that overexpression of JUB1 induces key proline biosynthesis and suppresses key proline degradation genes. Furthermore, bZIP63, the transcription factor involved in proline metabolism, was identified as a novel downstream target of JUB1 by Yeast One-Hybrid (Y1H) analysis and Chromatin immunoprecipitation (ChIP). However, based on Electrophoretic Mobility Shift Assay (EMSA), direct binding of JUB1 to bZIP63 could not be confirmed. Our data indicate that JUB1-OX plants exhibit reduced stomatal conductance under control conditions. However, selective overexpression of JUB1 in guard cells did not improve drought stress tolerance in Arabidopsis. Moreover, the drought-tolerant phenotype of JUB1 overexpressors does not solely depend on the transcriptional control of the DREB2A gene. Thus, our data suggest that JUB1 confers tolerance to drought stress by regulating multiple components. Until today, none of the previous studies on JUB1´s regulatory network focused on identifying protein-protein interactions. We, therefore, performed a yeast two-hybrid screen (Y2H) which identified several protein interactors of JUB1, two of which are the calcium-binding proteins CaM1 and CaM4. Both proteins interact with JUB1 in the nucleus of Arabidopsis protoplasts. Moreover, JUB1 is expressed with CaM1 and CaM4 under the same conditions. Since CaM1.1 and CaM4.1 encode proteins with identical amino acid sequences, all further experiments were performed with constructs involving the CaM4 coding sequence. Our data show that JUB1 harbors multiple CaM-binding sites, which are localized in both the N-terminal and C-terminal regions of the protein. One of the CaM-binding sites, localized in the DNA-binding domain of JUB1, was identified as a functional CaM-binding site since its mutation strongly reduced the binding of CaM4 to JUB1. Furthermore, JUB1 transactivates expression of the stress-related gene DREB2A in mesophyll cells; this effect is significantly reduced when the calcium-binding protein CaM4 is expressed as well. Overexpression of both genes in Arabidopsis results in early senescence observed through lower chlorophyll content and an enhanced expression of senescence-associated genes (SAGs) when compared with single JUB1 overexpressors. Our data also show that JUB1 and CaM4 proteins interact in senescent leaves, which have increased Ca2+ levels when compared to young leaves. Collectively, our data indicate that JUB1 activity towards its downstream targets is fine-tuned by calcium-binding proteins during leaf senescence. N2 - Der NAC Transkriptionsfaktor (TF) JUNGBRUNNEN1 (JUB1) ist ein wichtiger negativer Regulator der Pflanzenseneszenz, Gibberellinsäure- (GA) und Brassinosteroid- (BR) Biosynthese in Arabidopsis thaliana. Die Überexpression von JUB1 fördert die Langlebigkeit und erhöht die Toleranz gegenüber Trockenheit und anderen abiotischen Belastungen. Bei anderen Pflanzenarten, einschließlich Tomaten und Bananen, wurde eine ähnliche Rolle von JUB1 beobachtet. Unsere Daten zeigen, dass JUB1 Überexpressionslinien im Vergleich zu WT-Pflanzen sowohl unter Kontrollbedingungen, als auch zu Beginn und während späterer Stadien von Trockenstress größere Mengen an Prolin akkumulieren. Wir haben festgestellt, dass die Überexpression von JUB1 die Schlüsselbiosynthese von Prolin induziert und Schlüsselgene für den Abbau von Prolin unterdrückt. Darüber hinaus wurde bZIP63, ein am Prolinstoffwechsel beteiligter Transkriptionsfaktor, mittels Yeast One-Hybrid-System (Y1H) und Chromatin-Immunopräzipitation (ChIP) als neues nachgeschaltetes Ziel von JUB1 identifiziert. Basierend auf dem Electrophoretic Mobility Shift Assay (EMSA) konnte die direkte Bindung von JUB1 an bZIP63 jedoch nicht bestätigt werden. Unsere Daten zeigen, dass JUB1-OXs unter Kontrollbedingungen eine niedrigere stomatale Leitfähigkeit aufweisen. Allerdings verbessert eine selektive Überexpression von JUB1 in den Schließzellen die Trockenstresstoleranz bei Arabidopsis nicht. Darüber hinaus hängt der trockenheitstolerante Phänotyp von JUB1 nicht allein von der transkriptionellen Kontrolle des DREB2A-Gens ab. Unsere Daten legen daher nahe, dass JUB1 durch die Regulierung mehrerer Komponenten Toleranz gegenüber Trockenstress verleiht. Bis heute konzentrierte sich keine der bisherigen Studien zum regulatorischen Netzwerk von JUB1 auf die Identifizierung von Protein-Protein-Interaktionen. Wir führten deshalb einen Hefe-Zwei-Hybrid-Screen (Y2H) durch, der mehrere Protein-Interaktoren von JUB1 identifizierte, von denen zwei Calcium-bindende Proteine sind (CaM1 und CaM4). Beide Proteine interagieren mit JUB1 im Kern von Arabidopsis-Protoplasten. Darüber hinaus wird JUB1 mit den CaM1- und CaM4-Genen unter den gleichen Bedingungen exprimiert und kolokalisiert mit den Proteinen im Zellkern von Arabidopsis thaliana-Protoplasten. Unsere Daten zeigen, dass JUB1 mehrere CaM-Bindungsstellen aufweist, die sowohl in der N-terminalen, als auch in der C-terminalen Region des Proteins lokalisiert sind. Eine der CaM-Bindungsstellen, die in der DNA-Bindungsdomäne von JUB1 lokalisiert ist, wurde als funktionelle und aktive CaM-Bindungsstelle identifiziert, da ihre Mutation die Bindung von CaM4 an JUB1 stark reduzierte. Darüber hinaus transaktiviert JUB1 die Expression des stressbezogenen Gens DREB2A in Mesophyllzellen. Dieser Effekt wird deutlich reduziert, wenn auch das Calcium-bindende Protein CaM4 exprimiert wird. Die Überexpression beider Gene in Arabidopsis führt zum frühen Seneszenz-Phänotyp, der durch einen verminderten Chlorophyllgehalt und eine veränderte SAGs-Expression im Vergleich zu einzelnen JUB1-Überexpressoren beobachtet wird. Unsere Daten zeigen auch, dass JUB1- und CaM4-Proteine in den seneszenten Blättern, die im Vergleich zu jungen Blättern erhöhte Ca2+-spiegel aufweisen, interagieren. Zusammenfassend weisen unsere Daten darauf hin, dass während der Blattseneszenz die Aktivität von JUB1 gegenüber seinen nachgeschalteten Zielen durch die Calcium-bindenden Proteine fein abgestimmt wird. KW - transcription factor KW - senescence KW - calmodulin KW - JUB1 KW - CaM4 KW - drought stress KW - CaM4 KW - JUB1 KW - calmodulin KW - Trockenstress KW - Seneszenz KW - Transkriptionsfaktor Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-547310 ER - TY - THES A1 - Wellmann, Caroline T1 - Early sensitivity to prosodic phrase boundary cues: Behavioral evidence from German-learning infants T1 - Frühkindliche Wahrnehmung prosodischer Grenzmarkierungen: Behaviorale Untersuchungen mit Deutsch lernenden Säuglingen N2 - This dissertation seeks to shed light on the relation of phrasal prosody and developmental speech perception in German-learning infants. Three independent empirical studies explore the role of acoustic correlates of major prosodic boundaries, specifically pitch change, final lengthening, and pause, in infant boundary perception. Moreover, it was examined whether the sensitivity to prosodic phrase boundary markings changes during the first year of life as a result of perceptual attunement to the ambient language (Aslin & Pisoni, 1980). Using the headturn preference procedure six- and eight-month-old monolingual German-learning infants were tested on their discrimination of two different prosodic groupings of the same list of coordinated names either with or without an internal IPB after the second name, that is, [Moni und Lilli] [und Manu] or [Moni und Lilli und Manu]. The boundary marking was systematically varied with respect to single prosodic cues or specific cue combinations. Results revealed that six- and eight-month-old German-learning infants successfully detect the internal prosodic boundary when it is signaled by all the three main boundary cues pitch change, final lengthening, and pause. For eight-, but not for six-month-olds, the combination of pitch change and final lengthening, without the occurrence of a pause, is sufficient. This mirrors an adult-like perception by eight-months (Holzgrefe-Lang et al., 2016). Six-month-olds detect a prosodic phrase boundary signaled by final lengthening and pause. The findings suggest a developmental change in German prosodic boundary cue perception from a strong reliance on the pause cue at six months to a differentiated sensitivity to the more subtle cues pitch change and final lengthening at eight months. Neither for six- nor for eight-month-olds the occurrence of pitch change or final lengthening as single cues is sufficient, similar to what has been observed for adult speakers of German (Holzgrefe-Lang et al., 2016). The present dissertation provides new scientific knowledge on infants’ sensitivity to individual prosodic phrase boundary cues in the first year of life. Methodologically, the studies are pathbreaking since they used exactly the same stimulus materials – phonologically thoroughly controlled lists of names – that have also been used with adults (Holzgrefe-Lang et al., 2016) and with infants in a neurophysiological paradigm (Holzgrefe-Lang, Wellmann, Höhle, & Wartenburger, 2018), allowing for comparisons across age (six/ eight months and adults) and method (behavioral vs. neurophysiological methods). Moreover, materials are suited to be transferred to other languages allowing for a crosslinguistic comparison. Taken together with a study with similar French materials (van Ommen et al., 2020) the observed change in sensitivity in German-learning infants can be interpreted as a language-specific one, from an initial language-general processing mechanism that primarily focuses on the presence of pauses to a language-specific processing that takes into account prosodic properties available in the ambient language. The developmental pattern is discussed as an interplay of acoustic salience, prosodic typology (prosodic regularity) and cue reliability. N2 - Die Dissertation befasst sich mit der Bedeutung individueller prosodischer Hinweise für die Wahrnehmung einer prosodischen Phrasengrenze bei deutschsprachig aufwachsenden Säuglingen. In drei Studien wurde mit behavioralen Untersuchungen der Frage nachgegangen, welche Bedeutung die akustischen Merkmale Tonhöhenveränderung, finale Dehnung und das Auftreten von Pausen für die Erkennung einer prosodischen Grenze haben. Zudem wurde hinterfragt, ob sich die Sensitivität für diese prosodischen Grenzmarkierungen im ersten Lebensjahr verändert und einer perzeptuellen Reorganisation, also einer Anpassung an die Muttersprache (Attunement Theorie, Aslin & Pisoni, 1980), unterliegt. Mithilfe der Headturn Preference Procedure wurde getestet, ob 6 und 8 Monate alte Deutsch lernende Säuglinge zwei verschiedene prosodische Gruppierungen einer Aufzählung von Namen diskriminieren können (mit oder ohne eine interne prosodische Grenze, [Moni und Lilli] [und Manu] vs. [Moni und Lilli und Manu]). Die Grenze wurde bezüglich des Auftretens einzelner prosodischer Hinweise oder Kombinationen von Hinweisen systematisch variiert. Die Ergebnisse zeigen, dass sowohl 6 als auch 8 Monate alte Deutsch lernende Säuglinge die interne prosodische Grenze in der Aufzählung erkennen, wenn sie durch alle drei Hinweise – Tonhöhenveränderung, finale Dehnung und das Auftreten einer Pause – markiert ist. Darüber hinaus zeigte sich, dass für 8, aber nicht für 6, Monate alte Säuglinge die Kombination aus Tonhöhe und finaler Dehnung ohne Pause ausreichend ist. 6 Monate alte Säuglinge erkennen eine Grenze, wenn sie durch eine Pause und finale Dehnung markiert ist. Damit zeigt sich eine Entwicklung der Sensitivität für prosodische Grenzmarkierungen von 6 zu 8 Monaten – weg von der Notwendigkeit der Pause hin zu einer differenzierten Wahrnehmung subtiler Hinweise wie Tonhöhe und finale Dehnung. Weder für 6 noch für 8 Monate alte Säuglinge ist die Markierung durch einen einzelnen Hinweis (Tonhöhe oder finale Dehnung) ausreichend. Dies deckt sich mit dem Verhaltensmuster erwachsener deutschsprachiger Hörer in einer Aufgabe zur prosodischen Strukturierung (Holzgrefe-Lang et al., 2016). Die vorgelegte Dissertation beleuchtet erstmalig für den frühen Erwerb des Deutschen die Bedeutung einzelner prosodischer Hinweise an Phrasengrenzen. Hierbei ist die Art der verwendeten Stimuli neu: phonologisch sorgfältig kontrollierte Aufzählungen von Namen, in denen einzelne prosodische Hinweise fein akustisch manipuliert werden können. Zudem kann dieses Material ideal in Untersuchungen mit anderen Methoden (z.B. EEG) eingesetzt werden und auf weitere Altersgruppen (Erwachsene) und andere Sprachen transferiert werden. Dies ermöglicht den direkten Vergleich der Ergebnisse zu denen anderer Studien mit ähnlichem Stimulusmaterial (Holzgrefe-Lang et al., 2016, 2018; van Ommen et al., 2020) und erlaubt die Interpretation einer sprachspezifischen Entwicklung. Das beobachtete Entwicklungsmuster wird als Produkt eines Wechselspiels von akustischer Salienz, prosodischer Typologie (prosodische Regularität) und Zuverlässigkeit eines prosodischen Hinweises (cue reliability) diskutiert. KW - prosody KW - language acquisition KW - infants KW - prosodic boundary cues KW - prosodic phrase boundary KW - perceptual attunement KW - Prosodie KW - Spracherwerb KW - Säuglinge KW - prosodische Grenzmarkierungen KW - prosodische Phrasengrenze KW - perzeptuelle Reorganisation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573937 ER - TY - THES A1 - Weißhuhn, Peter T1 - Assessing biotope vulnerability to landscape changes T1 - Bewertung der Vulnerabilität von Biotopen gegenüber Landschaftsveränderungen N2 - Largescale patterns of global land use change are very frequently accompanied by natural habitat loss. To assess the consequences of habitat loss for the remaining natural and semi-natural biotopes, inclusion of cumulative effects at the landscape level is required. The interdisciplinary concept of vulnerability constitutes an appropriate assessment framework at the landscape level, though with few examples of its application for ecological assessments. A comprehensive biotope vulnerability analysis allows identification of areas most affected by landscape change and at the same time with the lowest chances of regeneration. To this end, a series of ecological indicators were reviewed and developed. They measured spatial attributes of individual biotopes as well as some ecological and conservation characteristics of the respective resident species community. The final vulnerability index combined seven largely independent indicators, which covered exposure, sensitivity and adaptive capacity of biotopes to landscape changes. Results for biotope vulnerability were provided at the regional level. This seems to be an appropriate extent with relevance for spatial planning and designing the distribution of nature reserves. Using the vulnerability scores calculated for the German federal state of Brandenburg, hot spots and clusters within and across the distinguished types of biotopes were analysed. Biotope types with high dependence on water availability, as well as biotopes of the open landscape containing woody plants (e.g., orchard meadows) are particularly vulnerable to landscape changes. In contrast, the majority of forest biotopes appear to be less vulnerable. Despite the appeal of such generalised statements for some biotope types, the distribution of values suggests that conservation measures for the majority of biotopes should be designed specifically for individual sites. Taken together, size, shape and spatial context of individual biotopes often had a dominant influence on the vulnerability score. The implementation of biotope vulnerability analysis at the regional level indicated that large biotope datasets can be evaluated with high level of detail using geoinformatics. Drawing on previous work in landscape spatial analysis, the reproducible approach relies on transparent calculations of quantitative and qualitative indicators. At the same time, it provides a synoptic overview and information on the individual biotopes. It is expected to be most useful for nature conservation in combination with an understanding of population, species, and community attributes known for specific sites. The biotope vulnerability analysis facilitates a foresighted assessment of different land uses, aiding in identifying options to slow habitat loss to sustainable levels. It can also be incorporated into planning of restoration measures, guiding efforts to remedy ecological damage. Restoration of any specific site could yield synergies with the conservation objectives of other sites, through enhancing the habitat network or buffering against future landscape change. Biotope vulnerability analysis could be developed in line with other important ecological concepts, such as resilience and adaptability, further extending the broad thematic scope of the vulnerability concept. Vulnerability can increasingly serve as a common framework for the interdisciplinary research necessary to solve major societal challenges. N2 - Weltweit wurden in den vergangenen Jahrzehnten massive Veränderungen in der Landnutzung vorgenommen. Diese gingen meistens mit dem Verlust natürlicher Habitate einher. Um die Folgen auf die verbliebenen naturnahen Biotope zu bewerten, sind Analyseinstrumente notwendig, die neben einzelnen Flächen auch kumulative Effekte auf der Landschaftsebene einbeziehen. Das interdisziplinäre Konzept der Vulnerabilität kann einem solchen Analyseinstrument den Rahmen bieten. Bisher wurde es kaum für die Bewertung ökologischer Systeme herangezogen. Dabei kann eine flächendeckende Biotop-Vulnerabilitätsanalyse jene Gebiete identifizieren, die vom Landschaftswandel am stärksten betroffen sind und die gleichzeitig die geringsten Erholungsaussichten aufweisen. Dazu wurde eine Reihe ökologischer Indikatoren gesichtet und entwickelt, um die drei Vulnerabilitätsgrößen Exposition, Sensitivität und Anpassungskapazität abzudecken. Dabei wurden die Lagebeziehungen einzelner Biotope sowie die Eigenschaften der jeweils ansässigen Artengemeinschaft ausgewertet. Der errechnete Index kombiniert sieben voneinander weitestgehend unabhängige Indikatoren und stellt eine Übersicht der Biotop-Vulnerabilität dar. Liegt eine flächendeckende Vulnerabilitätsbewertung vor, können räumliche Häufungen von hohen Werten sowie die Verteilung der besonders hohen und besonders niedrigen Werte über die Biotoptypen hinweg analysiert werden. Dies erscheint besonders sinnvoll für Flächengrößen mit Relevanz für die Raumplanung und die Verteilung der Naturschutzflächen. Es stellte sich heraus, dass in der Planungsregion Brandenburg vor allem die Biotope mit hoher Abhängigkeit von der Wasserverfügbarkeit, sowie die Gehölze enthaltenden Offenlandbiotope (z.B. Streuobstwiesen) besonders vulnerabel gegenüber Landschaftsveränderungen sind. Im Gegensatz dazu erscheint die Mehrheit der Waldbiotope weniger verwundbar zu sein. Trotz der Möglichkeit zur Ableitung solcher verallgemeinerten Aussagen für einige Biotoptypen legt die Werteverteilung nahe, Naturschutzmaßnahmen mehrheitlich spezifisch für einzelne Flächen zu entwerfen. Größe, Form und räumlicher Kontext einzelner Biotopflächen üben zusammengenommen häufig einen dominanten Einfluss auf die Vulnerabilität gegenüber Landschaftsveränderungen aus. Die Demonstration der Biotop-Vulnerabilitätsanalyse auf regionaler Ebene zeigt, dass mit Methoden der Geoinformatik auch große Biotop-Datensätze detailliert ausgewertet werden können. Die damit erzielte naturschutzfachliche Analyse basiert auf transparent berechneten qualitativen und quantitativen Indikatoren und ist damit vollständig nachvollziehbar. Sie bietet gleichzeitig einen großräumigen Überblick sowie Informationen zu den einzelnen Biotopflächen. Mit der Vulnerabilitätsanalyse von Biotopen wird die vorausschauende Abwägung zwischen verschiedenen Landnutzungen erleichtert. Dies kann dazu beitragen, dass der Habitatverlust in Zukunft auf ein nachhaltigeres Maß gebremst wird. Auch kann eine solche Biotopbewertung in die Planung von Renaturierungsmaßnahmen einfließen, um ökologische Schäden zunächst dort zu beheben, wo große Synergieeffekte im Biotopverbund und mit anderen Naturschutzzielen zu erwarten sind. Die Biotop-Vulnerabilitätsanalyse konnte im Einklang mit wichtigen ökologischen Konzepten wie Resilienz und Anpassungsfähigkeit entwickelt werden. Sie erweitert damit den ohnehin breiten thematischen Anwendungsbereich des Vulnerabilitätskonzepts. Somit kann Vulnerabilität zunehmend als Brückenkonzept dienen und der zur Lösung der großen gesellschaftlichen Herausforderungen notwendigen interdisziplinären Forschung einen gemeinsamen Rahmen geben. KW - vulnerability KW - biotope KW - habitat KW - index KW - landscape KW - spatial ecology KW - landscape ecology KW - Vulnerabilität KW - Biotop KW - Habitat KW - Index KW - Landschaft KW - raumbezogene Ökologie KW - Landschaftsökologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442777 ER - TY - THES A1 - Weißenberger, Martin T1 - Start-up subsidies for the unemployed - New evaluation approaches and insights T1 - Gründungsförderung für Arbeitslose - Neue Evaluationsansätze und -ergebnisse N2 - Start-up incentives targeted at unemployed individuals have become an important tool of the Active Labor Market Policy (ALMP) to fight unemployment in many countries in recent years. In contrast to traditional ALMP instruments like training measures, wage subsidies, or job creation schemes, which are aimed at reintegrating unemployed individuals into dependent employment, start-up incentives are a fundamentally different approach to ALMP, in that they intend to encourage and help unemployed individuals to exit unemployment by entering self-employment and, thus, by creating their own jobs. In this sense, start-up incentives for unemployed individuals serve not only as employment and social policy to activate job seekers and combat unemployment but also as business policy to promote entrepreneurship. The corresponding empirical literature on this topic so far has been mainly focused on the individual labor market perspective, however. The main part of the thesis at hand examines the new start-up subsidy (“Gründungszuschuss”) in Germany and consists of four empirical analyses that extend the existing evidence on start-up incentives for unemployed individuals from multiple perspectives and in the following directions: First, it provides the first impact evaluation of the new start-up subsidy in Germany. The results indicate that participation in the new start-up subsidy has significant positive and persistent effects on both reintegration into the labor market as well as the income profiles of participants, in line with previous evidence on comparable German and international programs, which emphasizes the general potential of start-up incentives as part of the broader ALMP toolset. Furthermore, a new innovative sensitivity analysis of the applied propensity score matching approach integrates findings from entrepreneurship and labor market research about the key role of an individual’s personality on start-up decision, business performance, as well as general labor market outcomes, into the impact evaluation of start-up incentives. The sensitivity analysis with regard to the inclusion and exclusion of usually unobserved personality variables reveals that differences in the estimated treatment effects are small in magnitude and mostly insignificant. Consequently, concerns about potential overestimation of treatment effects in previous evaluation studies of similar start-up incentives due to usually unobservable personality variables are less justified, as long as the set of observed control variables is sufficiently informative (Chapter 2). Second, the thesis expands our knowledge about the longer-term business performance and potential of subsidized businesses arising from the start-up subsidy program. In absolute terms, the analysis shows that a relatively high share of subsidized founders successfully survives in the market with their original businesses in the medium to long run. The subsidy also yields a “double dividend” to a certain extent in terms of additional job creation. Compared to “regular”, i.e., non-subsidized new businesses founded by non-unemployed individuals in the same quarter, however, the economic and growth-related impulses set by participants of the subsidy program are only limited with regard to employment growth, innovation activity, or investment. Further investigations of possible reasons for these differences show that differential business growth paths of subsidized founders in the longer run seem to be mainly limited by higher restrictions to access capital and by unobserved factors, such as less growth-oriented business strategies and intentions, as well as lower (subjective) entrepreneurial persistence. Taken together, the program has only limited potential as a business and entrepreneurship policy intended to induce innovation and economic growth (Chapters 3 and 4). And third, an empirical analysis on the level of German regional labor markets yields that there is a high regional variation in subsidized start-up activity relative to overall new business formation. The positive correlation between regular start-up intensity and the share among all unemployed individuals who participate in the start-up subsidy program suggests that (nascent) unemployed founders also profit from the beneficial effects of regional entrepreneurship capital. Moreover, the analysis of potential deadweight and displacement effects from an aggregated regional perspective emphasizes that the start-up subsidy for unemployed individuals represents a market intervention into existing markets, which affects incumbents and potentially produces inefficiencies and market distortions. This macro perspective deserves more attention and research in the future (Chapter 5). N2 - Die Gründungsförderung für Arbeitslose ist inzwischen in vielen Ländern fester Bestandteil der Aktiven Arbeitsmarktpolitik (ALMP) zur Bekämpfung der Arbeitslosigkeit. Im Gegensatz zu traditionellen ALMP-Instrumenten wie Fortbildungs- und Qualifikationsmaßnahmen, Lohnsubventionen oder Arbeitsbeschaffungsmaßnahmen ist das Ziel der Gründungsförderung keine Wiedereingliederung der Arbeitslosen in eine abhängige Beschäftigung, sondern ein Arbeitsmarktwiedereintritt in Selbständigkeit. Somit verfolgt dieses Instrument als ALMP-Maßnahme grundsätzlich nicht nur arbeitsmarkt- und sozialpolitische Ziele, sondern stellt indirekt auch eine Politik zur allgemeinen Förderung von Entrepreneurship und Existenzgründungen dar. Die zugehörige empirische Literatur war in der Vergangenheit jedoch hauptsächlich auf individuelle Arbeitsmarkteffekte dieser Programme konzentriert. Die vorliegende Dissertation beschäftigt sich eingehend mit dem deutschen Gründungszuschuss und besteht aus vier eigenständigen empirischen Studien, die die bestehende Evidenz zu Gründungsförderprogrammen für Arbeitslose durch folgende neue Erkenntnisse aus verschiedenen Perspektiven ergänzen und erweitern: Erstens zeigt die erstmalige kausale Wirkungsanalyse des Gründungszuschusses, dass das untersuchte Programm positive und langfristig anhaltende individuelle Fördereffekte auf Arbeitsmarktreintegration und Erwerbseinkommen für teilnehmende Arbeitslose aufweist. Die sehr vorteilhaften empirischen Befunde bestätigen ähnliche nationale und internationale Ergebnisse zu vergleichbaren Programmen und setzen sich damit von den insgesamt durchwachsenen Evaluationsergebnissen traditioneller ALMP-Maßnahmen ab. Dies unterstreicht das grundsätzliche Potential der Gründungsförderung von Arbeitslosen im Rahmen des ALMP-Instrumentariums. Eine innovative Sensitivitätsanalyse des verwendeten Propensity Score Matching Ansatzes ergibt zudem, dass die Ergebnisse der Programmevaluation nur geringfügig auf die (Nicht-)Berücksichtigung von üblicherweise unbeobachteten Persönlichkeitsvariablen reagieren, deren starker Einfluss auf Gründungsentscheidungen, Unternehmensentwicklungen und Arbeitsmarkterfolge in der Literatur breit dokumentiert ist. Die Gefahr und das Ausmaß einer potentiellen Verzerrung der Ergebnisse durch das Auslassen dieser Persönlichkeitsmerkmalen ist somit bei vergleichbaren Studien grundsätzlich als eher gering einzustufen, sofern die Liste der übrigen Kontrollvariablen informativ genug ist (Kapitel 2). Zweitens zeigt die empirische Analyse der Entrepreneurship-Perspektive, dass ein hoher Anteil an den durch den Gründungszuschuss geförderten Gründungen aus Arbeitslosigkeit auch mittel- bis langfristig erfolgreich im Markt etabliert ist und eine „doppelte Dividende“ der Förderung in Form von zusätzlicher Beschäftigung in den Unternehmen in begrenztem Umfang erzielt wird. Allerdings sind die geförderten Unternehmungen im Vergleich zu „regulären“ Gründungen, die von nicht-arbeitslosen Gründerpersonen im gleichen Quartal gegründet wurden, unterdurchschnittlich innovativ, investieren weniger und setzen geringere Impulse für Wachstum. Weiterführende Untersuchungen zeigen auf, dass mögliche Gründe dafür Restriktionen bei der Kapitalbeschaffung, weniger wachstums- und innovationsorientierte Unternehmensvorhaben und -strategien, sowie eine weniger stark ausgeprägte unternehmerische (subjektive) Persistenz bei einem Teil der arbeitslosen Gründer sind. Dies impliziert, dass sich die Gründungsförderung von Arbeitslosen nur in bedingtem Maße als Entrepreneurship-Maßnahme im engeren Sinne eignet, die Wachstums- und Innovationspotenziale freisetzt (Kapitel 3 und 4). Drittens lässt sich anhand einer empirischen Analyse auf Ebene regionaler Arbeitsmärkte feststellen, dass eine hohe regionale Variation in der relativen Bedeutung der Gründungsförderung am gesamten Gründungsgeschehen besteht. Die positive Korrelation zwischen regulärer Gründungsaktivität und dem Anteil arbeitsloser Gründerpersonen an allen potentiell teilnahmeberechtigten Arbeitslosen deutet darauf hin, dass positive Effekte von regionalem Entrepreneurshipkapital auch für arbeitslose Gründerpersonen wirksam sind. Zudem zeigt die empirische Analyse potentieller Mitnahme- und Verdrängungseffekte, dass Gründungsförderungen für Arbeitslose immer auch Eingriffe in bestehende Märkte sind, die direkte Auswirkungen auf existierende Unternehmen haben. Diese Makro-Ebene insbesondere ist noch untererforscht und verdient weitere Aufmerksamkeit (Kapitel 5). KW - Gründungsförderung KW - Arbeitslosigkeit KW - Arbeitsmarktpolitik KW - Entrepreneurship KW - Gründungszuschuss KW - business support KW - unemployment KW - labor market policy KW - entrepreneurship KW - start-up subsidy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406362 ER -