TY - THES A1 - Müller, Melanie J. I. T1 - Bidirectional transport by molecular motors T1 - Bidirektionaler Transport durch molekulare Motoren N2 - In biological cells, the long-range intracellular traffic is powered by molecular motors which transport various cargos along microtubule filaments. The microtubules possess an intrinsic direction, having a 'plus' and a 'minus' end. Some molecular motors such as cytoplasmic dynein walk to the minus end, while others such as conventional kinesin walk to the plus end. Cells typically have an isopolar microtubule network. This is most pronounced in neuronal axons or fungal hyphae. In these long and thin tubular protrusions, the microtubules are arranged parallel to the tube axis with the minus ends pointing to the cell body and the plus ends pointing to the tip. In such a tubular compartment, transport by only one motor type leads to 'motor traffic jams'. Kinesin-driven cargos accumulate at the tip, while dynein-driven cargos accumulate near the cell body. We identify the relevant length scales and characterize the jamming behaviour in these tube geometries by using both Monte Carlo simulations and analytical calculations. A possible solution to this jamming problem is to transport cargos with a team of plus and a team of minus motors simultaneously, so that they can travel bidirectionally, as observed in cells. The presumably simplest mechanism for such bidirectional transport is provided by a 'tug-of-war' between the two motor teams which is governed by mechanical motor interactions only. We develop a stochastic tug-of-war model and study it with numerical and analytical calculations. We find a surprisingly complex cooperative motility behaviour. We compare our results to the available experimental data, which we reproduce qualitatively and quantitatively. N2 - In biologischen Zellen transportieren molekulare Motoren verschiedenste Frachtteilchen entlang von Mikrotubuli-Filamenten. Die Mikrotubuli-Filamente besitzen eine intrinsische Richtung: sie haben ein "Plus-" und ein "Minus-"Ende. Einige molekulare Motoren wie Dynein laufen zum Minus-Ende, während andere wie Kinesin zum Plus-Ende laufen. Zellen haben typischerweise ein isopolares Mikrotubuli-Netzwerk. Dies ist besonders ausgeprägt in neuronalen Axonen oder Pilz-Hyphen. In diesen langen röhrenförmigen Ausstülpungen liegen die Mikrotubuli parallel zur Achse mit dem Minus-Ende zum Zellkörper und dem Plus-Ende zur Zellspitze gerichtet. In einer solchen Röhre führt Transport durch nur einen Motor-Typ zu "Motor-Staus". Kinesin-getriebene Frachten akkumulieren an der Spitze, während Dynein-getriebene Frachten am Zellkörper akkumulieren. Wir identifizieren die relevanten Längenskalen und charakterisieren das Stauverhalten in diesen Röhrengeometrien mit Hilfe von Monte-Carlo-Simulationen und analytischen Rechnungen. Eine mögliche Lösung für das Stauproblem ist der Transport mit einem Team von Plus- und einem Team von Minus-Motoren gleichzeitig, so dass die Fracht sich in beide Richtungen bewegen kann. Dies wird in Zellen tatsächlich beobachtet. Der einfachste Mechanismus für solchen bidirektionalen Transport ist ein "Tauziehen" zwischen den beiden Motor-Teams, das nur mit mechanischer Interaktion funktioniert. Wir entwickeln ein stochastisches Tauzieh-Modell, das wir mit numerischen und analytischen Rechnungen untersuchen. Es ergibt sich ein erstaunlich komplexes Motilitätsverhalten. Wir vergleichen unsere Resultate mit den vorhandenen experimentellen Daten, die wir qualitativ und quantitativ reproduzieren. KW - molekulare Motoren KW - bidirektionaler intrazellulärer Transport KW - Tauziehen KW - stochastische Prozesse KW - kooperative Phänomene KW - molecular motors KW - bidirectional intracellular transport KW - tug-of-war KW - stochastic processes KW - cooperative phenomena Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18715 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - THES A1 - Theves, Matthias T1 - Bacterial motility and growth in open and confined environments T1 - Bacterial motility and growth in open and confined environments N2 - In the presence of a solid-liquid or liquid-air interface, bacteria can choose between a planktonic and a sessile lifestyle. Depending on environmental conditions, cells swimming in close proximity to the interface can irreversibly attach to the surface and grow into three-dimensional aggregates where the majority of cells is sessile and embedded in an extracellular polymer matrix (biofilm). We used microfluidic tools and time lapse microscopy to perform experiments with the polarly flagellated soil bacterium Pseudomonas putida (P. putida), a bacterial species that is able to form biofilms. We analyzed individual trajectories of swimming cells, both in the bulk fluid and in close proximity to a glass-liquid interface. Additionally, surface related growth during the early phase of biofilm formation was investigated. In the bulk fluid, P.putida shows a typical bacterial swimming pattern of alternating periods of persistent displacement along a line (runs) and fast reorientation events (turns) and cells swim with an average speed around 24 micrometer per second. We found that the distribution of turning angles is bimodal with a dominating peak around 180 degrees. In approximately six out of ten turning events, the cell reverses its swimming direction. In addition, our analysis revealed that upon a reversal, the cell systematically changes its swimming speed by a factor of two on average. Based on the experimentally observed values of mean runtime and rotational diffusion, we presented a model to describe the spreading of a population of cells by a run-reverse random walker with alternating speeds. We successfully recover the mean square displacement and, by an extended version of the model, also the negative dip in the directional autocorrelation function as observed in the experiments. The analytical solution of the model demonstrates that alternating speeds enhance a cells ability to explore its environment as compared to a bacterium moving at a constant intermediate speed. As compared to the bulk fluid, for cells swimming near a solid boundary we observed an increase in swimming speed at distances below d= 5 micrometer and an increase in average angular velocity at distances below d= 4 micrometer. While the average speed was maximal with an increase around 15% at a distance of d= 3 micrometer, the angular velocity was highest in closest proximity to the boundary at d=1 micrometer with an increase around 90% as compared to the bulk fluid. To investigate the swimming behavior in a confinement between two solid boundaries, we developed an experimental setup to acquire three-dimensional trajectories using a piezo driven objective mount coupled to a high speed camera. Results on speed and angular velocity were consistent with motility statistics in the presence of a single boundary. Additionally, an analysis of the probability density revealed that a majority of cells accumulated near the upper and lower boundaries of the microchannel. The increase in angular velocity is consistent with previous studies, where bacteria near a solid boundary were shown to swim on circular trajectories, an effect which can be attributed to a wall induced torque. The increase in speed at a distance of several times the size of the cell body, however, cannot be explained by existing theories which either consider the drag increase on cell body and flagellum near a boundary (resistive force theory) or model the swimming microorganism by a multipole expansion to account for the flow field interaction between cell and boundary. An accumulation of swimming bacteria near solid boundaries has been observed in similar experiments. Our results confirm that collisions with the surface play an important role and hydrodynamic interactions alone cannot explain the steady-state accumulation of cells near the channel walls. Furthermore, we monitored the number growth of cells in the microchannel under medium rich conditions. We observed that, after a lag time, initially isolated cells at the surface started to grow by division into colonies of increasing size, while coexisting with a comparable smaller number of swimming cells. After 5:50 hours, we observed a sudden jump in the number of swimming cells, which was accompanied by a breakup of bigger clusters on the surface. After approximately 30 minutes where planktonic cells dominated in the microchannel, individual swimming cells reattached to the surface. We interpret this process as an emigration and recolonization event. A number of complementary experiments were performed to investigate the influence of collective effects or a depletion of the growth medium on the transition. Similar to earlier observations on another bacterium from the same family we found that the release of cells to the swimming phase is most likely the result of an individual adaption process, where syntheses of proteins for flagellar motility are upregulated after a number of division cycles at the surface. N2 - Bakterien sind einzellige Mikroorganismen, die sich in flüssigem Medium mit Hilfe von rotierenden Flagellen, länglichen Fasern aus Proteinen, schwimmend fortbewegen. In Gegenwart einer Grenzfläche und unter günstigen Umweltbedingungen siedeln sich Bakterien an der Oberfläche an und gehen in eine sesshafte Wachstumsphase über. Die Wachstumsphase an der Oberfläche ist gekennzeichnet durch das Absondern von klebrigen, nährstoffreichen extrazellulären Substanzen, welche die Verbindung der Bakterien untereinander und mit der Oberfläche verstärken. Die entstehenden Aggregate aus extrazellulärer Matrix und Bakterien werden als Biofilm bezeichnet. In der vorliegenden Arbeit untersuchten wir ein Bodenbakterium, Pseudomonas putida (P. putida), welches in wässriger Umgebung an festen Oberflächen Biofilme ausbildet. Wir benutzten photolithographisch hergestellte Mikrokanäle und Hochgeschwindigkeits-Videomikroskopie um die Bewegung schwimmender Zellen in verschiedenen Abständen zu einer Glasoberfläche aufzunehmen. Zusätzlich wurden Daten über das parallel stattfindende Wachstum der sesshaften Zellen an der Oberfläche aufgezeichnet. Die Analyse von Trajektorien frei schwimmender Zellen zeigte, dass sich Liniensegmente, entlang derer sich die Zellen in eine konstante Richtung bewegen, mit scharfen Kehrtwendungen mit einem Winkel von 180 Grad abwechseln. Dabei änderte sich die Schwimmgeschwindigket von einem zum nächsten Segment im Mittel um einen Faktor von 2. Unsere experimentellen Daten waren die Grundlage für ein mathematisches Modell zur Beschreibung der Zellbewegung mit alternierender Geschwindigkeit. Die analytische Lösung des Modells zeigt elegant, dass eine Population von Bakterien, welche zwischen zwei Geschwindigkeiten wechseln, signifikant schneller expandiert als eine Referenzpopulation mit Bakterien konstanter Schwimmgeschwindkeit. Im Vergleich zu frei schwimmenden Bakterien beobachteten wir in der Nähe der Oberfläche eine um 15% erhöhte Schwimmgeschwindigkeit der Zellen und eine um 90 % erhöhte Winkel-geschwindigkeit. Außerdem wurde eine signifikant höhere Zelldichte in der Nähe der Grenzfläche gemessen. Während sich der Anstieg in der Winkelgeschwindigkeit durch ein Drehmoment erklären lässt, welches in Oberflächennähe auf den rotierenden Zellkörper und die rotierenden Flagellen wirkt, kann die Beschleunigung und Akkumulation der Zellen bei dem beobachteten Abstand nicht durch existierende Theorien erklärt werden. Unsere Ergebnisse lassen vermuten, dass neben hydrodynamischen Effekten auch Kollisionen mit der Oberfläche eine wichtige Rolle spielen und sich die Rotationsgeschwindigkeit der Flagellenmotoren in der Nähe einer festen Oberfläche grundsätzlich verändert. Unsere Experimente zum Zellwachstum an Oberflächen zeigten, dass sich etwa sechs Stunden nach Beginn des Experiments größere Kolonien an der Kanaloberfläche auflösen und Zellen für ca. 30 Minuten zurück in die schwimmende Phase wechseln. Ergebnisse von mehreren Vergleichsexperimenten deuten darauf hin, dass dieser Übergang nach einer festen Anzahl von Zellteilungen an der Oberfläche erfolgt und nicht durch den Verbrauch des Wachstumsmediums bedingt wird. KW - Pseudomonas putida KW - Motilität KW - Flagellenbewegung KW - Random-Walk-Theorie KW - Schwimmende Mikroorganismen KW - pseudomonas putida KW - motility KW - flagellar filaments KW - random walk KW - cell tracking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70313 ER - TY - THES A1 - Prokhorov, Boris E. T1 - High-latitude coupling processes between thermospheric circulation and solar wind driven magnetospheric currents and plasma convection T1 - Kopplungsprozesse zwischen der thermosphärischen Zirkulation in hohen Breiten und den vom Sonnenwind getriebenen magnetosphärischen Strömen und der Plasmakonvektion N2 - The high-latitudinal thermospheric processes driven by the solar wind and Interplanetary Magnetic Field (IMF) interaction with the Earth magnetosphere are highly variable parts of the complex dynamic plasma environment, which represent the coupled Magnetosphere – Ionosphere – Thermosphere (MIT) system. The solar wind and IMF interactions transfer energy to the MIT system via reconnection processes at the magnetopause. The Field Aligned Currents (FACs) constitute the energetic links between the magnetosphere and the Earth ionosphere. The MIT system depends on the highly variable solar wind conditions, in particular on changes of the strength and orientation of the IMF. In my thesis, I perform an investigation on the physical background of the complex MIT system using the global physical - numerical, three-dimensional, time-dependent and self-consistent Upper Atmosphere Model (UAM). This model describes the thermosphere, ionosphere, plasmasphere and inner magnetosphere as well as the electrodynamics of the coupled MIT system for the altitudinal range from 80 (60) km up to the 15 Earth radii. In the present study, I developed and investigated several variants of the high-latitudinal electrodynamic coupling by including the IMF dependence of FACs into the UAM model. For testing, the various variants were applied to simulations of the coupled MIT system for different seasons, geomagnetic activities, various solar wind and IMF conditions. Additionally, these variants of the theoretical model with the IMF dependence were compared with global empirical models. The modelling results for the most important thermospheric parameters like neutral wind and mass density were compared with satellite measurements. The variants of the UAM model with IMF dependence show a good agreement with the satellite observations. In comparison with the empirical models, the improved variants of the UAM model reproduce a more realistic meso-scale structures and dynamics of the coupled MIT system than the empirical models, in particular at high latitudes. The new configurations of the UAM model with IMF dependence contribute to the improvement of space weather prediction. N2 - Die thermosphärischen Prozesse in hohen Breiten, die durch die Wechselwirkung des Sonnenwinds und des Interplanetaren Magnetfeldes (IMF) mit der Erdmagnetosphäre getrieben werden, stellen sich als stark veränderliches Geschehen in der komplexen dynamischen Plasmaumgebung der Erde dar, die das gekoppelte System der Magnetosphäre, Ionosphäre und Thermosphäre (MIT) umfaßt. Die Einflüsse des Sonnenwindes und des IMF zeigen sich als Energieübertragung in das MIT System mittels Rekonnektionsprozessen an der Magnetopause. Feldliniengerichtete Ströme (FACs) repräsentieren die energetische Kopplung zwischen der Magnetosphäre und der Ionosphäre der Erde. Das MIT System wird bestimmt durch die stark veränderlichen Sonnenwindbedingungen, insbesondere von der Stärke und Richtung des IMF. In meiner Promotionsschrift untersuche ich die physikalischen Bedingungen des komplexen MIT System mit Hilfe eines globalen physikalisch-numerischen, dreidimensionalen, zeitabhängigen und selbstkonsistenten Modells, dem Upper Atmosphere Model (UAM). Das UAM beschreibt das Verhalten der Thermosphäre, Ionosphäre, Plasmasphäre und der inneren Magnetosphäre in einem Höhenbereich zwischen 80 (60) km und 15 Erdradien sowie die elektrodynamische Verkopplung des gesamten MIT Systems. In der vorliegenden Arbeit habe ich mehrere Varianten der elektrodynamischen Kopplung in hohen Breiten entwickelt und analysiert, die die FACs innerhalb des UAM in ihrer Abhängigkeit vom IMF darstellen. Für Testzwecke wurden diese Varianten auf eine Reihe von numerischen Simulationen des gekoppelten MIT Systems unter verschiedenen Bedingungen hinsichtlich Jahreszeit, geomagnetischer Aktivität, Sonnenwind- und IMF-Parametern angewandt. Darüberhinaus wurden diese Varianten des IMF-abhängigen theoretischen Modells entsprechenden globalen empirischen Modellen gegenübergestellt. Modellergebnisse wurden außerdem mit einigen wichtigen von Satelliten gemessenen Thermosphärenparametern, wie dem Neutralwind und der Massendichte verglichen. Die UAM Modelvarianten mit IMF-Abhängigkeit zeigen eine gute Übereinstimmung mit den Satellitenbeobachtungen. Im Vergleich mit empirischen Modellaussagen geben die UAM Modellvarianten ein genaueres Bild der mesoskaligen Strukturen und der Dynamik des gekoppelten MIT Systems wieder, insbesondere für die hohen Breiten. Die neuen UAM Konfigurationen mit IMF-Abhängigkeit tragen damit zu verbesserten Möglichkeiten in der Weltraumwettervorhersage bei. KW - upper atmosphere model KW - high-latitudinal thermosphere KW - magnetosphere-ionosphere-thermosphere coupling KW - solar wind and interplanetary magnetic field influence KW - field aligned currents KW - Upper Atmosphere Model (UAM) KW - Thermosphäre hoher Breiten KW - Kopplung zwischen Magnetosphäre, Ionosphäre und Thermosphäre KW - Einfluß des Sonnenwindes und des interplanetaren magnetischen Feldes KW - feldlinengerichtete Ströme Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92353 ER - TY - THES A1 - Breuer, David T1 - The plant cytoskeleton as a transportation network T1 - Modellierung des pflanzliche Zytoskeletts als Transportnetzwerk N2 - The cytoskeleton is an essential component of living cells. It is composed of different types of protein filaments that form complex, dynamically rearranging, and interconnected networks. The cytoskeleton serves a multitude of cellular functions which further depend on the cell context. In animal cells, the cytoskeleton prominently shapes the cell's mechanical properties and movement. In plant cells, in contrast, the presence of a rigid cell wall as well as their larger sizes highlight the role of the cytoskeleton in long-distance intracellular transport. As it provides the basis for cell growth and biomass production, cytoskeletal transport in plant cells is of direct environmental and economical relevance. However, while knowledge about the molecular details of the cytoskeletal transport is growing rapidly, the organizational principles that shape these processes on a whole-cell level remain elusive. This thesis is devoted to the following question: How does the complex architecture of the plant cytoskeleton relate to its transport functionality? The answer requires a systems level perspective of plant cytoskeletal structure and transport. To this end, I combined state-of-the-art confocal microscopy, quantitative digital image analysis, and mathematically powerful, intuitively accessible graph-theoretical approaches. This thesis summarizes five of my publications that shed light on the plant cytoskeleton as a transportation network: (1) I developed network-based frameworks for accurate, automated quantification of cytoskeletal structures, applicable in, e.g., genetic or chemical screens; (2) I showed that the actin cytoskeleton displays properties of efficient transport networks, hinting at its biological design principles; (3) Using multi-objective optimization, I demonstrated that different plant cell types sustain cytoskeletal networks with cell-type specific and near-optimal organization; (4) By investigating actual transport of organelles through the cell, I showed that properties of the actin cytoskeleton are predictive of organelle flow and provided quantitative evidence for a coordination of transport at a cellular level; (5) I devised a robust, optimization-based method to identify individual cytoskeletal filaments from a given network representation, allowing the investigation of single filament properties in the network context. The developed methods were made publicly available as open-source software tools. Altogether, my findings and proposed frameworks provide quantitative, system-level insights into intracellular transport in living cells. Despite my focus on the plant cytoskeleton, the established combination of experimental and theoretical approaches is readily applicable to different organisms. Despite the necessity of detailed molecular studies, only a complementary, systemic perspective, as presented here, enables both understanding of cytoskeletal function in its evolutionary context as well as its future technological control and utilization. N2 - Das Zytoskelett ist ein notwendiger Bestandteil lebender Zellen. Es besteht aus verschiedenen Arten von Proteinfilamenten, die ihrerseits komplexe, sich dynamisch reorganisierende und miteinander verknüpfte Netzwerke bilden. Das Zytoskelett erfüllt eine Vielzahl von Funktionen in der Zelle. In Tierzellen bestimmt das Aktin-Zytoskelett maßgeblich die mechanischen Zelleigenschaften und die Zellbewegung. In Pflanzenzellen hingegen kommt dem Aktin-Zytoskelett eine besondere Bedeutung in intrazellulären Transportprozessen zu, bedingt insbesondere durch die starre pflanzliche Zellwand sowie die Zellgröße. Als wesentlicher Faktor für Zellwachstum und somit auch die Produktion von Biomasse, ist Zytoskelett-basierter Transport daher von unmittelbarer ökologischer und ökonomischer Bedeutung. Während das Wissen über die molekularen Grundlagen Zytoskelett-basierter Transportprozesse beständig wächst, sind die zugrunde liegenden Prinzipien zellweiter Organisation bisher weitgehend unbekannt. Diese Dissertation widmet sich daher folgender Frage: Wie hängt die komplexe Architektur des pflanzlichen Zytoskeletts mit seiner intrazellulären Transportfunktion zusammen? Eine Antwort auf diese Frage erfordert eine systemische Perspektive auf Zytoskelettstruktur und -transport. Zu diesem Zweck habe ich Mikroskopiedaten mit hoher raumzeitlicher Auflösung sowie Computer-gestützte Bildanalysen und mathematische Ansätzen der Graphen- und Netzwerktheorie kombiniert. Die vorliegende Dissertation umfasst fünf meiner Publikationen, die sich einem systemischen Verständnis des pflanzlichen Zytoskeletts als Transportnetzwerk widmen: (1) Dafür habe ich Bilddaten-basierte Netzwerkmodelle entwickelt, die eine exakte und automatisierte Quantifizierung der Architektur des Zytoskeletts ermöglichen. Diese Quantifizierung kann beispielsweise in genetischen oder chemischen Versuchen genutzt werden und für eine weitere Erforschung der genetischen Grundlagen und möglicher molekularer Interaktionspartner des Zytoskeletts hilfreich sein; (2) Ich habe nachgewiesen, dass das pflanzliche Aktin-Zytoskelett Eigenschaften effizienter Transportnetzwerk aufweist und Hinweise auf seine evolutionären Organisationsprinzipien liefert; (3) Durch die mathematische Optimierung von Transportnetzwerken konnte ich zeigen, dass unterschiedliche Pflanzenzelltypen spezifische und optimierte Organisationsstrukturen des Aktin-Zytoskeletts aufweisen; (4) Durch quantitative Analyse des Transports von Organellen in Pflanzenzellen habe ich nachgewiesen, dass sich Transportmuster ausgehend von der Struktur des Aktin-Zytoskeletts vorhersagen lassen. Dabei spielen sowohl die Organisation des Zytoskeletts auf Zellebene als auch seine Geometrie eine zentrale Rolle. (5) Schließlich habe ich eine robuste, optimierungs-basierte Methode entwickelt, die es erlaubt, individuelle Filamente eines Aktin-Netzwerks zu identifizieren. Dadurch ist es möglich, die Eigenschaften einzelner Zytoskelettfilamente im zellulären Kontext zu untersuchen. Die im Zuge dieser Dissertation entwickelten Methoden wurden frei und quelloffen als Werkzeuge zur Beantwortung verwandter Fragestellung zugänglich gemacht. Insgesamt liefern die hier präsentierten Ergebnisse und entwickelten Methoden quantitative, systemische Einsichten in die Transportfunktion des Zytoskeletts. Die hier etablierte Kombination von experimentellen und theoretischen Ansätzen kann, trotz des Fokusses auf das pflanzliche Zytoskelett, direkt auf andere Organismen angewendet werden. Als Ergänzung molekularer Studien bildet ein systemischer Blickwinkel, wie er hier entwickelt wurde, die Grundlage für ein Verständnis sowohl des evolutionären Kontextes als auch zukünftiger Kontroll- und Nutzungsmöglichkeiten des pflanzlichen Zytoskeletts. KW - systems biology KW - mathematical modeling KW - cytoskeleton KW - plant science KW - graph theory KW - image analysis KW - Systembiologie KW - mathematische Modellierung KW - Zytoskelett KW - Zellbiologie KW - Graphtheorie KW - Bildanalyse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93583 ER - TY - THES A1 - Schröder, Henning T1 - Ultrafast electron dynamics in Fe(CO)5 and Cr(CO)6 T1 - Ultraschnelle Elektronendynamik in Fe(CO)5 und Cr(CO)6 N2 - In this thesis, the two prototype catalysts Fe(CO)₅ and Cr(CO)₆ are investigated with time-resolved photoelectron spectroscopy at a high harmonic setup. In both of these metal carbonyls, a UV photon can induce the dissociation of one or more ligands of the complex. The mechanism of the dissociation has been debated over the last decades. The electronic dynamics of the first dissociation occur on the femtosecond timescale. For the experiment, an existing high harmonic setup was moved to a new location, was extended, and characterized. The modified setup can induce dynamics in gas phase samples with photon energies of 1.55eV, 3.10eV, and 4.65eV. The valence electronic structure of the samples can be probed with photon energies between 20eV and 40eV. The temporal resolution is 111fs to 262fs, depending on the combination of the two photon energies. The electronically excited intermediates of the two complexes, as well as of the reaction product Fe(CO)₄, could be observed with photoelectron spectroscopy in the gas phase for the first time. However, photoelectron spectroscopy gives access only to the final ionic states. Corresponding calculations to simulate these spectra are still in development. The peak energies and their evolution in time with respect to the initiation pump pulse have been determined, these peaks have been assigned based on literature data. The spectra of the two complexes show clear differences. The dynamics have been interpreted with the assumption that the motion of peaks in the spectra relates to the movement of the wave packet in the multidimensional energy landscape. The results largely confirm existing models for the reaction pathways. In both metal carbonyls, this pathway involves a direct excitation of the wave packet to a metal-to-ligand charge transfer state and the subsequent crossing to a dissociative ligand field state. The coupling of the electronic dynamics to the nuclear dynamics could explain the slower dissociation in Fe(CO)₅ as compared to Cr(CO)₆. N2 - Diese Dissertation handelt von der Untersuchung der zwei Modell-Katalysatoren Fe(CO)₅ und Cr(CO)₆ mittels zeitaufgelöster Photoelektronen Spektroskopie an einem High Harmonic Setup. In beiden Metallcarbonyl kann die Dissoziation von einem, oder mehreren Liganden durch ein UV Photon ausgelöst werden. Der Dissoziation-Mechanismus wurde in den letzten Jahrzehnten diskutiert. Die Abspaltung des ersten Liganden und die damit verbundenen elektronischen Dynamiken finden auf Zeitskalen von Femtosekunden statt. Für die Durchführung dieses Experiments wurde ein bestehender High Harmonic Setup in ein neues Labor verlegt. Der Aufbau wurde erweitert und charakterisiert. Mit dem modifizierten Aufbau können nun Reaktionen in Gas-Phasen-Proben mit Photonenenergien von 1.55eV, 3.10eV und 4.65eV ausgelöst werden. Dabei kann die Valenz-Elektronen-Struktur mit Photonenenergien zwischen 20eV und 40eV untersucht werden. Die Zeitauflösung liegt im Bereich von 111fs bis 262fs und hängt von der Kombination der zwei Photonenenergien ab. Die beiden Komplexe sowie Fe(CO)₄ konnten in der Gas-Phase zum ersten Mal in elektronisch angeregten Zuständen mittels zeitaufgelöster Photoelektronenspektroskopie beobachtet werden. Im Allgemeinen kann jedoch mit der Photoelektronenspektroskopie nur der ionische Endzustand untersucht werden. Modellrechnungen zu den Spektren und die Entwicklung der dazugehörigen Theorie befinden derzeit noch in der Entwicklungsphase. Die Peaks in den Spektren konnten anhand von Literatur zugeordnet werden. Die Spektren der beiden Komplexe unterscheiden sich deutlich. Zu deren Interpretation wurde die Näherung verwendet, dass die Dynamik der Peaks in den Spektren die Bewegung des Wellenpakets in der multidimensionalen Energielandschaft darstellt. Die neuen Daten bestätigen weitestgehend bestehende Modelle für die Reaktionsmechanismen. Der Reaktionsmechanismus verläuft für beide Metallcarbonyle über eine direkte Anregung des Wellenpakets in einen metal-to-ligand charge transfer Zustand. Von dem angeregten Zustand aus kann das Wellenpaket in den dissoziativen ligand field Zustand wechseln. Dass die Reaktion in Fe(CO)₅ langsamer als in Cr(CO)₆ abläuft, kann durch die Kopplung der Dynamiken von Elektronen und Kernen erklärt werden. KW - dissertation KW - Dissertation KW - photo electron spectroscopy KW - physical chemistry KW - molecular dynamics KW - high harmonic generation KW - iron pentacarbonyl KW - chromium hexacarbonyl KW - metal carbonyls KW - ultrafast KW - dynamics KW - Photoelektronen KW - Spektroskopie KW - Moleküldynamik KW - high harmonic KW - Eisenpentacarbonyl KW - Chromhexacarbonyl KW - Photodissoziation KW - photodissociation KW - ligand KW - bond Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94589 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Gomez, David T1 - Mechanisms of biochemical reactions within crowded environments T1 - Mechanismus der Biochemische Reaktionen im vollgestopfte Umgebungen N2 - The cell interior is a highly packed environment in which biological macromolecules evolve and function. This crowded media has effects in many biological processes such as protein-protein binding, gene regulation, and protein folding. Thus, biochemical reactions that take place in such crowded conditions differ from diluted test tube conditions, and a considerable effort has been invested in order to understand such differences. In this work, we combine different computationally tools to disentangle the effects of molecular crowding on biochemical processes. First, we propose a lattice model to study the implications of molecular crowding on enzymatic reactions. We provide a detailed picture of how crowding affects binding and unbinding events and how the separate effects of crowding on binding equilibrium act together. Then, we implement a lattice model to study the effects of molecular crowding on facilitated diffusion. We find that obstacles on the DNA impair facilitated diffusion. However, the extent of this effect depends on how dynamic obstacles are on the DNA. For the scenario in which crowders are only present in the bulk solution, we find that at some conditions presence of crowding agents can enhance specific-DNA binding. Finally, we make use of structure-based techniques to look at the impact of the presence of crowders on the folding a protein. We find that polymeric crowders have stronger effects on protein stability than spherical crowders. The strength of this effect increases as the polymeric crowders become longer. The methods we propose here are general and can also be applied to more complicated systems. N2 - Innerhalb einer Zelle, im Zytosol, entstehen und arbeiten sehr viele biologische Makromoleküle. Die Dichte dieser Moleküle ist sehr hoch und dieses ‘vollgestopfte’ Zytosol hat vielfältige Auswirkungen auf viele biologische Prozessen wie zum Beispiel Protein-Protein Interaktionen, Genregulation oder die Faltung von Proteinen. Der Ablauf von vielen biochemische Reaktionen in dieser Umgebung weicht von denen unter verdünnte Laborbedingungen ab. Um die Effekte dieses ‘makromolekularen Crowdings’ zu verstehen, wurde in den letzten Jahren bereits viel Mühe investiert. In dieser Arbeit kombinieren wir verschiede Computermethoden, um die Wirkungen des ‘makromolekularen Crowdings’ auf biologische Prozesse besser zu verstehen. Zuerst schlagen wir ein Gittermodell vor, um damit die Effekte des ‘makromolekularen Crowdings’ auf enzymatische Reaktionen zu studieren. Damit stellen wir ein detailliertes Bild zusammen, wie Crowding die Assoziations- und Dissozotationsraten beeinflusst und wie verschiedene crowding-Effekte zusammen auf die Gleichgewichtskonstante wirken. Weiterhin implementieren wir ein Gittermodell der ‘erleichterte Diffusion’. Unsere Ergebnisse zeigen, dass Hindernisse an der DNA die vereinfachte Diffusion beeinträchtigen. Das Ausmass dieser Wirkung hängt dabei von der Dynamik der Hindernisse an der DNA ab. Im dem Fall dass Crowder ausschließlich in der Lösung vorhanden sind, erhöhen sich unter bestimmten Bedingungen DNA-spezifische Bindungen. Schließlich nutzten wir strukturbasierte Techniken um damit die Auswirkungen von Crowding auf die Faltung von Proteinen zu untersuchen. Wir fanden dabei, dass Polymer Crowder stärkere Wirkungen auf die Proteinstabilität haben als kugelförmige Crowder. Dieser Effekt verstärkte sich mit der Länge der untersuchten Polymere. Die Methoden die hier vorgeschlagen werden, sind generell anwendbar und können auch an deutlich komplexeren Systemen angewandt werden. KW - molecular crowding KW - gene expression KW - enzymatic activity KW - protein folding KW - Molecular crowding KW - enzymatische Reaktionen KW - Genregulation KW - Faltung von Proteinen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94593 ER - TY - THES A1 - Bittermann, Klaus T1 - Semi-empirical sea-level modelling T1 - Semiempirische Meeresspiegelmodellierung N2 - Semi-empirical sea-level models (SEMs) exploit physically motivated empirical relationships between global sea level and certain drivers, in the following global mean temperature. This model class evolved as a supplement to process-based models (Rahmstorf (2007)) which were unable to fully represent all relevant processes. They thus failed to capture past sea-level change (Rahmstorf et al. (2012)) and were thought likely to underestimate future sea-level rise. Semi-empirical models were found to be a fast and useful tool for exploring the uncertainties in future sea-level rise, consistently giving significantly higher projections than process-based models. In the following different aspects of semi-empirical sea-level modelling have been studied. Models were first validated using various data sets of global sea level and temperature. SEMs were then used on the glacier contribution to sea level, and to infer past global temperature from sea-level data via inverse modelling. Periods studied encompass the instrumental period, covered by tide gauges (starting 1700 CE (Common Era) in Amsterdam) and satellites (first launched in 1992 CE), the era from 1000 BCE (before CE) to present, and the full length of the Holocene (using proxy data). Accordingly different data, model formulations and implementations have been used. It could be shown in Bittermann et al. (2013) that SEMs correctly predict 20th century sea-level when calibrated with data until 1900 CE. SEMs also turned out to give better predictions than the Intergovernmental Panel on Climate Change (IPCC) 4th assessment report (AR4, IPCC (2007)) models, for the period from 1961–2003 CE. With the first multi-proxy reconstruction of global sea-level as input, estimate of the human-induced component of modern sea-level change and projections of future sea-level rise were calculated (Kopp et al. (2016)). It turned out with 90% confidence that more than 40 % of the observed 20th century sea-level rise is indeed anthropogenic. With the new semi-empirical and IPCC (2013) 5th assessment report (AR5) projections the gap between SEM and process-based model projections closes, giving higher credibility to both. Combining all scenarios, from strong mitigation to business as usual, a global sea-level rise of 28–131 cm relative to 2000 CE, is projected with 90% confidence. The decision for a low carbon pathway could halve the expected global sea-level rise by 2100 CE. Present day temperature and thus sea level are driven by the globally acting greenhouse-gas forcing. Unlike that, the Milankovich forcing, acting on Holocene timescales, results mainly in a northern-hemisphere temperature change. Therefore a semi-empirical model can be driven with northernhemisphere temperatures, which makes it possible to model the main subcomponent of sea-level change over this period. It showed that an additional positive constant rate of the order of the estimated Antarctic sea-level contribution is then required to explain the sea-level evolution over the Holocene. Thus the global sea level, following the climatic optimum, can be interpreted as the sum of a temperature induced sea-level drop and a positive long-term contribution, likely an ongoing response to deglaciation coming from Antarctica. N2 - Semiempirische Meeresspiegelmodelle (SEMe) nutzen die physikalisch motivierte, empirische Beziehung des globalen Meeresspiegels zu einem bestimmten Antrieb. Im Folgenden ist das die mittlere globale Temperatur. Diese Modellklasse entstand als Ergänzung zu prozeßbasierten Modellen, die nicht alle relevanten Prozesse abbilden konnten (Rahmstorf (2007)) und die deshalb weder den beobachteten Meeresspiegel erklären konnten (Rahmstorf et al. (2012)) noch vertrauenswürdige Zukunftsprojektionen lieferten. Semiempirische Modelle sind eine gute und schnelle Option, die Unsicherheit im zukünftigen Meeresspiegelanstieg auszuloten, wobei sie konsistent höhere Zukunftsprojektionen lieferten als prozeßbasierte Modelle. Im Folgenden wurden verschiedene Aspekte der semiempirischen Meeresspiegelmodellierung untersucht. Modelle wurden erst mit verschiedenen globalen Temperatur- und Meeresspiegeldatensätzen validiert. SEMe wurden dann auf den Meeresspiegelbeitrag von Gletschern angewandt und genutzt, um die globale Temperatur aus Meeresspiegeldaten abzuleiten. Die untersuchten Zeiträume variieren zwischen dem instrumentellen Abschnitt mit Pegelstandsmessungen (seit dem Jahr 1700 in Amsterdam) und Satellitendaten (seit 1992), dem Zeitraum seit 1000 vor Christus und dem gesamten Holozän (mittels Proxydaten). Entsprechend wurden verschiedene Daten, Modellformulierungen und -implementationen benutzt. Es konnte in Bittermann et al. (2013) gezeigt werden, dass SEMe den beobachteten Meeresspiegel des 20sten Jahrhunderts korrekt vorhersagen können, wenn sie bis zum Jahr 1900 kalibriert wurden. Auch für den Zeitraum 1961 bis 2003 lieferten SEMe bessere Vorhersagen als der vierte Sachstandsbericht des Intergovernmental Panel on Climate Change (AR4, IPCC (2007)). Mit der ersten globalen multi-proxy Rekonstruktion des globalen Meeresspiegels als Input konnten sowohl der anthropogene Anteil des modernen Meeresspiegelanstiegs als auch Zukunftsprojektionen berechnet werden (Kopp et al. (2016)). Es zeigt sich mit 90% Sicherheit, dass mehr als 40 % des beobachteten Meeresspiegelanstiegs im 20sten Jahrhundert anthropogenen Ursprungs sind. Mit den neuen semiempirischen Zukunftsprojektionen und denen des fünften Sachstandsberichtes (AR5) des IPCC (2013) läßt sich die Kluft zwischen SEMen und prozeßbasierten Modellen schließen, was beide vertrauenswürdiger macht. Über alle Szenarien hinweg, von starker Treibhausgaseinsparung bis zum ungebremsten Ausstoß, ergibt sich, mit 90% Sicherheit, zwischen 2000 und 2100 ein Meeresspiegelanstieg von 28 bis 131 cm. Die Entscheidung starker Treibhausgaseinsparungen kann den erwarteten globalen Meeresspiegelanstieg im Jahr 2100 halbieren. Die gegenwärtige globale Temperatur, und damit der globale Meeresspiegel, werden von dem global wirkenden Treibhausgasforcing bestimmt. Im Gegensatz dazu wirkt das orbitale Forcing, welches über Holozän-Zeitskalen dominiert, hauptsächlich auf die Nordhemisphäre. Deshalb kann man ein SEM mit Nordhemisphärentemperaturen antreiben und dadurch die Hauptkomponente der Meeresspiegeländerung über das Holozän simulieren. Es stellte sich heraus, dass eine zusätzliche konstante Rate, von der Größenordnung des antarktischen Beitrags zum Meeresspiegel, nötig ist, um den Meeresspiegelverlauf des Holozäns zu erklären. Der Meeresspiegel seit dem Holozän-Klimaoptimum kann also als eine Summe von temperaturbedingtem Fallen und einem langfristigen positiven Beitrag, wahrscheinlich einer andauernden Reaktion auf die Deglaziation der Antarktis, interpretiert werden. KW - sea level KW - Meeresspiegel KW - climate change KW - Klimawandel KW - projections KW - Projektionen KW - anthropogenic sea level KW - anthropogener Meeresspiegel KW - Holocene KW - Holozän KW - semi-empirical models KW - semiempirische Modelle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93881 ER - TY - THES A1 - Shenar, Tomer T1 - Comprehensive analyses of massive binaries and implications on stellar evolution T1 - Umfassende Analysen massereicher Doppelsterne und Implikationen für die Sternentwicklung N2 - Via their powerful radiation, stellar winds, and supernova explosions, massive stars (Mini & 8 M☉) bear a tremendous impact on galactic evolution. It became clear in recent decades that the majority of massive stars reside in binary systems. This thesis sets as a goal to quantify the impact of binarity (i.e., the presence of a companion star) on massive stars. For this purpose, massive binary systems in the Local Group, including OB-type binaries, high mass X-ray binaries (HMXBs), and Wolf-Rayet (WR) binaries, were investigated by means of spectral, orbital, and evolutionary analyses. The spectral analyses were performed with the non-local thermodynamic equillibrium (non-LTE) Potsdam Wolf-Rayet (PoWR) model atmosphere code. Thanks to critical updates in the calculation of the hydrostatic layers, the code became a state-of-the-art tool applicable for all types of hot massive stars (Chapter 2). The eclipsing OB-type triple system δ Ori served as an intriguing test-case for the new version of the PoWR code, and provided key insights regarding the formation of X-rays in massive stars (Chapter 3). We further analyzed two prototypical HMXBs, Vela X-1 and IGR J17544-2619, and obtained fundamental conclusions regarding the dichotomy of two basic classes of HMXBs (Chapter 4). We performed an exhaustive analysis of the binary R 145 in the Large Magellanic Cloud (LMC), which was claimed to host the most massive stars known. We were able to disentangle the spectrum of the system, and performed an orbital, polarimetric, and spectral analysis, as well as an analysis of the wind-wind collision region. The true masses of the binary components turned out to be significantly lower than suggested, impacting our understanding of the initial mass function and stellar evolution at low metallicity (Chapter 5). Finally, all known WR binaries in the Small Magellanic Cloud (SMC) were analyzed. Although it was theoretical predicted that virtually all WR stars in the SMC should be formed via mass-transfer in binaries, we find that binarity was not important for the formation of the known WR stars in the SMC, implying a strong discrepancy between theory and observations (Chapter 6). N2 - Durch ihre intensive Strahlung, Sternwinde und Supernovaexplosionen tragen massereiche Sterne (Minitial & 8 M☉) erheblich zur Entwicklung von Galaxien bei. In den letzten Jahren wurde es immer klarer, dass sich die Mehrheit der massereichen Sterne in Doppelsternsystemen befindet. Die vorliegende Doktorarbeit hat das Ziel, den Einfluss dieser Tatsache auf die Entwicklung massereicher Sterne quantitativ zu untersuchen. Um dies zu erreichen, haben wir eine Analyse der Umläufe, Spektren und Entwicklung verschiedener Doppelsternsysteme in der lokalen Gruppe durchgeführt, die OB-Sterne, massereicher Röntgendoppelsterne (HMXBs) und Wolf-Rayet-(WR)-Doppelsterne einschließt. Die Spektralanalyse wurde mithilfe des Potsdam-Wolf-Rayet-(PoWR)-Modellatmosphären-Programms für Strahlungstransport in Abwesenheit von lokalem thermodynamischen Gleichgewicht (non-LTE) durchgeführt. Das PoWR-Programm wurde im Laufe der Arbeit aktualisiert, sodass die Berechnung der hydrostatischen Schichten des Sternes nun wesentlich genauer erfolgt, was die Verwendung dieses Programms für alle Typen heißer massereicher Sterne erlaubte (Kapitel 2). Das bedeckungsveränderliche Dreifachsternsystem δ Ori diente als Test für diese neue Version von PoWR, und lieferte wesentliche Informationen bezüglich der Entstehung von Röntgenstrahlung in massereichen Sternen (Kapitel 3). Die Analyse zweier prototypischer massereicher Röntgendoppelsterne, Vela X-1 und IGR J17544-2619, machte den Ursprung der Dichotomie der zwei Hauptklassen der Röntgendoppelsterne deutlich (Kapitel 4). Eine umfassende Analyse des Doppelsterns R145 in der Großen Magellanschen Wolke (LMC), der angeblich aus den massereichsten uns bekannten Sternen besteht, wurde durchgeführt. Mithilfe einer Dekomposition des Spektrums, einer Orbital- und Spektralanalyse, sowie einer Analyse der Kollision von Sternwinden in diesem System konnten wir zeigen, dass die Massen der Komponenten wesentlich kleiner sind als bisher angenommen. Dies ist ein wichtiger Beitrag zu unserem Verständnis der Anfangsmassenfunktion und der Entwicklung massereicher Sterne in Umgebungen geringer Metalizität (Kapitel 5). Schließlich wurde die Gesamtpopulation der WR-Doppelsterne in der Kleinen Magellanschen Wolke (SMC) analysiert. Im Widerspruch zur theoretischen Vorhersage, alle WR-Doppelsterne in der SMC seien dank Massentransfer in Doppelsternsystemen entstanden, finden wir, dass Massentransfer unerheblich für die Entstehung der uns bekannten WR-Sterne in der SMC war (Kapitel 6). KW - massive stars KW - Wolf-Rayet KW - stellar evolution KW - stellar winds KW - binary stars KW - massereiche Sterne KW - Wolf-Rayet KW - Sternentwicklung KW - Sternwinde KW - Doppelsterne Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104857 ER - TY - THES A1 - Franco González, Olga T1 - Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure N2 - Die Suche nach neuen Materialien von technischem Interesse hat in den letzten Jahren neue Antriebe zu der Untersuchung organischer Verbindungen gegeben. Organische Substanzen haben viele Vorteile wie z.B. die Möglichkeit, ihre Eigenschaften durch verschiedene chemische und physikalische Techniken im Herstellung-Prozess für ein bestimmtes Ziel zu modifizieren. Oxadiazolverbindungen sind interessant aufgrund ihrer Nutzung als Material für Licht emittierende Dioden und Scintillatoren. Die physikalischen Eigenschaften eines Festkörpers hängen von seiner Struktur ab. Unterschiedliche Strukturen entwickeln unterschiedliche intra- und intermolekülare Wechselwirkungen. Eine ausgezeichnete Weise, um sowohl die intra- als auch die intermolekularen Wechselwirkungen eines bestimmtes Stoffes zu beeinflussen, ohne seine chemischen Charakteristiken zu ändern, ist die Verwendung von hohem Druck. Wir haben den Einfluss von hohem Druck und hoher Temperatur auf die super-molekulare Struktur einiger Oxadiazolverbindungen im kristallinem Zustand untersucht. Aus diesen Untersuchungsergebnissen wurde eine Zustandsgleichung für diese Kristalle bestimmt. Überdies wurden die spektroskopischen Eigenschaften dieser Materialien unter hohem Druck charakterisiert. N2 - In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized. KW - Oxadiazolderivate ; Kristallstruktur ; Hochdruck ; UV-VIS-Spektroskopie ; Raman-Spektroskopie KW - Hochdruck KW - organische Kristalle KW - Kristallstruktur KW - Zustandsgleichung KW - UV-Vis Spektroskopie KW - Raman Streuung KW - high pressure KW - organic crystal KW - crystal structure KW - equation of state KW - UV-Vis spectroscopy KW - Raman scattering Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000572 ER - TY - THES A1 - Kuhlbrodt, Till T1 - Stability and variability of open-ocean deep convection in deterministic and stochastic simple models N2 - Die Tiefenkonvektion ist ein wesentlicher Bestandteil der Zirkulation im Nordatlantik. Sie beeinflusst den nordwärtigen Wärmetransport der thermohalinen Zirkulation. Ein Verständnis ihrer Stabilität und Variabilität ist daher nötig, um Klimaveränderungen im Bereich des Nordatlantiks einschätzen zu können. Diese Arbeit hat zum Ziel, das konzeptionelle Verständnis der Stabilität und der Variabilität der Tiefenkonvektion zu verbessern. Beobachtungsdaten aus der Labradorsee zeigen Phasen mit und ohne Tiefenkonvektion. Ein einfaches Modell mit zwei Boxen wird an diese Daten angepasst. Das Ergebnis legt nahe, dass die Labradorsee zwei koexistierende stabile Zustände hat, einen mit regelmäßiger Tiefenkonvektion und einen ohne Tiefenkonvektion. Diese Bistabilität ergibt sich aus einer positiven Salzgehalts-Rückkopplung, deren Ursache ein Netto-Süßwassereintrag in die Deckschicht ist. Der konvektive Zustand kann schnell instabil werden, wenn der mittlere Antrieb sich hin zu wärmeren oder weniger salzhaltigen Bedingungen ändert. Die wetterbedingte Variabilität des externen Antriebs wird durch die Addition eines stochastischen Antriebsterms in das Modell eingebaut. Es zeigt sich, dass dann die Tiefenkonvektion häufig an- und wieder ausgeschaltet wird. Die mittlere Aufenthaltszeit in beiden Zuständen ist ein Maß ihrer stochastischen Stabilität. Die stochastische Stabilität hängt in glatter Weise von den Parametern des Antriebs ab, im Gegensatz zu der deterministischen (nichtstochastischen) Stabilität, die sich abrupt ändern kann. Sowohl das Mittel als auch die Varianz des stochastischen Antriebs beeinflussen die Häufigkeit von Tiefenkonvektion. Eine Abnahme der Konvektionshäufigkeit, als Reaktion auf eine Abnahme des Salzgehalts an der Oberfläche, kann zum Beispiel durch eine Zunahme der Variabilität in den Wärmeflüssen kompensiert werden. Mit einem weiter vereinfachten Box-Modell werden einige Eigenschaften der stochastischen Stabilität analytisch untersucht. Es wird ein neuer Effekt beschrieben, die wandernde Monostabilität: Auch wenn die Tiefenkonvektion aufgrund geänderter Parameter des Antriebs kein stabiler Zustand mehr ist, kann der stochastische Antrieb immer noch häufig Konvektionsereignisse auslösen. Die analytischen Gleichungen zeigen explizit, wie die wandernde Monostabilität sowie andere Effekte von den Modellparametern abhängen. Diese Abhängigkeit ist für die mittleren Aufenthaltszeiten immer exponentiell, für die Wahrscheinlichkeit langer nichtkonvektiver Phasen dagegen nur dann, wenn diese Wahrscheinlichkeit gering ist. Es ist zu erwarten, dass wandernde Monostabilität auch in anderen Teilen des Klimasystems eine Rolle spielt. Insgesamt zeigen die Ergebnisse, dass die Stabilität der Tiefenkonvektion in der Labradorsee sehr empfindlich auf den Antrieb reagiert. Die Rolle der Variabilität ist entscheidend für ein Verständnis dieser Empfindlichkeit. Kleine Änderungen im Antrieb können bereits die Häufigkeit von Tiefenkonvektionsereignissen deutlich mindern, was sich vermutlich stark auf das regionale Klima auswirkt. N2 - Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam. KW - Labradorsee ; Thermohaline Konvektion ; Stochastisches Modell KW - Stochastische dynamische Systeme KW - Nichtlineare Dynamik KW - Bistabilität KW - Nordatlantik KW - Stochastic dynamical systems KW - Nonlinear dynamics KW - Bistability KW - North Atlantic Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000622 ER - TY - THES A1 - Kraut, Suso T1 - Multistable systems under the influence of noise N2 - Nichtlineare multistabile Systeme unter dem Einfluss von Rauschen weisen vielschichtige dynamische Eigenschaften auf. Ein mittleres Rauschlevel zeitigt ein Springen zwischen den metastabilen Zustaenden. Dieser “attractor-hopping” Prozess ist gekennzeichnet durch laminare Bewegung in der Naehe von Attraktoren und erratische Bewegung, die sich auf chaotischen Satteln abspielt, welche in die fraktalen Einzugsgebietsgrenzen eingebettet sind. Er hat rauschinduziertes Chaos zur Folge. Bei der Untersuchung der dissipativen Standardabbildung wurde das Phaenomen der Praeferenz von Attraktoren durch die Wirkung des Rauschens gefunden. Dies bedeutet, dass einige Attraktoren eine groessere Wahrscheinlichkeit erhalten aufzutreten, als dies fuer das rauschfreie System der Fall waere. Bei einer bestimmten Rauschstaerke ist diese Bevorzugung maximal. Andere Attraktoren werden aufgrund des Rauschens weniger oft angelaufen. Bei einer entsprechend hohen Rauschstaerke werden sie komplett ausgeloescht. Die Komplexitaet des Sprungprozesses wird fuer das Modell zweier gekoppelter logistischer Abbildungen mit symbolischer Dynamik untersucht. Bei Variation eines Parameters steigt an einem bestimmten Wert des Parameters die topologische Entropie steil an, die neben der Shannon Entropie als Komplexitaetsmass verwendet wird. Dieser Anstieg wird auf eine neuartige Bifurkation von chaotischen Satteln zurueckgefuehrt, die in einem Verschmelzen zweier Sattel besteht und durch einen “Snap-back”-Repellor vermittelt wird. Skalierungsgesetze sowohl der Verweilzeit auf einem der zuvor getrennten Teile des Sattels als auch des Wachsens der fraktalen Dimension des entstandenen Sattels beschreiben diese neuartige Bifurkation genauer. Wenn ein chaotischer Sattel eingebettet in der offenen Umgebung eines Einzugsgebietes eines metastabilen Zustandes liegt, fuehrt das zu einer deutlichen Senkung der Schwelle des rauschinduzierten Tunnelns. Dies wird anhand der Ikeda-Abbildung, die ein Lasersystem mit einer zeitverzoegerden Interferenz beschreibt, demonstriert. Dieses Resultat wird unter Verwendung der Theorie der Quasipotentiale erzielt. Sowohl dieser Effekt, die Senkung der Schwelle für rauschinduziertes Tunneln aus einem metastabilen Zustand durch einen chaotischen Sattel, als auch die beiden Skalierungsgesteze sind von experimenteller Relevanz. N2 - Nonlinear multistable systems under the influence of noise exhibit a plethora of interesting dynamical properties. A medium noise level causes hopping between the metastable states. This attractorhopping process is characterized through laminar motion in the vicinity of the attractors and erratic motion taking place on chaotic saddles, which are embedded in the fractal basin boundary. This leads to noise-induced chaos. The investigation of the dissipative standard map showed the phenomenon of preference of attractors through the noise. It means, that some attractors get a larger probability of occurrence than in the noisefree system. For a certain noise level this prefernce achieves a maximum. Other attractors are occur less often. For sufficiently high noise they are completely extinguished. The complexity of the hopping process is examined for a model of two coupled logistic maps employing symbolic dynamics. With the variation of a parameter the topological entropy, which is used together with the Shannon entropy as a measure of complexity, rises sharply at a certain value. This increase is explained by a novel saddle merging bifurcation, which is mediated by a snapback repellor. Scaling laws of the average time spend on one of the formerly disconnected parts and of the fractal dimension of the connected saddle describe this bifurcation in more detail. If a chaotic saddle is embedded in the open neighborhood of the basin of attraction of a metastable state, the required escape energy is lowered. This enhancement of noise-induced escape is demonstrated for the Ikeda map, which models a laser system with time-delayed feedback. The result is gained using the theory of quasipotentials. This effect, as well as the two scaling laws for the saddle merging bifurcation, are of experimental relevance. KW - Multistabilität KW - Rauschen KW - Nichtlineare Systeme KW - Chaotische Sattel KW - Multistability KW - noise KW - nonlinear systems KW - chaotic saddle Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000424 ER - TY - THES A1 - Breidenich, Markus T1 - Polymers at membranes N2 - Die Oberfläche biologischer Zellen besteht aus einer Lipidmembran und einer Vielzahl von Proteinen und Polymeren, die in die Membran eingebaut sind. Die Beeinflussung der Membran durch Polymere, die mit einem Ende an der Membran verankert sind, wird im Rahmen dieser Arbeit anhand eines vereinfachten biomimetischen Systems studiert. Der entropische Druck, den das Polymer durch Stöße auf die Membran ausübt, führt dazu, dass sich die Membran vom Polymer weg krümmt. Die resultierende Membranform ist ein Kegel in der Nähe des Ankers und ein Katenoid in grossem Abstand vom Ankerpunkt. Monte Carlo-Simulationen bestätigen die perturbativ berechneten Resultate. Bei Hinzunahme eines attraktiven Potentials zwischen Polymer und Membran verringert sich die ursprünglich vom Polymer induzierte Krümmung. Im Limes starker Adsorption, in welchem das Polymer ganz auf der Membranoberfläche lokalisiert ist, verschwindet der Polymerdruck und die durch diesen induzierte Krümmung der Membran. Falls das Polymer nicht direkt auf der Membranoberfläche verankert ist, sondern in endlichem Ankerabstand, biegt sich die Membran im adsorbierten Fall zum Polymer hin. Im letzten Teil der Arbeit werden nicht verankerte Polymere in Lösung betrachtet. Untersucht wird der Einfluss einer solchen Polymerlösung auf die Krümmung der Membran. Im Grenzfall einer rein sterischen, repulsiven Wechselwirkung zwischen Polymeren und Membran biegt sich diese, im Gegensatz zur verankerten Situation, zur Lösung hin. Bei zunehmender Attraktion biegt sich die Membran im Limes starker Adsorption der Polymere von der Lösung weg. N2 - The surface of biological cells consists of a lipid membrane and a large amount of various proteins and polymers, which are embedded in the membrane or attached to it. We investigate how membranes are influenced by polymers, which are anchored to the membrane by one end. The entropic pressure exerted by the polymer induces a curvature, which bends the membrane away from the polymer. The resulting membrane shape profile is a cone in the vicinity of the anchor segment and a catenoid far away from it. The perturbative calculations are confirmed by Monte-Carlo simulations. An additional attractive interaction between polymer and membrane reduces the entropically induced curvature. In the limit of strong adsorption, the polymer is localized directly on the membrane surface and does not induce any pressure, i.e. the membrane curvature vanishes. If the polymer is not anchored directly on the membrane surface, but in a non-vanishing anchoring distance, the membrane bends towards the polymer for strong adsorption. In the last part of the thesis, we study membranes under the influence of non-anchored polymers in solution. In the limit of pure steric interactions between the membrane and free polymers, the membrane curves towards the polymers (in contrast to the case of anchored polymers). In the limit of strong adsorption the membrane bends away from the polymers. KW - Polymere KW - Membranen KW - Biomembranen Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000284 ER - TY - THES A1 - Moreira, André Guérin T1 - Charged systems in bulk and at interfaces N2 - Eine der Faustregeln der Kolloid- und Oberflächenphysik ist, dass die meisten Oberflächen geladen sind, wenn sie mit einem Lösungsmittel, normalerweise Wasser, in Kontakt treten. Dies ist zum Beispiel bei ladungsstabilisierten Kolloidalen Suspensionen der Fall, bei denen die Oberfläche der Kolloidteilchen geladen ist (gewöhnlich mit einer Ladung von mehreren Hunderttausend Elementarladungen), oder bei Monoschichten ionischer Tenside, die auf einer Luft-Wasser Grenzfläche sitzen (wobei die wasserliebenden Kopfgruppen durch die Freisetzung von Gegenionen geladen werden), sowie bei Doppelschichten, die geladene phospholipide enthalten (wie Zellmembranen). In dieser Arbeit betrachten wir einige Modellsysteme, die zwar eine vereinfachte Fassung der Realität darstellen, von denen wir aber dennoch erwarten koennen, dass wir mit ihrer Hilfe einige physikalische Eigenschaften realer geladener Systeme (Kolloide und Elektrolyte) einfangen können. N2 - One of the rules-of-thumb of colloid and surface physics is that most surfaces are charged when in contact with a solvent, usually water. This is the case, for instance, in charge-stabilized colloidal suspensions, where the surface of the colloidal particles are charged (usually with a charge of hundreds to thousands of e, the elementary charge), monolayers of ionic surfactants sitting at an air-water interface (where the water-loving head groups become charged by releasing counterions), or bilayers containing charged phospholipids (as cell membranes). In this work, we look at some model-systems that, although being a simplified version of reality, are expected to capture some of the physical properties of real charged systems (colloids and electrolytes). We initially study the simple double layer, composed by a charged wall in the presence of its counterions. The charges at the wall are smeared out and the dielectric constant is the same everywhere. The Poisson-Boltzmann (PB) approach gives asymptotically exact counterion density profiles around charged objects in the weak-coupling limit of systems with low-valent counterions, surfaces with low charge density and high temperature (or small Bjerrum length). Using Monte Carlo simulations, we obtain the profiles around the charged wall and compare it with both Poisson-Boltzmann (in the low coupling limit) and the novel strong coupling (SC) theory in the opposite limit of high couplings. In the latter limit, the simulations show that the SC leads in fact to asymptotically correct density profiles. We also compare the Monte Carlo data with previously calculated corrections to the Poisson-Boltzmann theory. We also discuss in detail the methods used to perform the computer simulations. After studying the simple double layer in detail, we introduce a dielectric jump at the charged wall and investigate its effect on the counterion density distribution. As we will show, the Poisson-Boltzmann description of the double layer remains a good approximation at low coupling values, while the strong coupling theory is shown to lead to the correct density profiles close to the wall (and at all couplings). For very large couplings, only systems where the difference between the dielectric constants of the wall and of the solvent is small are shown to be well described by SC. Another experimentally relevant modification to the simple double layer is to make the charges at the plane discrete. The counterions are still assumed to be point-like, but we constraint the distance of approach between ions in the plane and counterions to a minimum distance D. The ratio between D and the distance between neighboring ions in the plane is, as we will see, one of the important quantities in determining the influence of the discrete nature of the charges at the wall over the density profiles. Another parameter that plays an important role, as in the previous case, is the coupling as we will demonstrate, systems with higher coupling are more subject to discretization effects than systems with low coupling parameter. After studying the isolated double layer, we look at the interaction between two double layers. The system is composed by two equally charged walls at distance d, with the counterions confined between them. The charge at the walls is smeared out and the dielectric constant is the same everywhere. Using Monte-Carlo simulations we obtain the inter-plate pressure in the global parameter space, and the pressure is shown to be negative (attraction) at certain conditions. The simulations also show that the equilibrium plate separation (where the pressure changes from attractive to repulsive) exhibits a novel unbinding transition. We compare the Monte Carlo results with the strong-coupling theory, which is shown to describe well the bound states of systems with moderate and high couplings. The regime where the two walls are very close to each other is also shown to be well described by the SC theory. Finally, Using a field-theoretic approach, we derive the exact low-density ("virial") expansion of a binary mixture of positively and negatively charged hard spheres (two-component hard-core plasma, TCPHC). The free energy obtained is valid for systems where the diameters d_+ and d_- and the charge valences q_+ and q_- of positive and negative ions are unconstrained, i.e., the same expression can be used to treat dilute salt solutions (where typically d_+ ~ d_- and q_+ ~ q_-) as well as colloidal suspensions (where the difference in size and valence between macroions and counterions can be very large). We also discuss some applications of our results. KW - geladene Systeme KW - elektrische Doppelschicht KW - Elektrolyte KW - Theorie KW - Simulation KW - charged systems KW - electric double layer KW - electrolytes KW - theory KW - simulation Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000677 ER - TY - THES A1 - Gil-Merino Rubio, Rodrigo T1 - Cosmology through gravitational lenses N2 - In dieser Dissertation nutze ich den Gravitationslinseneffekt, um eine Reihe von kosmologischen Fragen zu untersuchen. Der Laufzeitunterschied des Gravitationslinsensystems HE1104-1805 wurde mit unterschiedlichen Methoden bestimmt. Zwischen den beiden Komponenten erhalte ich einen Unterschied von Delta_t(A-B) = -310 +-20 Tagen (2 sigma Konfidenzintervall). Außerdem nutze ich eine dreijährige Beobachtungskampagne, um den Doppelquasar Q0957+561 zu untersuchen. Die beobachteten Fluktuationen in den Differenzlichtkurven lassen sich durch Rauschen erklären, ein Mikrogravitationslinseneffekt wird zur Erklärung nicht benötigt. Am Vierfachquasar Q2237+0305 untersuchte ich den Mikrogravitationslinseneffekt anhand der Daten der GLITP-Kollaboration (Okt. 1999-Feb. 2000). Durch die Abwesenheit eines starken Mikrogravitationslinsensignals konnte ich eine obere Grenze von v=600 km/s f für die effektive Transversalgeschwindigkeit der Linsengalaxie bestimmen (unter der Annahme von Mikrolinsen mit 0.1 Sonnenmassen). Im zweiten Teil der Arbeit untersuchte ich die Verteilung der Dunklen Materie in Galaxienhaufen. Für den Galaxienhaufen Cl0024+1654 erhalte ich ein Masse-Leuchtkraft-Verhältnis von M/L = 200 M_sun/L_sun (innerhalb eines Radius von 3 Bogenminuten). Im Galaxienhaufen RBS380 finde ich eine relativ geringe Röntgenleuchtkraft von L =2*10^(44) erg/s, obwohl im optischen eine große Anzahl von Galaxien gefunden wurde. N2 - In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band. KW - Gravitationslinsen KW - Mikrolinsen KW - Quasar KW - gravitational lensing KW - microlensing KW - quasar Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001030 ER - TY - THES A1 - Füssel, Hans-Martin T1 - Impacts analysis for inverse integrated assessments of climate change N2 - Diese Dissertation beschreibt die Entwicklung und Anwendung des Klimawirkungsmoduls des ICLIPS-Modells, eines integrierten Modells des Klimawandels ('Integrated Assessment'-Modell). Vorangestellt ist eine Diskussion des gesellschaftspolitischen Kontexts, in dem modellbasiertes 'Integrated Assessment' stattfindet, aus der wichtige Anforderungen an die Spezifikation des Klimawirkungsmoduls abgeleitet werden. Das 'Integrated Assessment' des Klimawandels umfasst eine weiten Bereich von Aktivitäten zur wissenschaftsbasierten Unterstützung klimapolitischer Entscheidungen. Hierbei wird eine Vielzahl von Ansätzen verfolgt, um politikrelevante Informationen über die erwarteten Auswirkungen des Klimawandels zu berücksichtigen. Wichtige Herausforderungen in diesem Bereich sind die große Bandbreite der relevanten räumlichen und zeitlichen Skalen, die multifaktorielle Verursachung vieler 'Klimafolgen', erhebliche wissenschaftliche Unsicherheiten sowie die Mehrdeutigkeit unvermeidlicher Werturteile. Die Entwicklung eines hierarchischen Konzeptmodells erlaubt die Strukturierung der verschiedenen Ansätze sowie die Darstellung eines mehrstufigen Entwicklungsprozesses, der sich in der Praxis und der zu Grunde liegenden Theorie von Studien zur Vulnerabilität hinsichtlich des Klimawandels wiederspiegelt. 'Integrated Assessment'-Modelle des Klimawandels sind wissenschaftliche Werkzeuge, welche eine vereinfachte Beschreibung des gekoppelten Mensch-Klima-Systems enthalten. Die wichtigsten entscheidungstheoretischen Ansätze im Bereich des modellbasierten 'Integrated Assessment' werden im Hinblick auf ihre Fähigkeit zur adäquaten Darstellung klimapolitischer Entscheidungsprobleme bewertet. Dabei stellt der 'Leitplankenansatz' eine 'inverse' Herangehensweise zur Unterstützung klimapolitischer Entscheidungen dar, bei der versucht wird, die Gesamtheit der klimapolitischen Strategien zu bestimmen, die mit einer Reihe von zuvor normativ bestimmten Mindestkriterien (den sogenannten 'Leitplanken') verträglich sind. Dieser Ansatz verbindet bis zu einem gewissen Grad die wissenschaftliche Strenge und Objektivität simulationsbasierter Ansätze mit der Fähigkeit von Optimierungsansätzen, die Gesamtheit aller Entscheidungsoptionen zu berücksichtigen. Das ICLIPS-Modell ist das erste 'Integrated Assessment'-Modell des Klimawandels, welches den Leitplankenansatz implementiert. Die Darstellung von Klimafolgen ist eine wichtige Herausforderung für 'Integrated Assessment'-Modelle des Klimawandels. Eine Betrachtung bestehender 'Integrated Assessment'-Modelle offenbart große Unterschiede in der Berücksichtigung verschiedener vom Klimawandel betroffenen Sektoren, in der Wahl des bzw. der Indikatoren zur Darstellung von Klimafolgen, in der Berücksichtigung nicht-klimatischer Entwicklungen einschließlich gezielter Anpassungsmaßnahmen an den Klimawandel, in der Behandlung von Unsicherheiten und in der Berücksichtigung von 'singulären' Ereignissen. 'Integrated Assessment'-Modelle, die auf einem Inversansatz beruhen, stellen besondere Anforderungen an die Darstellung von Klimafolgen. Einerseits muss der Detaillierungsgrad hinreichend sein, um Leitplanken für Klimafolgen sinnvoll definieren zu können; andererseits muss die Darstellung effizient genug sein, um die Gesamtheit der möglichen klimapolitischen Strategien erkunden zu können. Großräumige Singularitäten können häufig durch vereinfachte dynamische Modelle abgebildet werden. Diese Methode ist jedoch weniger geeignet für reguläre Klimafolgen, bei denen die Bestimmung relevanter Ergebnisse in der Regel die Berücksichtigung der Heterogenität von klimatischen, naturräumlichen und sozialen Faktoren auf der lokalen oder regionalen Ebene erfordert. Klimawirkungsfunktionen stellen sich als die geeignetste Darstellung regulärer Klimafolgen im ICLIPS-Modell heraus. Eine Klimawirkungsfunktion beschreibt in aggregierter Form die Reaktion eines klimasensitiven Systems, wie sie von einem geographisch expliziten Klimawirkungsmodell für eine repräsentative Teilmenge möglicher zukünftiger Entwicklungen simuliert wurde. Die in dieser Arbeit vorgestellten Klimawirkungsfunktionen nutzen die globale Mitteltemperatur sowie die atmosphärische CO2-Konzentration als Prädiktoren für global und regional aggregierte Auswirkungen des Klimawandels auf natürliche Ökosysteme, die landwirtschaftliche Produktion und die Wasserverfügbarkeit. Die Anwendung einer 'Musterskalierungstechnik' ermöglicht hierbei die Berücksichtigung der regionalen und saisonalen Muster des Klimaänderungssignals aus allgemeinen Zirkulationsmodellen, ohne die Effizienz der dynamischen Modellkomponenten zu beeinträchtigen. Bemühungen zur quantitativen Abschätzung zukünftiger Klimafolgen sehen sich bei der Wahl geeigneter Indikatoren in der Regel einem Zielkonflikt zwischen der Relevanz eines Indikators für Entscheidungsträger und der Zuverlässigkeit, mit der dieser bestimmt werden kann, gegenüber. Eine Reihe von nichtmonetären Indikatoren zur aggregierten Darstellung von Klimafolgen in Klimawirkungsfunktionen wird präsentiert, welche eine Balance zwischen diesen beiden Zielen anstreben und gleichzeitig die Beschränkungen berücksichtigen, die sich aus anderen Komponenten des ICLIPS-Modells ergeben. Klimawirkungsfunktionen werden durch verschiedene Typen von Diagrammen visualisiert, welche jeweils unterschiedliche Perspektiven auf die Ergebnismenge der Klimawirkungssimulationen erlauben. Die schiere Anzahl von Klimawirkungsfunktionen verhindert ihre umfassende Darstellung in dieser Arbeit. Ausgewählte Ergebnisse zu Veränderungen in der räumlichen Ausdehnung von Biomen, im landwirtschaftlichen Potential verschiedener Länder und in der Wasserverfügbarkeit in mehreren großen Einzugsgebieten werden diskutiert. Die Gesamtheit der Klimawirkungsfunktionen wird zugänglich gemacht durch das 'ICLIPS Impacts Tool', eine graphische Benutzeroberfläche, die einen bequemen Zugriff auf über 100.000 Klimawirkungsdiagramme ermöglicht. Die technischen Aspekte der Software sowie die zugehörige Datenbasis wird beschrieben. Die wichtigste Anwendung von Klimawirkungsfunktionen ist im 'Inversmodus', wo sie genutzt werden, um Leitplanken zur Begrenzung von Klimafolgen in gleichzeitige Randbedingungen für Variablen aus dem optimierenden ICLIPS-Klima-Weltwirtschafts-Modell zu übersetzen. Diese Übersetzung wird ermöglicht durch Algorithmen zur Bestimmung von Mengen erreichbarer Klimazustände ('reachable climate domains') sowie zur parametrisierten Approximation zulässiger Klimafenster ('admissible climate windows'), die aus Klimawirkungsfunktionen abgeleitet werden. Der umfassende Bestand an Klimawirkungsfunktionen zusammen mit diesen Algorithmen ermöglicht es dem integrierten ICLIPS-Modell, in flexibler Weise diejenigen klimapolitischen Strategien zu bestimmen, welche bestimmte in biophysikalischen Einheiten ausgedrückte Begrenzungen von Klimafolgen explizit berücksichtigen. Diese Möglichkeit bietet kein anderes intertemporal optimierendes 'Integrated Assessment'-Modell. Eine Leitplankenanalyse mit dem integrierten ICLIPS-Modell unter Anwendung ausgewählter Klimawirkungsfunktionen für Veränderungen natürlicher Ökosysteme wird beschrieben. In dieser Analyse werden so genannte 'notwendige Emissionskorridore' berechnet, die vorgegebene Beschränkungen hinsichtlich der maximal zulässigen globalen Vegetationsveränderungen und der regionalen Klimaschutzkosten berücksichtigen. Dies geschieht sowohl für eine 'Standardkombination' der drei gewählten Kriterien als auch für deren systematische Variation. Eine abschließende Diskussion aktueller Entwicklungen in der 'Integrated Assessment'-Modellierung stellt diese Arbeit mit anderen einschlägigen Bemühungen in Beziehung. N2 - This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts. KW - Klimawandel KW - Klimafolgen KW - Integrierte Bewertung KW - Leitplankenansatz KW - Fensteransatz KW - Inversanalyse KW - Klimawirkungsfunktionen KW - Musterskalierung KW - ICLIPS KW - Climate change KW - climate impacts KW - integrated assessment KW - guardrail approach KW - tolerable windows approach KW - inverse analysis KW - climate impact response func Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001089 ER - TY - THES A1 - Heinig, Peter T1 - The geometry of interacting liquid domains in Langmuir monolayers N2 - Es werden die Strukturbildung und Benetzung zweidimensionaler (2D) Phasen von Langmuir-Monolagen im lokalen thermodynamischen Gleichgewicht untersucht. Eine Langmuir-Monolage ist ein isoliertes 2D System von Surfaktanten an der Wasser/Luft-Grenzfläche, in dem kristalline, flüssigkristalline, flüssige oder gasförmige Phasen auftreten, die sich in Positionsordnung und/oder Orientierungsordnung unterscheiden. Permanente elektrische Dipolmomente der Surfaktanten führen zu einer langreichweitigen repulsiven Selbstwechselwirkung der Monolage und zur Bildung mesoskopischer Strukturen. Es wird ein Wechselwirkungsmodell verwendet, das die Strukturbildung als Wechselspiel kurzreichweitiger Anziehung (nackte Linienspannung) und langreichweitiger Abstoßung (Oberflächenpotential) auf einer Skala Delta beschreibt. Physikalisch trennt Delta die beiden Längenskalen der lang- und kurzreichweitigen Wechselwirkung. In dieser Arbeit werden die thermodynamischen Stabilitätsbedingungen für die Form einer Phasengrenzlinie (Young-Laplace-Gleichung) und Dreiphasenkontaktpunkt (Young-Bedingung) hergeleitet und zur Beschreibung experimenteller Daten genutzt: Die Linienspannung benetzender 2D Tropfen wird mit Hilfe hängender-Tropfen-Tensiometrie gemessen. Die Blasenform und -größe von 2D Schäumen wird theoretisch modelliert und mit experimentellen 2D Schäumen verglichen. Kontaktwinkel werden durch die Anpassung von experimentellen Tropfen mit numerischen Lösungen der Young-Laplace-Gleichung auf Mikrometerskalen gemessen. Das Skalenverhalten des Kontaktwinkels ermöglicht die Bestimmung einer unteren Schranke von Delta. Weiterhin wird diskutiert, inwieweit das Schalten von 2D Benetzungsmodi in biologischen Membranen zur Steuerung der Reaktionskinetik ein Rolle spielen könnte. Hierzu werden Experimente aus unserer Gruppe, die in einer Langmuir-Monolage durchgeführt wurden, herangezogen. Abschließend wird die scheinbare Verletzung der Gibbs′schen Phasenregel in Langmuir-Monolagen (nicht-horizontales Plateau der Oberflächendruck-Fläche Isotherme, ausgedehntes Dreiphasengebiet in Einkomponentensystemen) quantitativ untersucht. Eine Verschmutzung der verwendeten Substanzen ist demnach die wahscheinlichste Erklärung, während Finite-Size-Effekte oder der Einfluss der langreichweitigen Elektrostatik die Größenordnung des Effektes nicht beschreiben können. N2 - The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect. KW - Langmuir KW - Monolage KW - 2D KW - langreichweitig KW - Benetzung KW - Schäume KW - Phasenregel KW - Langmuir monolayer KW - 2D KW - long range KW - wetting KW - foams KW - phase rule Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000814 ER - TY - THES A1 - Löffler, Frank T1 - Numerical simulations of neutron star - black hole mergers T1 - Computersimulationen von Zusammenstößen eines schwarzen Lochs und eines Neutronensterns N2 - Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts. N2 - Zusammenstöße eines schwarzen Lochs und eines Neutronensterns, im Folgenden "gemischte Zusammenstöße" genannt, sind aus wenigstens zwei Gründen interessant. Erstens wird erwartet, dass dabei große Mengen Energie als Gravitationswellen freigesetzt werden und diese mit neuen Detektoren gemessen werden können. Die Form dieser Wellen verrät viel über die Beschaffenheit eines solchen Systems und stellt neben elektromagnetischen Wellen eine wichtige Informationsquelle dar. Zweitens sind Zusammenstöße von kompakten Objekten wie Neutronensternen und schwarze Löchern sehr wahrscheinlich die Ursache sogenannter kurzer Gammastrahlungsblitze. Deren genauer Mechanismus für die Umwandlung der gewaltigen Energiemengen, die bei diesen Blitzen ausgesandt werden, ist jedoch bisher unbekannt. Computersimulationen von Zusammenstößen eines gemischten Systems wurden bisher oft unter Benutzung der Newtonschen Gravitationstheorie, bzw. Korrekturen dazu, durchgeführt. In der Nähe so kompakte Objekte wie schwarzer Löcher oder Neutronensterne ist jedoch die Gravitationswirkung so stark, dass Näherungen wie die erwähnten Korrekturen der Newtonschen Gravitationstheorie zu ungenau sind. Eine Benutzung der allgemeinen Relativitätstheorie ist daher für dieses Problem unumgänglich. Die Probleme allgemein-relativistischer Simulationen sind vielfältig. Jedoch wurden Binärsysteme zweier schwarzer Löcher und zweier Neutronensterne schon eingehend untersucht, und so viele Probleme, die auch Simulationen gemischter Systeme betreffen, gelöst. Eins der bisher ausstehenden Probleme war die Behandlung der Hydrodynamik an Ausschneiderändern; Rändern zu Gebieten, die in der Zeitentwicklung der Simulation ignoriert werden. Solche Ränder werden zum Beispiel innerhalb eines schwarzen Lochs benutzt, um Instabilitäten des Programms in der Nähe der Singularität zu vermeiden. Methoden, solche Ränder zu behandeln wurden in der Arbeit entwickelt, getestet und gezeigt, dass sie verlässlich arbeiten. Ein wichtiger Test für diese Methoden, der gleichzeitig der Gewinnung neuer Erkenntnisse diente, war deren Anwendung auf Simulationen von zu schwarzen Löchern kollabierenden, rotierenden Sternen. Der Erfolg, diese Simulationen ohne Probleme mit den erwähnten Methoden durchzuführen, war ein wichtiger Schritt zu Simulationen gemischter Binärsysteme. Für Computersimulationen sind Anfangsdaten notwendig, die das gewünschte Problem beschreiben. Die Erstellung solcher Anfangsdaten ist jedoch unter Benutzung der allgemeinen Relativitätstheorie ausser in Spezialfällen sehr komplex. Wir zeigen, wie man einen schon vorhandenen Algorithmus für Anfangsdaten für zwei schwarze Löcher ändern kann, um Anfangsdaten für ein gemischtes Binärsystem zu erhalten. Diese Anfangsdaten wurden für Simulationen eines gemischten Binärsystems benutzt. Während dieser Simulationen traten mehrere Probleme auf. Zwei dieser Probleme waren numerische Instabilitäten unterschiedlicher Herkunft. Beide konnten jedoch mit angepasst starker Dissipation (der künstliche Entnahme von hochfrequenter Energie aus dem System) unterdrückt werden. Ein weiteres Problem war die erwartete Bewegung des schwarzen Lochs in Richtung des Neutronensterns. Da ein Teil des Simulationsgebietes innerhalb des schwarzen Lochs ausgeschnitten wird und das verwendete Programm bewegte Ausschneidegebiete nicht behandeln kann, darf sich das schwarze Loch jedoch auf dem Gitter kaum bewegen. Wir haben dieses Problem durch eine an das Problem angepasste Eichbedingung gelöst, die auf Bewegungen des scheinbaren Horizons reagiert und die Position des schwarzen Lochs auf diese Weise nahezu konstant hält. Die Methoden und Simulationen dieser Arbeit sind nur der Anfangspunkt einer ausführlichen Studie von Binärsystemen eines schwarzen Lochs und eines Neutronensterns. Bessere Methoden, Modelle und Simulationen mit höherer Auflösung und besser an das System angepassten Koordinaten werden Mittelpunkt zukünftiger Arbeit sein. Es wird erwartet, dass solche detailierten Studien Erkenntnisse über die abgestrahlten Gravitationswellen liefern, die gerade in Hinblick auf die neuen Gravitationswellendetektoren wichtig sind. Weiterhin könnten diese Simulationen dabei helfen, die Prozesse, die kurze Gammastrahlungsblitze hervorrufen, und über die im Moment kaum etwas bekannt ist, aufzuklären. KW - Relativistische Astrophysik KW - Neutronensterne KW - schwarze Löcher KW - neutron stars KW - black holes Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7743 ER - TY - THES A1 - Prevot, Michelle Elizabeth T1 - Introduction of a thermo-sensitive non-polar species into polyelectrolyte multilayer capsules for drug delivery T1 - Einbettung unpolarer, temperaturempfindlicher Substanzen in Polyelektrolytkapselsysteme zur Wirkstofffreisetzung N2 - The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest. N2 - Verkapselung ist ein vielseitiges Werkzeug, das zum Schutz und zum Transport von Molekülen ebenso eingesetzt werden kann, wie zur Verbindung von Reaktionspartnern in einem gemeinsamen, von der Umgebung abgeschirmten Raum. Es basiert auf einem einfachen Vorbild der Natur. Pflanzen schützen ihren Samen zum Beispiel durch eine harte, nahezu undurchdringbare Schale (Nüsse) oder durch eine selektiv durchlässige Hülle, wie bei Weizen, der sobald er feucht wird zu keimen beginnt. Die Natur setzt durch den Einsatz des Hülle-Kern Prinzips sehr effizient die Kontrolle über Durchlässigkeit und Anpassung an bestimmte Aufgaben um. Wird das Hülle-Kern-Prinzip zum Schutz oder Transport von Molekülen eingesetzt, so sind die zu verwendenden Kapseln nur wenige Mikrometer groß. Sie werden dann als Mikrokapseln bezeichnet. Zur Erzeugung dieser Mikrokapseln werden verschiedene Methoden verwendet. Der heute übliche Weg geht von einer ca. 5-10 Mikrometer großen Kugel (Kern) aus, die mit einer stabilen und an die gewünschten Eigenschaften angepassten Schicht von wenigen Nanometern versehen wird. Im Anschluss wird der Kern herausgelöst und eine hohle, stabile Kapsel erhalten. Schichten von wenigen Nanometern Dicke können aus Polyelektrolyten durch das Layer-by-Layer-Verfahren (LbL) hergestellt werden. Dieses Verfahren eignet sich auf Grund seiner vielen Anpassungsmöglichkeiten besonders zum Aufbau der Schichten für Mikrokapseln, da sich die Eigenschaften der Beschichtung bereits beim Aufbau der Schicht auf die Bedürfnisse maßschneidern lassen. Diese Arbeit befasst sich mit der Erzeugung von Mikrokapseln, deren Eigenschaften temperaturabhängig sind. Dies wurde auf zwei Wegen erreicht. Zum einen wurden Kapseln aus Polyelektrolyten und Wachs aufgebaut. Bei Temperaturerhöhung schmilzt das Wachs und versiegelt die Kapsel. Zum anderen werden Kapseln mit einem Wärme empfindlichen Polymer gefüllt. Bei Temperaturerhöhung kollabiert das Polymergerüst. Der enthaltene Wirkstoff wird freigesetzt. KW - Mikrokapsel KW - Polyelektrolyt KW - Mehrschichtsysteme KW - Polyelectrolyte KW - Multilayers KW - Capsule Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7785 ER - TY - THES A1 - Jappsen, Anne-Katharina T1 - Present and early star formation : a study on rotational and thermal properties T1 - Sternentstehung im heutigen und im frühen Universum : eine Studie über Rotationseigenschaften und thermisches Verhalten N2 - We investigate the rotational and thermal properties of star-forming molecular clouds using hydrodynamic simulations. Stars form from molecular cloud cores by gravoturbulent fragmentation. Understanding the angular momentum and the thermal evolution of cloud cores thus plays a fundamental role in completing the theoretical picture of star formation. This is true not only for current star formation as observed in regions like the Orion nebula or the ρ-Ophiuchi molecular cloud but also for the formation of stars of the first or second generation in the universe. In this thesis we show how the angular momentum of prestellar and protostellar cores evolves and compare our results with observed quantities. The specific angular momentum of prestellar cores in our models agree remarkably well with observations of cloud cores. Some prestellar cores go into collapse to build up stars and stellar systems. The resulting protostellar objects have specific angular momenta that fall into the range of observed binaries. We find that collapse induced by gravoturbulent fragmentation is accompanied by a substantial loss of specific angular momentum. This eases the "angular momentum problem" in star formation even in the absence of magnetic fields. The distribution of stellar masses at birth (the initial mass function, IMF) is another aspect that any theory of star formation must explain. We focus on the influence of the thermodynamic properties of star-forming gas and address this issue by studying the effects of a piecewise polytropic equation of state on the formation of stellar clusters. We increase the polytropic exponent γ from a value below unity to a value above unity at a certain critical density. The change of the thermodynamic state at the critical density selects a characteristic mass scale for fragmentation, which we relate to the peak of the IMF observed in the solar neighborhood. Our investigation generally supports the idea that the distribution of stellar masses depends mainly on the thermodynamic state of the gas. A common assumption is that the chemical evolution of the star-forming gas can be decoupled from its dynamical evolution, with the former never affecting the latter. Although justified in some circumstances, this assumption is not true in every case. In particular, in low-metallicity gas the timescales for reaching the chemical equilibrium are comparable or larger than the dynamical timescales. In this thesis we take a first approach to combine a chemical network with a hydrodynamical code in order to study the influence of low levels of metal enrichment on the cooling and collapse of ionized gas in small protogalactic halos. Our initial conditions represent protogalaxies forming within a fossil HII region -- a previously ionized HII region which has not yet had time to cool and recombine. We show that in these regions, H2 is the dominant and most effective coolant, and that it is the amount of H2 formed that controls whether or not the gas can collapse and form stars. For metallicities Z <= 10-3 Zsun, metal line cooling alters the density and temperature evolution of the gas by less than 1% compared to the metal-free case at densities below 1 cm-3 and temperatures above 2000 K. We also find that an external ultraviolet background delays or suppresses the cooling and collapse of the gas regardless of whether it is metal-enriched or not. Finally, we study the dependence of this process on redshift and mass of the dark matter halo. N2 - Sterne sind fundamentale Bestandteile des Kosmos. Sie entstehen im Inneren von turbulenten Molekülwolken, die aus molekularem Wasserstoffgas und Staub bestehen. Durch konvergente Strömungen in der turbulenten Wolke bilden sich lokale Dichtemaxima, die kollabieren, falls die zum Zentrum der Wolke gerichtete Schwerkraft über die nach außen gerichteten Druckkräfte dominiert. Dies ist der Fall, wenn die Masse des Gases einen kritischen Wert überschreitet, der Jeansmasse genannt wird. Die Jeansmasse hängt von der Dichte und der Temperatur des Gases ab und fällt im isothermen Fall mit steigender Dichte stetig ab, so dass während des Kontraktionsprozesses immer kleinere Teilmassen instabil werden. Es kommt zur Fragmentierung der Molekülwolke zu protostellaren Kernen, den direkten Vorläufern der Sterne. In der vorliegenden Arbeit werden die zeitliche Entwicklung des Drehimpulses der protostellaren Kerne und der Einfluss der thermischen Eigenschaften des Gases mit Hilfe von dreidimensionalen hydrodynamischen Simulationen untersucht. Hierbei konzentrieren wir uns auf zwei fundamentale Probleme, die jede Theorie der Sternentstehung lösen muss: das "Drehimpulsproblem" und die Massenverteilung der Sterne (IMF). Die thermischen Eigenschaften des Gases sind nicht nur von Bedeutung für die derzeitige Sternentstehung in beobachtbaren Regionen wie z.B. der Orionnebel oder die ρ-Ophiuchi Molekülwolke, sondern auch für die Entstehung von Sternen der ersten und zweiten Generation im frühen Universum. Wir betrachten die Entwicklung des spezifischen Drehimpulses von protostellaren Kernen und vergleichen unsere Resultate mit beobachteten Werten. Wir finden eine gute Übereinstimmung zwischen den spezifischen Drehimpulsen der protostellaren Kerne in unserem Model und denen der beobachteten Kerne in Molekülwolken. In unseren Simulationen geht der gravitative Kollaps mit einem Verlust an spezifischem Drehimpuls einher. Somit kann das Drehimpulsproblem der Sternentstehung auch ohne Betrachtung der Magnetfelder entschärft werden. Ein weiterer Schwerpunkt der Arbeit ist die Untersuchung des Einflusses der thermodynamischen Eigenschaften des Gases auf die Massenverteilung der Sterne, die aus diesem Gas entstehen. Wir verwenden eine stückweise polytrope Zustandgleichung, die die Temperatur-Dichte-Beziehung genauer beschreibt. Wir zeigen, dass Veränderungen in der Zustandgleichung bei einer bestimmten Dichte einen direkten Einfluss auf die charakteristische Massenskala der Fragmentierung haben und somit den Scheitelpunkt der Sternmassenverteilung in der solaren Umgebung bestimmen. Des Weiteren sind die thermodynamischen Eigenschaften des Gases auch für die Sternentstehung im frühen Universum von Bedeutung. Das primordiale Gas, aus dem die ersten Sterne gebildet wurden, enthält keine Metalle (Elemente schwerer als H oder He), da diese erst durch Kernreaktionen in Sternen gebildet werden. In dieser Arbeit untersuchen wir den Einfluss einer geringen Metallizität auf das Kühlungs- und Kollapsverhalten von Gas, aus welchem die zweite Generation von Sternen entstanden ist. Dieses Gas ist anfänglich heiß und ionisiert und befindet sich in kleinen protogalaktischen Halos aus dunkler Materie. Unsere hydrodynamischen Simulationen, die auch ein adäquates chemisches Netzwerk beinhalten, zeigen, dass die Temperatur- und Dichteentwicklung des Gases während der Anfangsphase des Kollapses durch eine geringe Metallizität im Gas kaum beeinflusst wird. Wir stellen weiterhin fest, dass externe ultraviolette Strahlung den Kühlprozess des Gases ohne Metallizität und des Gases mit geringer Metallizität gleichermaßen verzögert oder sogar verhindert. Außerdem untersuchen wir den Einfluss der Rotverschiebung und der Masse des Halos aus dunkler Materie auf die Kühlung und den Kollaps des Gases. KW - Sternentstehung KW - Astrophysik KW - Turbulenz KW - Hydrodynamisches Modell KW - Gravitationskollaps KW - star formation KW - astrophysics KW - turbulence KW - numerical simulation KW - hydrodynamical model KW - self-gravity Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7591 ER - TY - THES A1 - Schneider von Deimling, Thomas T1 - Constraining uncertainty in climate sensitivity : an ensemble simulation approach based on glacial climate T1 - Einschränkung der Unsicherheit in der Klimasensitivität : ein Ensemble Simulationsansatz basierend auf dem glazialen Klima N2 - Uncertainty about the sensitivity of the climate system to changes in the Earth’s radiative balance constitutes a primary source of uncertainty for climate projections. Given the continuous increase in atmospheric greenhouse gas concentrations, constraining the uncertainty range in such type of sensitivity is of vital importance. A common measure for expressing this key characteristic for climate models is the climate sensitivity, defined as the simulated change in global-mean equilibrium temperature resulting from a doubling of atmospheric CO2 concentration. The broad range of climate sensitivity estimates (1.5-4.5°C as given in the last Assessment Report of the Intergovernmental Panel on Climate Change, 2001), inferred from comprehensive climate models, illustrates that the strength of simulated feedback mechanisms varies strongly among different models. The central goal of this thesis is to constrain uncertainty in climate sensitivity. For this objective we first generate a large ensemble of model simulations, covering different feedback strengths, and then request their consistency with present-day observational data and proxy-data from the Last Glacial Maximum (LGM). Our analyses are based on an ensemble of fully-coupled simulations, that were realized with a climate model of intermediate complexity (CLIMBER-2). These model versions cover a broad range of different climate sensitivities, ranging from 1.3 to 5.5°C, and have been generated by simultaneously perturbing a set of 11 model parameters. The analysis of the simulated model feedbacks reveals that the spread in climate sensitivity results from different realizations of the feedback strengths in water vapour, clouds, lapse rate and albedo. The calculated spread in the sum of all feedbacks spans almost the entire plausible range inferred from a sampling of more complex models. We show that the requirement for consistency between simulated pre-industrial climate and a set of seven global-mean data constraints represents a comparatively weak test for model sensitivity (the data constrain climate sensitivity to 1.3-4.9°C). Analyses of the simulated latitudinal profile and of the seasonal cycle suggest that additional present-day data constraints, based on these characteristics, do not further constrain uncertainty in climate sensitivity. The novel approach presented in this thesis consists in systematically combining a large set of LGM simulations with data information from reconstructed regional glacial cooling. Irrespective of uncertainties in model parameters and feedback strengths, the set of our model versions reveals a close link between the simulated warming due to a doubling of CO2, and the cooling obtained for the LGM. Based on this close relationship between past and future temperature evolution, we define a method (based on linear regression) that allows us to estimate robust 5-95% quantiles for climate sensitivity. We thus constrain the range of climate sensitivity to 1.3-3.5°C using proxy-data from the LGM at low and high latitudes. Uncertainties in glacial radiative forcing enlarge this estimate to 1.2-4.3°C, whereas the assumption of large structural uncertainties may increase the upper limit by an additional degree. Using proxy-based data constraints for tropical and Antarctic cooling we show that very different absolute temperature changes in high and low latitudes all yield very similar estimates of climate sensitivity. On the whole, this thesis highlights that LGM proxy-data information can offer an effective means of constraining the uncertainty range in climate sensitivity and thus underlines the potential of paleo-climatic data to reduce uncertainty in future climate projections. N2 - Eine der entscheidenden Hauptquellen für Unsicherheiten von Klimaprojektionen ist, wie sensitiv das Klimasystem auf Änderungen der Strahlungsbilanz der Erde reagiert. Angesichts des kontinuierlichen Anstiegs der atmosphärischen Treibhausgaskonzentrationen ist die Einschränkung des Unsicherheitsbereichs dieser Sensitivität von entscheidender Bedeutung. Ein häufig verwendetes Maß zur Beschreibung dieser charakteristischen Kenngröße von Klimamodellen ist die sogenannte Klimasensitivität, definiert als die Gleichgewichtsänderung der simulierten globalen Mitteltemperatur, welche sich aus einer Verdoppelung des atmosphärischen CO2-Gehalts ergibt. Die breite Spanne der geschätzten Klimasensitivität (1.5-4.5°C), welche ein Vergleich verschiedener komplexer Klimamodelle nahe legt (IPCC, 2001), verdeutlicht, wie groß die Unsicherheit in der Klimasensitivität ist. Diese Unsicherheit resultiert in erster Linie aus Unterschieden in der Simulation der entscheidenden Rückkopplungs-mechanismen in den verschiedenen Modellen. Das zentrale Ziel dieser Dissertation ist die Einschränkung des breiten Unsicherheitsbereichs der Klimasensitivität. Zunächst wird hierzu ein großes Ensemble an Modellsimulationen erzeugt, in welchem gezielt spezifische Modellparameter variiert, und somit unterschiedliche Rückkopplungsstärken der einzelnen Modellversionen realisiert werden. Diese Simulationen werden dann auf ihre Konsistenz mit sowohl heutigen Beobachtungsdaten, als auch Proxy-Daten des Letzten Glazialen Maximums (LGM) überprüft. Unsere Analysen basieren dabei auf einem Ensemble voll gekoppelter Modellläufe, welche mit einem Klimamodell intermediärer Komplexität (CLIMBER-2) realisiert wurden. Die betrachteten Modellversionen decken eine breite Spanne verschiedener Klimasensitivitäten (1.3-5.5°C) ab und wurden durch gleichzeitiges Variieren von 11 Modellparametern erzeugt. Die Analyse der simulierten Rückkopplungs-mechanismen offenbart, dass unterschiedliche Werte der Klimasensitivität in unserem Modellensemble durch verschiedene Realisierungen der Rückkopplungsstärken von Wasserdampf, Wolken, Temperatur-Vertikalprofil und Albedo zu erklären sind. Die berechneten Gesamt-Rückkopplungsstärken unser Modellversionen decken hierbei fast den gesamten möglichen Bereich von komplexeren Modellen ab. Wir zeigen, dass sich die Forderung nach Konsistenz zwischen simuliertem vorindustriellem Klima und Messdaten, die auf einer Wahl von sieben global gemittelten Datensätzen basieren, als vergleichsweise schwacher Test der Modellsensitivität erweist: Die Daten schränken den plausiblen Bereich der Klimasensitivität lediglich auf 1.3-4.9°C ein. Zieht man neben den genannten global gemittelten Messdaten außerdem klimatische Informationen aus Jahreszeit und geografischer Breite hinzu, lässt sich die Unsicherheit in der Klimasensitivität nicht weiter einschränken. Der neue Ansatz dieser Dissertation besteht darin, in systematischer Weise einen großen Satz an LGM-Simulationen mit Dateninformationen über die rekonstruierte glaziale Abkühlung bestimmter Regionen zu kombinieren. Unabhängig von den Unsicherheiten in Modellparametern und Rückkopplungsstärken offenbaren unsere Modellversionen eine ausgeprägte Beziehung zwischen der simulierten Erwärmung aufgrund der CO2-Verdoppelung und der Abkühlung im LGM. Basierend auf dieser engen Beziehung zwischen vergangener und zukünftiger Temperaturentwicklung definieren wir eine Methode (basierend auf linearer Regression), welche es uns erlaubt, robuste 5-95%-Quantile der Klimasensitivität abzuschätzen. Indem wir Proxy-Daten des LGM von niederen und hohen Breiten heranziehen, können wir die Unsicherheitsspanne der Klimasensitivität auf 1.3-3.5°C beschränken. Unsicherheiten im glazialen Strahlungsantrieb vergrößern diese Abschätzung auf 1.2-4.3°C, wobei die Annahme von großen strukturellen Unsicherheiten die obere Grenze um ein weiteres Grad erhöhen kann. Indem wir Proxy-Daten über tropische und antarktische Abkühlung betrachten, können wir zeigen, dass sehr unterschiedliche absolute Temperatur-Änderungen in hohen und niederen Breiten zu sehr ähnlichen Abschätzungen der Klimasensitivität führen. Vor dem Hintergrund unserer Ergebnisse zeigt diese Dissertation, dass LGM-Proxy-Daten ein effektives Mittel zur Einschränkung des Unsicherheitsbereichs der Klimasensitivität sein können und betont somit das Potenzial von Paläoklimadaten, den großen Unsicherheitsbereich von Klimaprojektionen zu reduzieren. KW - Dynamische Modellierung KW - Potsdam / Potsdam-Institut für Klimafolgenforschung KW - Entscheidung bei Unsicherheit KW - Klimasensitivität KW - Klimaprognose KW - Unsicherheitsanalyse KW - Ensemble-Simulation KW - Letztes Glaziales Maximum KW - climate sensitivity KW - climate projection KW - uncertainty analysis KW - ensemble simulation KW - Last Glacial Maximum Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7778 ER - TY - THES A1 - Schmeja, Stefan T1 - Properties of turbulent star-forming clusters : models versus observations T1 - Eigenschaften turbulenter junger Sternhaufen : Modelle kontra Beobachtungen N2 - Stars are born in turbulent molecular clouds that fragment and collapse under the influence of their own gravity, forming a cluster of hundred or more stars. The star formation process is controlled by the interplay between supersonic turbulence and gravity. In this work, the properties of stellar clusters created by numerical simulations of gravoturbulent fragmentation are compared to those from observations. This includes the analysis of properties of individual protostars as well as statistical properties of the entire cluster. It is demonstrated that protostellar mass accretion is a highly dynamical and time-variant process. The peak accretion rate is reached shortly after the formation of the protostellar core. It is about one order of magnitude higher than the constant accretion rate predicted by the collapse of a classical singular isothermal sphere, in agreement with the observations. For a more reasonable comparison, the model accretion rates are converted to the observables bolometric temperature, bolometric luminosity, and envelope mass. The accretion rates from the simulations are used as input for an evolutionary scheme. The resulting distribution in the Tbol-Lbol-Menv parameter space is then compared to observational data by means of a 3D Kolmogorov-Smirnov test. The highest probability found that the distributions of model tracks and observational data points are drawn from the same population is 70%. The ratios of objects belonging to different evolutionary classes in observed star-forming clusters are compared to the temporal evolution of the gravoturbulent models in order to estimate the evolutionary stage of a cluster. While it is difficult to estimate absolute ages, the realtive numbers of young stars reveal the evolutionary status of a cluster with respect to other clusters. The sequence shows Serpens as the youngest and IC 348 as the most evolved of the investigated clusters. Finally the structures of young star clusters are investigated by applying different statistical methods like the normalised mean correlation length and the minimum spanning tree technique and by a newly defined measure for the cluster elongation. The clustering parameters of the model clusters correspond in many cases well to those from observed ones. The temporal evolution of the clustering parameters shows that the star cluster builds up from several subclusters and evolves to a more centrally concentrated cluster, while the cluster expands slower than new stars are formed. N2 - Sterne entstehen im Inneren von turbulenten Molekülwolken, die unter dem Einfluss ihrer eigenen Gravitation fragmentieren und kollabieren. So entsteht ein Sternhaufen aus hundert oder mehr Objekten. Der Sternentstehungsprozess wird durch das Wechselspiel von Überschallturbulenz und Gravitation reguliert. In dieser Arbeit werden verschiedene Eigenschaften solcher Sternhaufen, die mit Hilfe von numerischen Simulationen modelliert wurden, untersucht und mit Beobachtungsdaten verglichen. Dabei handelt es sich sowohl um Eigenschaften einzelner Protosterne, als auch um statistische Parameter des Sternhaufens als Ganzes. Es wird gezeigt, dass die Massenakkretion von Protosternen ein höchst dynamischer und zeitabhängiger Prozess ist. Die maximale Akkretionsrate wird kurz nach der Bildung des Protosterns erreicht, bevor sie annähernd exponentiell abfällt. Sie ist, in Übereinstimmung mit Beobachtungen, etwa um eine Größenordnung höher als die konstante Rate in den klassischen Modellen. Um die Akkretionsraten der Modelle zuverlässiger vergleichen zu können, werden sie mit Hilfe eines Evolutionsschemas in besser beobachtbare Parameter wie bolometrische Temperatur und Leuchtkraft sowie Hüllenmasse umgewandelt. Die dreidimensionale Verteilung dieser Parameter wird anschließend mittels eines Kolmogorov-Smirnov-Tests mit Beobachtungsdaten verglichen. Die relative Anzahl junger Sterne in verschiedenen Entwicklungsstadien wird mit der zeitlichen Entwicklung der Modelle verglichen, um so den Entwicklungsstand des Sternhaufens abschätzen zu können. Während eine genaue Altersbestimmung schwierig ist, kann der Entwicklungsstand eines Haufens relativ zu anderen gut ermittelt werden. Von den untersuchten Objekten stellt sich Serpens als der jüngste und IC 348 als der am weitesten entwickelte Sternhaufen heraus. Zuletzt werden die Strukturen von jungen Sternhaufen an Hand verschiedener statistischer Methoden und eines neuen Maßes für die Elongation eines Haufens untersucht. Auch hier zeigen die Parameter der Modelle eine gute Übereinstimmung mit solchen von beobachteten Objekten, insbesondere, wenn beide eine ähnliche Elongation aufweisen. Die zeitliche Entwicklung der Parameter zeigt, dass sich ein Sternhaufen aus mehreren kleineren Gruppen bildet, die zusammenwachsen und einen zum Zentrum hin konzentrierten Haufen bilden. Dabei werden neue Sterne schneller gebildet als sich der Sternhaufen ausdehnt. KW - Sternentstehung KW - Sternhaufen KW - Turbulenz KW - Interstellare Materie KW - Numerisches Verfahren KW - star formation KW - star clusters KW - turbulence KW - interstellar medium KW - numerical simulations Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7364 ER - TY - THES A1 - Zou, Yong T1 - Exploring recurrences in quasiperiodic systems T1 - Untersuchung des Wiederkehrverhaltens in quasiperiodischen dynamischen Systemen N2 - In this work, some new results to exploit the recurrence properties of quasiperiodic dynamical systems are presented by means of a two dimensional visualization technique, Recurrence Plots(RPs). Quasiperiodicity is the simplest form of dynamics exhibiting nontrivial recurrences, which are common in many nonlinear systems. The concept of recurrence was introduced to study the restricted three body problem and it is very useful for the characterization of nonlinear systems. I have analyzed in detail the recurrence patterns of systems with quasiperiodic dynamics both analytically and numerically. Based on a theoretical analysis, I have proposed a new procedure to distinguish quasiperiodic dynamics from chaos. This algorithm is particular useful in the analysis of short time series. Furthermore, this approach demonstrates to be efficient in recognizing regular and chaotic trajectories of dynamical systems with mixed phase space. Regarding the application to real situations, I have shown the capability and validity of this method by analyzing time series from fluid experiments. N2 - In dieser Arbeit stelle ich neue Resultate vor, welche zeigen, wie man Rekurrenzeigenschaften quasiperiodischer, dynamischer Systeme für eine Datenanalyse ausnutzen kann. Die vorgestellten Algorithmen basieren auf einer zweidimensionalen Darstellungsmethode, den Rekurrenz-Darstellungen. Quasiperiodizität ist die einfachste Dynamik, die nicht-triviale Rekurrenzen zeigt und tritt häufig in nichtlinearen Systemen auf. Nicht-triviale Rekurrenzen wurden im Zusammenhang mit dem eingeschränkten Dreikörper-problem eingeführt. In dieser Arbeit, habe ich mehrere Systeme mit quasiperiodischem Verhalten analytisch untersucht. Die erhaltenen Ergebnisse helfen die Wiederkehreigenschaften dieser Systeme im Detail zu verstehen. Basierend auf den analytischen Resultaten, schlage ich einen neuen Algorithmus vor, mit dessen Hilfe selbst in kurzen Zeitreihen zwischen chaotischem und quasiperiodischem Verhalten unterschieden werden kann. Die vorgeschlagene Methode ist besonders effizient zur Unterscheidung regulärer und chaotischer Trajektorien mischender dynamischer Systeme.Die praktische Anwendbarkeit der vorgeschlagenen Analyseverfahren auf Messdaten, habe ich gezeigt, indem ich erfolgreich Zeitreihen aus fluid-dynamischen Experimenten untersucht habe. KW - Wiederkehrverhalten KW - quasiperiodisches dynamisches System KW - Recurrence Plot KW - recurrence KW - quasiperiodic dynamical systems KW - recurrence plots Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16497 ER - TY - THES A1 - Miteva, Rositsa Stoycheva T1 - Electron acceleration at localized wave structures in the solar corona T1 - Elektronenbeschleunigung an lokalen Wellenstrukturen in der Sonnenkorona N2 - Our dynamic Sun manifests its activity by different phenomena: from the 11-year cyclic sunspot pattern to the unpredictable and violent explosions in the case of solar flares. During flares, a huge amount of the stored magnetic energy is suddenly released and a substantial part of this energy is carried by the energetic electrons, considered to be the source of the nonthermal radio and X-ray radiation. One of the most important and still open question in solar physics is how the electrons are accelerated up to high energies within (the observed in the radio emission) short time scales. Because the acceleration site is extremely small in spatial extent as well (compared to the solar radius), the electron acceleration is regarded as a local process. The search for localized wave structures in the solar corona that are able to accelerate electrons together with the theoretical and numerical description of the conditions and requirements for this process, is the aim of the dissertation. Two models of electron acceleration in the solar corona are proposed in the dissertation: I. Electron acceleration due to the solar jet interaction with the background coronal plasma (the jet--plasma interaction) A jet is formed when the newly reconnected and highly curved magnetic field lines are relaxed by shooting plasma away from the reconnection site. Such jets, as observed in soft X-rays with the Yohkoh satellite, are spatially and temporally associated with beams of nonthermal electrons (in terms of the so-called type III metric radio bursts) propagating through the corona. A model that attempts to give an explanation for such observational facts is developed here. Initially, the interaction of such jets with the background plasma leads to an (ion-acoustic) instability associated with growing of electrostatic fluctuations in time for certain range of the jet initial velocity. During this process, any test electron that happen to feel this electrostatic wave field is drawn to co-move with the wave, gaining energy from it. When the jet speed has a value greater or lower than the one, required by the instability range, such wave excitation cannot be sustained and the process of electron energization (acceleration and/or heating) ceases. Hence, the electrons can propagate further in the corona and be detected as type III radio burst, for example. II. Electron acceleration due to attached whistler waves in the upstream region of coronal shocks (the electron--whistler--shock interaction) Coronal shocks are also able to accelerate electrons, as observed by the so-called type II metric radio bursts (the radio signature of a shock wave in the corona). From in-situ observations in space, e.g., at shocks related to co-rotating interaction regions, it is known that nonthermal electrons are produced preferably at shocks with attached whistler wave packets in their upstream regions. Motivated by these observations and assuming that the physical processes at shocks are the same in the corona as in the interplanetary medium, a new model of electron acceleration at coronal shocks is presented in the dissertation, where the electrons are accelerated by their interaction with such whistlers. The protons inflowing toward the shock are reflected there by nearly conserving their magnetic moment, so that they get a substantial velocity gain in the case of a quasi-perpendicular shock geometry, i.e, the angle between the shock normal and the upstream magnetic field is in the range 50--80 degrees. The so-accelerated protons are able to excite whistler waves in a certain frequency range in the upstream region. When these whistlers (comprising the localized wave structure in this case) are formed, only the incoming electrons are now able to interact resonantly with them. But only a part of these electrons fulfill the the electron--whistler wave resonance condition. Due to such resonant interaction (i.e., of these electrons with the whistlers), the electrons are accelerated in the electric and magnetic wave field within just several whistler periods. While gaining energy from the whistler wave field, the electrons reach the shock front and, subsequently, a major part of them are reflected back into the upstream region, since the shock accompanied with a jump of the magnetic field acts as a magnetic mirror. Co-moving with the whistlers now, the reflected electrons are out of resonance and hence can propagate undisturbed into the far upstream region, where they are detected in terms of type II metric radio bursts. In summary, the kinetic energy of protons is transfered into electrons by the action of localized wave structures in both cases, i.e., at jets outflowing from the magnetic reconnection site and at shock waves in the corona. N2 - Die Sonne ist ein aktiver Stern, was sich nicht nur in den allseits bekannten Sonnenflecken, sondern auch in Flares manifestiert. Während Flares wird eine große Menge gespeicherter, magnetischer Energie in einer kurzen Zeit von einigen Sekunden bis zu wenigen Stunden in der Sonnenkorona freigesetzt. Dabei werden u.a. energiereiche Elektronen erzeugt, die ihrerseits nichtthermische Radio- und Röntgenstrahlung, wie sie z.B. am Observatorium für solare Radioastronomie des Astrophysikalischen Instituts Potsdam (AIP) in Tremsdorf und durch den NASA-Satelliten RHESSI beobachtet werden, erzeugen. Da diese Elektronen einen beträchtlichen Anteil der beim Flare freigesetzten Energie tragen, ist die Frage, wie Elektronen in kurzer Zeit auf hohe Energien in der Sonnenkorona beschleunigt werden, von generellem astrophysikalischen Interesse, da solche Prozesse auch in anderen Sternatmosphären und kosmischen Objekten, wie z.B. Supernova-Überresten, stattfinden. In der vorliegenden Dissertation wird die Elektronenbeschleunigung an lokalen Wellenstrukturen im Plasma der Sonnenkorona untersucht. Solche Wellen treten in der Umgebung der magnetischen Rekonnektion, die als ein wichtiger Auslöser von Flares angesehen wird, und in der Nähe von Stoßwellen, die infolge von Flares erzeugt werden, auf. Generell werden die Elektronen als Testteilchen behandelt. Sie werden durch ihre Wechselwirkung mit den elektrischen und magnetischen Feldern, die mit den Plasmawellen verbunden sind, beschleunigt. Infolge der magnetischen Rekonnektion als Grundlage des Flares werden starke Plasmaströmungen (sogenannte Jets) erzeugt. Solche Jets werden im Licht der weichen Röntgenstrahlung, wie z.B. durch den japanischen Satelliten YOHKOH, beobachtet. Mit solchen Jets sind solare Typ III Radiobursts als Signaturen von energiereichen Elektronenstrahlen in der Sonnenkorona verbunden. Durch die Wechselwirkung eines Jets mit dem umgebenden Plasma werden lokal elektrische Felder erzeugt, die ihrerseits Elektronen beschleunigen können. Dieses hier vorgestellte Szenarium kann sehr gut die Röntgen- und Radiobeobachtungen von Jets und den damit verbundenen Elektronenstrahlen erklären. An koronalen Stoßwellen, die infolge Flares entstehen, werden Elektronen beschleunigt, deren Signatur man in der solaren Radiostrahlung in Form von sogenannten Typ II Bursts beobachten kann. Stoßwellen in kosmischen Plasmen können mit Whistlerwellen (ein spezieller Typ von Plasmawellen) verbunden sein. In der vorliegenden Arbeit wird ein Szenarium vorgestellt, das aufzeigt, wie solche Whistlerwellen an koronalen Stoßwellen erzeugt werden und durch ihre resonante Wechselwirkung mit den Elektronen dieselben beschleunigen. Dieser Prozess ist effizienter als bisher vorgeschlagene Mechanismen und kann deshalb auch auf andere Stoßwellen im Kosmos, wie z.B. an Supernova-Überresten, zur Erklärung der dort erzeugten Radio- und Röntgenstrahlung dienen. KW - Elektronenbeschleunigung KW - Sonnenkorona KW - Jets KW - Stoßwellen KW - Nichtlineare Wellen KW - Electron acceleration KW - Solar corona KW - Jets KW - Shock waves KW - Nonlinear waves Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14775 ER - TY - THES A1 - Glushak, Ksenia T1 - Atmospheric circulation and the surface mass balance in a regional climate model of Antarctica T1 - Atmosphärische Zirkulation und die Massenbilanz der Oberfläche in einem regionalen Klimamodell der Antarktis N2 - Understanding the Earth's climate system and particularly climate variability presents one of the most difficult and urgent challenges in science. The Antarctic plays a crucial role in the global climate system, since it is the principal region of radiative energy deficit and atmospheric cooling. An assessment of regional climate model HIRHAM is presented. The simulations are generated with the HIRHAM model, which is modified for Antarctic applications. With a horizontal resolution of 55km, the model has been run for the period 1958-1998 creating long-term simulations from initial and boundary conditions provided by the European Centre for Medium-Range Weather Forecasts (ECMWF) ERA40 re-analysis. The model output is compared with observations from observation stations, upper air data, global atmospheric analyses and satellite data. In comparison with the observations, the evaluation shows that the simulations with the HIRHAM model capture both the large and regional scale circulation features with generally small bias in the modeled variables. On the annual time scale the largest errors in the model simulations are the overestimation total cloud cover and the colder near-surface temperature over the interior of the Antarctic plateau. The low-level temperature inversion as well as low-level wind jet is well captured by the model. The decadal scale processes were studied based on trend calculations. The long-term run was divided into two 20 years parts. The 2m temperature, 500 hPa temperature, MSLP, precipitation and net mass balance trends were calculated for both periods and over 1958 - 1998. During the last two decades the strong surface cooling was observed over the Eastern Antarctica, this result is in good agreement with the result of Chapman and Walsh (2005) who calculated the temperature trend based on the observational data. The MSLP trend reveals a big disparity between the first and second parts of the 40 year run. The overall trend shows the strengthening of the circumpolar vortex and continental anticyclone. The net mass balance as well as precipitation show a positive trend over the Antarctic Peninsula region, along Wilkes Land and in Dronning Maud Land. The Antarctic ice sheet grows over the Eastern part of Antarctica with small exceptions in Dronning Maud Land and Wilkes Land and sinks in the Antarctic Peninsula; this result is in good agreement with the satellite-measured altitude presented in Davis (2005) . To better understand the horizontal structure of MSLP, temperature and net mass balance trends the influence of the Southern Annual Mode (SAM) on the Antarctic climate was investigated. The main meteorological parameters during the positive and negative Antarctic Oscillation (AAO) phases were compared to each other. A positive/negative AAO index means strengthening/weakening of the circumpolar vortex, poleward/northward storm tracks and prevailing/weakening westerly winds. For detailed investigation of global teleconnection, two positive and one negative periods of AAO phase were chosen. The differences in MSLP and 2m temperature between positive and negative AAO years during the winter months partly explain the surface cooling during the last decades. N2 - Eine der dringendsten wissenschaftlichen Herausforderungen besteht darin, das Klimasystem der Erde und die Prozesse zu verstehen, die seine Klimavariabilität bestimmen. Die Antarktis spielt eine entscheidende Rolle im globalen Klimasystem, da sie die wesentliche Energiesenke und atmosphärische Abkühlregion darstellt. In dieser Arbeit wird das regionale Klimamodell HIRHAM zur Untersuchung des Klimas der Antarktis eingesetzt, das dafür speziell angepasst wurde. Mit einer horizontalen Auflösung von 50 km und 25 vertikalen Schichten wurden Simulationen für 40 Jahre von 1958-1998 durchgeführt, wobei die Anfangs- und Randbedingungen durch die ERA40 Daten des ECMWF (European Centre for Medium-Range Weather Forecasts) geliefert wurden. Die Modellergebnisse wurden mit Daten von Beobachtungsstationen, aerologischen Vertikalsondierungen, globalen Analysedaten und Satellitendaten verglichen. Diese Validierung zeigt, dass die HIRHAM Modellsimulationen die globalen und regionalen Zirkulationsmuster mit einem vertretbaren Modellfehler generieren. Auf der jährlichen Zeitskale zeigen sich die größten Modellfehler in einer Überbestimmung der totalen Wolkenbedeckung und der kalten bodennahen Temperaturen der Atmosphäre. Die bodennahen Inversionen und katabatischen Windsysteme werden durch das Modell gut wiedergegeben. Dekadische Prozesse wurden durch Trendberechnungen analysiert. Dazu wurden die 40 Jahre umfassenden Simulationen in zwei 20 Jahre Abschnitte von 1958-1978 und 1979-1998 unterteilt. Die Trends in den 2m Temperaturen, im mittleren Bodenluftdruck, 500 hPa Geopotential, Niederschlag und der Netto Massenbilanz wurden berechnet. In den letzten zwei Dekaden wurde eine starke atmosphärische Abkühlung an der Oberfläche in der Ostantarktis simuliert, die in guter Übereinstimmung mit den Trendanalysen aus Beobachtungen von Chapman und Walsh (2005) steht. Der Trend im mittleren Bodenluftdruck weist deutliche Unterschiede zwischen den ersten Periode 1958-1978 und der zweiten Periode 1979-1998 auf. Insgesamt verstärkt sich über die untersuchten 40 Jahre der zirkumpolare Tiefdruckwirbel und die kontinentale Antizyklone. Die Nettomassenbilanz und der Niederschlag zeigen einen positiven Trend über der Antarktischen Halbinsel, Wilkes Land und Dronning Maud Land. Das antarktische Eisschild wächst im östlichen Teil der Antarktis mit geringen Ausnahmen in Dronning Maud Land und Wilkes Land an und schächt sich über der antarktischen Halbinsel ab. Dieses Resultat befindet sich in Übereinstimmung mit den Akkumulationstrends von Davis (2005) auf der Basis von Satellitendaten. Die horizontalen Strukturen der simulierten antarktischen Trends im mittleren Bodenluftdruck, in der 2m Temperatur und der Netto Massenbilanz wurden mit Trends des globalen Telekonnektionsmusters der Südhemisphäre verglichen. Dazu wurden wesentliche atmosphärische Parameter für positive und negative Phasen der Antarktischen Oszillation (AAO) analysiert. Die positiven/negativen AAO Phasen gehen einher mit einer Verstärkung/Abschwächung des zirkumpolaren Tiefdruckwirbels, verstärkten/reduzierten Stormtracks und verstärkten/abgeschwächten Westwinden. Für eine tiefergehende Untersuchung wurden zwei positive und eine negative AAO Phase miteinander verglichen. Die Unterschiede im Bodenluftdruck und der 2m Temperatur zwischen den positiven und negativen AAO Perioden können den Abkühlungstrend während der letzten Dekaden zu großen Teilen erklären. KW - Antarktis KW - Klima KW - regionales Modell KW - Antarctic KW - Climate KW - regional modeling Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-17296 ER - TY - THES A1 - Pazienti, Antonio T1 - Manipulations of spike trains and their impact on synchrony analysis T1 - Manipulationen von Aktionspotentialfolgen und dessen Impakt auf die Synchronizitaetsanalyse N2 - The interaction between neuronal cells can be identified as the computing mechanism of the brain. Neurons are complex cells that do not operate in isolation, but they are organized in a highly connected network structure. There is experimental evidence that groups of neurons dynamically synchronize their activity and process brain functions at all levels of complexity. A fundamental step to prove this hypothesis is to analyze large sets of single neurons recorded in parallel. Techniques to obtain these data are meanwhile available, but advancements are needed in the pre-processing of the large volumes of acquired data and in data analysis techniques. Major issues include extracting the signal of single neurons from the noisy recordings (referred to as spike sorting) and assessing the significance of the synchrony. This dissertation addresses these issues with two complementary strategies, both founded on the manipulation of point processes under rigorous analytical control. On the one hand I modeled the effect of spike sorting errors on correlated spike trains by corrupting them with realistic failures, and studied the corresponding impact on correlation analysis. The results show that correlations between multiple parallel spike trains are severely affected by spike sorting, especially by erroneously missing spikes. When this happens sorting strategies characterized by classifying only good'' spikes (conservative strategies) lead to less accurate results than tolerant'' strategies. On the other hand, I investigated the effectiveness of methods for assessing significance that create surrogate data by displacing spikes around their original position (referred to as dithering). I provide analytical expressions of the probability of coincidence detection after dithering. The effectiveness of spike dithering in creating surrogate data strongly depends on the dithering method and on the method of counting coincidences. Closed-form expressions and bounds are derived for the case where the dither equals the allowed coincidence interval. This work provides new insights into the methodologies of identifying synchrony in large-scale neuronal recordings, and of assessing its significance. N2 - Die Informationsverarbeitung im Gehirn erfolgt maßgeblich durch interaktive Prozesse von Nervenzellen, sogenannten Neuronen. Diese zeigen eine komplexe Dynamik ihrer chemischen und elektrischen Eigenschaften. Es gibt deutliche Hinweise darauf, dass Gruppen synchronisierter Neurone letztlich die Funktionsweise des Gehirns auf allen Ebenen erklären können. Um die schwierige Frage nach der genauen Funktionsweise des Gehirns zu beantworten, ist es daher notwendig, die Aktivität vieler Neuronen gleichzeitig zu messen. Die technischen Voraussetzungen hierfür sind in den letzten Jahrzehnten durch Multielektrodensyteme geschaffen worden, die heute eine breite Anwendung finden. Sie ermöglichen die simultane extrazelluläre Ableitung von bis zu mehreren hunderten Kanälen. Die Voraussetzung für die Korrelationsanalyse von vielen parallelen Messungen ist zunächst die korrekte Erkennung und Zuordnung der Aktionspotentiale einzelner Neurone, ein Verfahren, das als Spikesortierung bezeichnet wird. Eine weitere Herausforderung ist die statistisch korrekte Bewertung von empirisch beobachteten Korrelationen. Mit dieser Dissertationsschrift lege ich eine theoretische Arbeit vor, die sich der Vorverarbeitung der Daten durch Spikesortierung und ihrem Einfluss auf die Genauigkeit der statistischen Auswertungsverfahren, sowie der Effektivität zur Erstellung von Surrogatdaten für die statistische Signifikanzabschätzung auf Korrelationen widmet. Ich verwende zwei komplementäre Strategien, die beide auf der analytischen Berechnung von Punktprozessmanipulationen basieren. In einer ausführlichen Studie habe ich den Effekt von Spikesortierung in mit realistischen Fehlern behafteten korrelierten Spikefolgen modeliert. Zum Vergleich der Ergebnisse zweier unterschiedlicher Methoden zur Korrelationsanalyse auf den gestörten, sowie auf den ungestörten Prozessen, leite ich die entsprechenden analytischen Formeln her. Meine Ergebnisse zeigen, dass koinzidente Aktivitätsmuster multipler Spikefolgen durch Spikeklassifikation erheblich beeinflusst werden. Das ist der Fall, wenn Neuronen nur fälschlicherweise Spikes zugeordnet werden, obwohl diese anderen Neuronen zugehörig sind oder Rauschartefakte sind (falsch positive Fehler). Jedoch haben falsch-negative Fehler (fälschlicherweise nicht-klassifizierte oder missklassifizierte Spikes) einen weitaus grösseren Einfluss auf die Signifikanz der Korrelationen. In einer weiteren Studie untersuche ich die Effektivität einer Klasse von Surrogatmethoden, sogenannte Ditheringverfahren, welche paarweise Korrelationen zerstören, in dem sie koinzidente Spikes von ihrer ursprünglichen Position in einem kleinen Zeitfenster verrücken. Es zeigt sich, dass die Effektivität von Spike-Dithering zur Erzeugung von Surrogatdaten sowohl von der Dithermethode als auch von der Methode zur Koinzidenzzählung abhängt. Für die Wahrscheinlichkeit der Koinzidenzerkennung nach dem Dithern stelle ich analytische Formeln zur Verfügung. Die vorliegende Arbeit bietet neue Einblicke in die Methoden zur Korrelationsanalyse auf multi-variaten Punktprozessen mit einer genauen Untersuchung von unterschiedlichen statistischen Einflüssen auf die Signifikanzabschätzung. Für die praktische Anwendung ergeben sich Leitlinien für den Umgang mit Daten zur Synchronizitätsanalyse. KW - Brain Code KW - Point Process KW - Synchrony KW - Correlation Analysis KW - Surrogate Data Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-17447 ER - TY - THES A1 - Tukhlina, Natalia T1 - Feedback control of complex oscillatory systems T1 - Rückkopplungskontrolle von komplexen oscillatorischen Systemen N2 - In the present dissertation paper an approach which ensures an efficient control of such diverse systems as noisy or chaotic oscillators and neural ensembles is developed. This approach is implemented by a simple linear feedback loop. The dissertation paper consists of two main parts. One part of the work is dedicated to the application of the suggested technique to a population of neurons with a goal to suppress their synchronous collective dynamics. The other part is aimed at investigating linear feedback control of coherence of a noisy or chaotic self-sustained oscillator. First we start with a problem of suppressing synchronization in a large population of interacting neurons. The importance of this task is based on the hypothesis that emergence of pathological brain activity in the case of Parkinson's disease and other neurological disorders is caused by synchrony of many thousands of neurons. The established therapy for the patients with such disorders is a permanent high-frequency electrical stimulation via the depth microelectrodes, called Deep Brain Stimulation (DBS). In spite of efficiency of such stimulation, it has several side effects and mechanisms underlying DBS remain unclear. In the present work an efficient and simple control technique is suggested. It is designed to ensure suppression of synchrony in a neural ensemble by a minimized stimulation that vanishes as soon as the tremor is suppressed. This vanishing-stimulation technique would be a useful tool of experimental neuroscience; on the other hand, control of collective dynamics in a large population of units represents an interesting physical problem. The main idea of suggested approach is related to the classical problem of oscillation theory, namely the interaction between a self-sustained (active) oscillator and a passive load (resonator). It is known that under certain conditions the passive oscillator can suppress the oscillations of an active one. In this thesis a much more complicated case of active medium, which itself consists of thousands of oscillators is considered. Coupling this medium to a specially designed passive oscillator, one can control the collective motion of the ensemble, specifically can enhance or suppress it. Having in mind a possible application in neuroscience, the problem of suppression is concentrated upon. Second, the efficiency of suggested suppression scheme is illustrated by considering more complex case, i.e. when the population of neurons generating the undesired rhythm consists of two non-overlapping subpopulations: the first one is affected by the stimulation, while the collective activity is registered from the second one. Generally speaking, the second population can be by itself both active and passive; both cases are considered here. The possible applications of suggested technique are discussed. Third, the influence of the external linear feedback on coherence of a noisy or chaotic self-sustained oscillator is considered. Coherence is one of the main properties of self-oscillating systems and plays a key role in the construction of clocks, electronic generators, lasers, etc. The coherence of a noisy limit cycle oscillator in the context of phase dynamics is evaluated by the phase diffusion constant, which is in its turn proportional to the width of the spectral peak of oscillations. Many chaotic oscillators can be described within the framework of phase dynamics, and, therefore, their coherence can be also quantified by the way of the phase diffusion constant. The analytical theory for a general linear feedback, considering noisy systems in the linear and Gaussian approximation is developed and validated by numerical results. N2 - In der vorliegenden Dissertation wird eine Näherung entwickelt, die eine effiziente Kontrolle verschiedener Systeme wie verrauschten oder chaotischen Oszillatoren und Neuronenensembles ermöglicht. Diese Näherung wird durch eine einfache lineare Rückkopplungsschleife implementiert. Die Dissertation besteht aus zwei Teilen. Ein Teil der Arbeit ist der Anwendung der vorgeschlagenen Technik auf eine Population von Neuronen gewidmet, mit dem Ziel ihre synchrone Dynamik zu unterdrücken. Der zweite Teil ist auf die Untersuchung der linearen Feedback-Kontrolle der Kohärenz eines verrauschten oder chaotischen, selbst erregenden Oszillators gerichtet. Zunächst widmen wir uns dem Problem, die Synchronisation in einer großen Population von aufeinander wirkenden Neuronen zu unterdrücken. Da angenommen wird, dass das Auftreten pathologischer Gehirntätigkeit, wie im Falle der Parkinsonschen Krankheit oder bei Epilepsie, auf die Synchronisation großer Neuronenpopulation zurück zu führen ist, ist das Verständnis dieser Prozesse von tragender Bedeutung. Die Standardtherapie bei derartigen Erkrankungen besteht in einer dauerhaften, hochfrequenten, intrakraniellen Hirnstimulation mittels implantierter Elektroden (Deep Brain Stimulation, DBS). Trotz der Wirksamkeit solcher Stimulationen können verschiedene Nebenwirkungen auftreten, und die Mechanismen, die der DBS zu Grunde liegen sind nicht klar. In meiner Arbeit schlage ich eine effiziente und einfache Kontrolltechnik vor, die die Synchronisation in einem Neuronenensemble durch eine minimierte Anregung unterdrückt und minimalinvasiv ist, da die Anregung stoppt, sobald der Tremor erfolgreich unterdrückt wurde. Diese Technik der "schwindenden Anregung" wäre ein nützliches Werkzeug der experimentellen Neurowissenschaft. Desweiteren stellt die Kontrolle der kollektiven Dynamik in einer großen Population von Einheiten ein interessantes physikalisches Problem dar. Der Grundansatz der Näherung ist eng mit dem klassischen Problem der Schwingungstheorie verwandt - der Interaktion eines selbst erregenden (aktiven) Oszillators und einer passiven Last, dem Resonator. Ich betrachte den deutlich komplexeren Fall eines aktiven Mediums, welches aus vielen tausenden Oszillatoren besteht. Durch Kopplung dieses Mediums an einen speziell hierür konzipierten, passiven Oszillator kann man die kollektive Bewegung des Ensembles kontrollieren, um diese zu erhöhen oder zu unterdrücken. Mit Hinblick auf eine möglichen Anwendung im Bereich der Neurowissenschaften, konzentriere ich mich hierbei auf das Problem der Unterdrückung. Im zweiten Teil wird die Wirksamkeit dieses Unterdrückungsschemas im Rahmen eines komplexeren Falles, bei dem die Population von Neuronen, die einen unerwünschten Rhythmus erzeugen, aus zwei nicht überlappenden Subpopulationen besteht, dargestellt. Zunächst wird eine der beiden Subpopulationen durch Stimulation beeinflusst und die kollektive Aktivität an der zweiten Subpopulation gemessen. Im Allgemeinen kann sich die zweite Subpopulation sowohl aktiv als auch passiv verhalten. Beide Fälle werden eingehend betrachtet. Anschließend werden die möglichen Anwendungen der vorgeschlagenen Technik besprochen. Danach werden verschiedene Betrachtungen über den Einfluss des externen linearen Feedbacks auf die Kohärenz eines verrauschten oder chaotischen selbst erregenden Oszillators angestellt. Kohärenz ist eine Grundeigenschaft schwingender Systeme und spielt ein tragende Rolle bei der Konstruktion von Uhren, Generatoren oder Lasern. Die Kohärenz eines verrauschten Grenzzyklus Oszillators im Sinne der Phasendynamik wird durch die Phasendiffusionskonstante bewertet, die ihrerseits zur Breite der spektralen Spitze von Schwingungen proportional ist. Viele chaotische Oszillatoren können im Rahmen der Phasendynamik beschrieben werden, weshalb ihre Kohärenz auch über die Phasendiffusionskonstante gemessen werden kann. Die analytische Theorie eines allgemeinen linearen Feedbacks in der Gaußschen, als auch in der linearen, Näherung wird entwickelt und durch numerische Ergebnisse gestützt. KW - Rückkopplungskontrolle KW - Neuronale Synchronisation KW - globale Kupplung KW - Kohärenz KW - verrauschte Oszillatoren KW - Feedback control KW - Neuronal synchrony KW - Global coupling KW - Coherence KW - Noisy oscillators Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18546 ER - TY - THES A1 - Zemanová, Lucia T1 - Structure-function relationship in hierarchical model of brain networks T1 - Das Verhältnis von Struktur und Funktion in hierarchischem Model der Hirn-Netzwerken N2 - The mammalian brain is, with its numerous neural elements and structured complex connectivity, one of the most complex systems in nature. Recently, large-scale corticocortical connectivities, both structural and functional, have received a great deal of research attention, especially using the approach of complex networks. Here, we try to shed some light on the relationship between structural and functional connectivities by studying synchronization dynamics in a realistic anatomical network of cat cortical connectivity. We model the cortical areas by a subnetwork of interacting excitable neurons (multilevel model) and by a neural mass model (population model). With weak couplings, the multilevel model displays biologically plausible dynamics and the synchronization patterns reveal a hierarchical cluster organization in the network structure. We can identify a group of brain areas involved in multifunctional tasks by comparing the dynamical clusters to the topological communities of the network. With strong couplings of multilevel model and by using neural mass model, the dynamics are characterized by well-defined oscillations. The synchronization patterns are mainly determined by the node intensity (total input strengths of a node); the detailed network topology is of secondary importance. The biologically improved multilevel model exhibits similar dynamical patterns in the two regimes. Thus, the study of synchronization in a multilevel complex network model of cortex can provide insights into the relationship between network topology and functional organization of complex brain networks. N2 - Das Gehirn von Säugetieren stellt mit seinen zahlreichen, hochgradig vernetzten Neuronen ein natürliches Netzwerk von immenser Komplexität dar. In der jüngsten Vergangenheit sind die großflächige kortikale Konnektivitäten, sowohl unter strukturellen wie auch funktionalen Gesichtspunkten, in den Fokus der Forschung getreten. Die Verwendung von komplexe Netzwerke spielt hierbei eine entscheidende Rolle. In der vorliegenden Dissertation versuchen wir, das Verhältnis von struktureller und funktionaler Konnektivität durch Untersuchung der Synchronisationsdynamik anhand eines realistischen Modells der Konnektivität im Kortex einer Katze näher zu beleuchten. Wir modellieren die Kortexareale durch ein Subnetzwerk interagierender, erregbarer Neuronen (multilevel model) und durch ein Modell von Neuronenensembles (population model). Bei schwacher Kopplung zeigt das multilevel model eine biologisch plausible Dynamik und die Synchronisationsmuster lassen eine hierarchische Organisation der Netzwerkstruktur erkennen. Indem wir die dynamischen Cluster mit den topologischen Einheiten des Netzwerks vergleichen, sind wir in der Lage die Hirnareale, die an der Bewältigung komplexer Aufgaben beteiligt sind, zu identifizieren. Bei starker Kopplung im multilevel model und unter Verwendung des Ensemblemodells weist die Dynamik klare Oszillationen auf. Die Synchronisationsmuster werden hauptsächlich durch die Eingangsstärke an den einzelnen Knoten bestimmt, während die genaue Netzwerktopologie zweitrangig ist. Eine Erweiterung des Modells auf andere biologisch relevante Faktoren bestätigt die vorherigen Ergebnisse. Die Untersuchung der Synchronisation in einem multilevel model des Kortex ermöglicht daher tiefere Einblicke in die Zusammenhänge zwischen Netzwerktopologie und funktionaler Organisation in komplexen Hirn-Netzwerken. KW - komplexe Hirnnetzwerke KW - Verhältnis der Struktur und Funktion KW - hierarchisches Model KW - Synchronization KW - complex brain networks KW - structur-function relationship KW - hierarchical model KW - synchronization Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18400 ER - TY - THES A1 - Zamora-López, Gorka T1 - Linking structure and function of complex cortical networks T1 - Analyse der Struktur-Funktions-Beziehungen komplexer kortikaler Netzwerke N2 - The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes. N2 - Die jüngste Entdeckung einer komplexen und nicht-trivialen Interaktionstopologie zwischen den Elementen einer großen Anzahl natürlicher Systeme hat die Art und Weise verändert, wie wir Komplexität verstehen. So bilden zum Beispiel die Nervenfasern, welche Informationen zwischen Regionen des Kortex übermitteln, ein Netzwerk, das weder vollkommen regelmäßig noch völlig zufallig ist. Die Struktur dieser Netzwerke scheint Funktionsprinzipien zu folgen, die ein Gleichgewicht zwischen Segregation (funktionale Spezialisierung) und Integration (Verarbeitung von Informationen) halten. Die Regionen des Kortex sind in Module gegliedert, welche auf die Verarbeitung unterschiedlicher Arten von Informationen, wie beispielsweise Visuelle oder Auditive, spezialisiert sind. Um eine umfassende Vorstellung von der Realität zu erzeugen, muss das Gehirn verschiedene Informationsarten kombinieren (integrieren). Wo diese Integration jedoch geschieht, ist noch ungeklärt. In dieser Dissertation wurde eine weitreichende und detaillierte graphen- theoretische Analyse der kortiko-kortikalen Organisation des Katzengehirns durchgeführt. Dabei wurde der Versuch unternommen, individuelle sowie kollektive topologische Eigenschaften der Kortexareale zu ihrer Funktion in Beziehung zu setzen. Aus der Untersuchung wird geschlussfolgert, dass der Kortex eine äußerst reichhaltige Kommunikationsstruktur aufweist, die aus einer Mischung von parallelen und seriellen übertragungsbahnen besteht, die es ermöglichen dynamische Prozesse auf vielen verschiedenen Zeitskalen zu tragen. Die Kommunikationsbahnen zwischen den sensorischen Systemen sind nicht zufällig verteilt, sondern verlaufen fast alle durch eine geringe Anzahl von Arealen. Diese zentralen Areale agieren nicht allein als übermittler von Informationen. Sie sind dicht untereinander verbunden, was auf ihre Funktion als Integrator hinweist. Bei der Analyse der Struktur-Funktions-Beziehungen kortikaler Netzwerke wurden unter Berucksichtigung der Besonderheiten des untersuchten Netzwerkes die bisher verwandten Graphenmaße überdacht und zum Teil überarbeitet. So wurde beispielsweise ein normalisierter Formalismus vorgeschlagen, um die funktionalen Rollen der Knoten in Netzwerken mit einer Community-Struktur zu identifizieren. Die für diesen Zweck entwickelten Werkzeuge ermöglichen neue Methoden zur Erkennung dieser Strukturen, die möglicherweise auch die überlappung von Modulen beschreiben. Das Konzept der Integration wurde revidiert und den Bedürfnissen des untersuchten Netzwerkes angepasst. Außerdem wurden analytische und numerische Methoden eingeführt, um das Verständnis des komplizierten statistischen Zusammenhangs zwischen den verschiedenen Netzwerkmaßen zu erleichtern. Diese Methoden sind hilfreich für die Konstruktion neuer Signifikanztests, die relevante Eigenschaften realer Netzwerke von Nebeneffekten ihrer evolutionären Wachstumsprozesse unterscheiden können. KW - komplexe Netzwerke KW - kortikale Netzwerke KW - complex networks KW - cortical networks Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52257 ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P

The findings presented show that the method of phase synchronization analysis motivated by physics is able to provide a relevant contribution to the investigation of event-related potentials in the cognitive sciences. T2 - Phase synchronization analysis of event-related brain potentials in language processing KW - Synchronisation KW - EEG KW - Sprachverarbeitung KW - Multivariate Analyse KW - synchronization KW - EEG KW - language processing KW - multivariate analysis Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001873 ER - TY - THES A1 - Clodong, Sébastien T1 - Recurrent outbreaks in ecology : chaotic dynamics in complex networks N2 - Gegenstand der Dissertation ist die Untersuchung von wiederkehrenden Ausbrüchen (wie z.B. Epidemien) in der Natur. Dies gelang anhand von Modellen, die die Dynamik von Phytoplankton und die Ausbreitung von Krankheiten zwischen Städten beschreiben. Diese beide Systeme bilden hervorragende Beispiele für solche Phänomene. Die Frage, ob die in der Zeit wiederkehrenden Ausbrüche ein Ausdruck chaotischer Dynamik sein können, ist aktuell in der Ökologie und fasziniert Wissenschaftler dieser Disziplin. Wir konnten zeigen, dass sich das Plankton-Modell im Falle von periodischem Antreiben über die Nährstoffe in einem chaotischen Regime befindet. Diese Dynamik wurde als die komplexe Wechselwirkung zweier Oszillatoren verstanden. Ebenfalls wurde die Ausbreitung von Epidemien in Netzwerken wechselwirkender Städte mit unterschiedlichen Grössen untersucht. Dafür wurde zunächst die Kopplung zwischen zwei Städten als Verhältnis der Stadtgrössen eingeführt. Es konnte gezeigt werden, dass das System sich in einem globalen zweijährigen Zyklus, der auch in den realen Daten beobachtet wird, befinden kann. Der Effekt von Heterogenität in der Grösseverteilung ist durch gewichtete Kopplung von generischen Modellen (Zelt- und Logistische Abbildung) in Netzwerken im Detail untersucht worden. Eine neue Art von Kopplungsfunktion mit nichtlinearer Sättigung wurde eingeführt, um die Stabilität des Systems zu gewährleisten. Diese Kopplung beinhaltet einen Parameter, der es erlaubt, die Netzwerktopologie von globaler Kopplung in gerichtete Netzwerke gleichmässig umzuwandeln. Die Dynamik des Systems wurde anhand von Bifurkationsdiagrammen untersucht. Zum Verständnis dieser Dynamik wurde eine effektive Theorie, die die beobachteten Bifurkationen sehr gut nachahmt, entwickelt. N2 - One of the most striking features of ecological systems is their ability to undergo sudden outbreaks in the population numbers of one or a small number of species. The similarity of outbreak characteristics, which is exhibited in totally different and unrelated (ecological) systems naturally leads to the question whether there are universal mechanisms underlying outbreak dynamics in Ecology. It will be shown into two case studies (dynamics of phytoplankton blooms under variable nutrients supply and spread of epidemics in networks of cities) that one explanation for the regular recurrence of outbreaks stems from the interaction of the natural systems with periodical variations of their environment. Natural aquatic systems like lakes offer very good examples for the annual recurrence of outbreaks in Ecology. The idea whether chaos is responsible for the irregular heights of outbreaks is central in the domain of ecological modeling. This question is investigated in the context of phytoplankton blooms. The dynamics of epidemics in networks of cities is a problem which offers many ecological and theoretical aspects. The coupling between the cities is introduced through their sizes and gives rise to a weighted network which topology is generated from the distribution of the city sizes. We examine the dynamics in this network and classified the different possible regimes. It could be shown that a single epidemiological model can be reduced to a one-dimensional map. We analyze in this context the dynamics in networks of weighted maps. The coupling is a saturation function which possess a parameter which can be interpreted as an effective temperature for the network. This parameter allows to vary continously the network topology from global coupling to hierarchical network. We perform bifurcation analysis of the global dynamics and succeed to construct an effective theory explaining very well the behavior of the system. T2 - Recurrent outbreaks in ecology : chaotic dynamics in complex networks KW - Ökologie KW - Modelierung KW - Chaos KW - Epidemien KW - ecology KW - modeling KW - chaos KW - epidemics Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001626 ER - TY - THES A1 - Thiel, Marco T1 - Recurrences : exploiting naturally occurring analogues N2 - In der vorliegenden Arbeit wird die Wiederkehr im Phasenraum ausgenutzt. Dabei werden drei Hauptresultate besprochen. 1. Die Wiederkehr erlaubt die Vorhersagbarkeit des Systems zu quantifizieren. 2. Die Wiederkehr enthaelt (unter bestimmten Voraussetzungen) sämtliche relevante Information über die Dynamik im Phasenraum 3. Die Wiederkehr erlaubt die Erzeugung dynamischer Ersatzdaten. N2 - Recurrence plots, a rather promising tool of data analysis, have been introduced by Eckman et al. in 1987. They visualise recurrences in phase space and give an overview about the system's dynamics. Two features have made the method rather popular. Firstly they are rather simple to compute and secondly they are putatively easy to interpret. However, the straightforward interpretation of recurrence plots for some systems yields rather surprising results. For example indications of low dimensional chaos have been reported for stock marked data, based on recurrence plots. In this work we exploit recurrences or ``naturally occurring analogues'' as they were termed by E. Lorenz, to obtain three key results. One of which is that the most striking structures which are found in recurrence plots are hinged to the correlation entropy and the correlation dimension of the underlying system. Even though an eventual embedding changes the structures in recurrence plots considerably these dynamical invariants can be estimated independently of the special parameters used for the computation. The second key result is that the attractor can be reconstructed from the recurrence plot. This means that it contains all topological information of the system under question in the limit of long time series. The graphical representation of the recurrences can also help to develop new algorithms and exploit specific structures. This feature has helped to obtain the third key result of this study. Based on recurrences to points which have the same ``recurrence structure'', it is possible to generate surrogates of the system which capture all relevant dynamical characteristics, such as entropies, dimensions and characteristic frequencies of the system. These so generated surrogates are shadowed by a trajectory of the system which starts at different initial conditions than the time series in question. They can be used then to test for complex synchronisation. T2 - Recurrences : exploiting naturally occurring analogues KW - Wiederkehrdiagramme KW - Rekurrenzen KW - Datenanalyse KW - Surrogates KW - recurrence plots KW - recurrences KW - data analysis KW - surrogates Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001633 ER - TY - THES A1 - Donner, Reik Volker T1 - Advanced methods for analysing and modelling multivariate palaeoclimatic time series T1 - Moderne Verfahren zur Analyse und Modellierung multivariater paläoklimatischer Zeitreihen N2 - The separation of natural and anthropogenically caused climatic changes is an important task of contemporary climate research. For this purpose, a detailed knowledge of the natural variability of the climate during warm stages is a necessary prerequisite. Beside model simulations and historical documents, this knowledge is mostly derived from analyses of so-called climatic proxy data like tree rings or sediment as well as ice cores. In order to be able to appropriately interpret such sources of palaeoclimatic information, suitable approaches of statistical modelling as well as methods of time series analysis are necessary, which are applicable to short, noisy, and non-stationary uni- and multivariate data sets. Correlations between different climatic proxy data within one or more climatological archives contain significant information about the climatic change on longer time scales. Based on an appropriate statistical decomposition of such multivariate time series, one may estimate dimensions in terms of the number of significant, linear independent components of the considered data set. In the presented work, a corresponding approach is introduced, critically discussed, and extended with respect to the analysis of palaeoclimatic time series. Temporal variations of the resulting measures allow to derive information about climatic changes. For an example of trace element abundances and grain-size distributions obtained near the Cape Roberts (Eastern Antarctica), it is shown that the variability of the dimensions of the investigated data sets clearly correlates with the Oligocene/Miocene transition about 24 million years before present as well as regional deglaciation events. Grain-size distributions in sediments give information about the predominance of different transportation as well as deposition mechanisms. Finite mixture models may be used to approximate the corresponding distribution functions appropriately. In order to give a complete description of the statistical uncertainty of the parameter estimates in such models, the concept of asymptotic uncertainty distributions is introduced. The relationship with the mutual component overlap as well as with the information missing due to grouping and truncation of the measured data is discussed for a particular geological example. An analysis of a sequence of grain-size distributions obtained in Lake Baikal reveals that there are certain problems accompanying the application of finite mixture models, which cause an extended climatological interpretation of the results to fail. As an appropriate alternative, a linear principal component analysis is used to decompose the data set into suitable fractions whose temporal variability correlates well with the variations of the average solar insolation on millenial to multi-millenial time scales. The abundance of coarse-grained material is obviously related to the annual snow cover, whereas a significant fraction of fine-grained sediments is likely transported from the Taklamakan desert via dust storms in the spring season. N2 - Die Separation natürlicher und anthropogen verursachter Klimaänderungen ist eine bedeutende Aufgabe der heutigen Klimaforschung. Hierzu ist eine detaillierte Kenntnis der natürlichen Klimavariabilität während Warmzeiten unerlässlich. Neben Modellsimulationen und historischen Aufzeichnungen spielt hierfür die Analyse von sogenannten Klima-Stellvertreterdaten eine besondere Rolle, die anhand von Archiven wie Baumringen oder Sediment- und Eisbohrkernen erhoben werden. Um solche Quellen paläoklimatischer Informationen vernünftig interpretieren zu können, werden geeignete statistische Modellierungsansätze sowie Methoden der Zeitreihenanalyse benötigt, die insbesondere auf kurze, verrauschte und instationäre uni- und multivariate Datensätze anwendbar sind. Korrelationen zwischen verschiedenen Stellvertreterdaten eines oder mehrerer klimatologischer Archive enthalten wesentliche Informationen über den Klimawandel auf großen Zeitskalen. Auf der Basis einer geeigneten Zerlegung solcher multivariater Zeitreihen lassen sich Dimensionen schätzen als die Zahl der signifikanten, linear unabhängigen Komponenten des Datensatzes. Ein entsprechender Ansatz wird in der vorliegenden Arbeit vorgestellt, kritisch diskutiert und im Hinblick auf die Analyse von paläoklimatischen Zeitreihen weiterentwickelt. Zeitliche Variationen der entsprechenden Maße erlauben Rückschlüsse auf klimatische Veränderungen. Am Beispiel von Elementhäufigkeiten und Korngrößenverteilungen des Cape-Roberts-Gebietes in der Ostantarktis wird gezeigt, dass die Variabilität der Dimension der untersuchten Datensätze klar mit dem Übergang vom Oligozän zum Miozän vor etwa 24 Millionen Jahren sowie regionalen Abschmelzereignissen korreliert. Korngrößenverteilungen in Sedimenten erlauben Rückschlüsse auf die Dominanz verschiedenen Transport- und Ablagerungsmechanismen. Mit Hilfe von Finite-Mixture-Modellen lassen sich gemessene Verteilungsfunktionen geeignet approximieren. Um die statistische Unsicherheit der Parameterschätzung in solchen Modellen umfassend zu beschreiben, wird das Konzept der asymptotischen Unsicherheitsverteilungen eingeführt. Der Zusammenhang mit dem Überlapp der einzelnen Komponenten und aufgrund des Abschneidens und Binnens der gemessenen Daten verloren gehenden Informationen wird anhand eines geologischen Beispiels diskutiert. Die Analyse einer Sequenz von Korngrößenverteilungen aus dem Baikalsee zeigt, dass bei der Anwendung von Finite-Mixture-Modellen bestimmte Probleme auftreten, die eine umfassende klimatische Interpretation der Ergebnisse verhindern. Stattdessen wird eine lineare Hauptkomponentenanalyse verwendet, um den Datensatz in geeignete Fraktionen zu zerlegen, deren zeitliche Variabilität stark mit den Schwankungen der mittleren Sonneneinstrahlung auf der Zeitskala von Jahrtausenden bis Jahrzehntausenden korreliert. Die Häufigkeit von grobkörnigem Material hängt offenbar mit der jährlichen Schneebedeckung zusammen, während feinkörniges Material möglicherweise zu einem bestimmten Anteil durch Frühjahrsstürme aus der Taklamakan-Wüste herantransportiert wird. KW - Zeitreihenanalyse KW - Paläoklimatologie KW - Multivariate Statistik KW - Korngrößenverteilungen KW - Time Series Analysis KW - Palaeoclimatology KW - Multivariate Statistics KW - Grain-size distributions Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12560 ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Schneider, Judith T1 - Dynamical structures and manifold detection in 2D and 3D chaotic flows N2 - In dieser Arbeit werden die dynamischen Strukturen und Mannigfaltigkeiten in geschlossenen chaotischen Systemen untersucht. Das Wissen um diese dynamischen Strukturen (und Mannigfaltigkeiten) ist von Bedeutung, da sie uns einen ersten Überblick über die Dynamik des Systems geben, dass heisst, mit ihrer Hilfe sind wir in der Lage, das System zu charakterisieren und eventuell sogar seine Dynamik vorherzusagen. Die Visualisierung der dynamischen Strukturen, speziell in geschlossenen chaotischen Systemen, ist ein schwieriger und oft langer Prozess. Hier werden wir die sogenannte 'Leaking-Methode' (an Beispielen einfacher mathematischer Modelle wie der Bäcker- oder der Sinus Abbildung) vorstellen, mit deren Hilfe wir die Möglichkeit haben, Teile der Mannigfaltigkeiten des chaotischen Sattels des Systems zu visualisieren. Vergleiche zwischen den gewonnenen Strukturen und Strukturen die durch chemische oder biologische Reaktionen hervorgerufen werden, werden anhand eines kinematischen Modells des Golfstroms durchgeführt. Es wird gezeigt, dass mittels der Leaking-Methode dynamische Strukturen auch in Umweltsystemen sichtbar gemacht werden können. Am Beispiel eines realistischen Modells des Mittelmeeres erweitern wir die Leaking-Methode zur sogenannten 'Exchange-Methode'. Diese erlaubt es den Transport zwischen zwei Regionen zu charakterisieren, die Transport-Routen und Austausch-Bassins sichtbar zu machen und die Austausch-Zeiten zu berechnen. Austausch-Bassins und Zeiten werden für die nördliche und südliche Region des westlichen Mittelmeeres präsentiert. Weiterhin werden Mischungseigenschaften im Erdmantel charakterisiert und die geometrischen Eigenschaften von Mannigfaltigkeiten in einem 3dimensionalen mathematischen Modell (ABC-Abbildung) untersucht. N2 - In this thesis, dynamical structures and manifolds in closed chaotic flows will be investigated. The knowledge about the dynamical structures (and manifolds) of a system is of importance, since they provide us first information about the dynamics of the system - means, with their help we are able to characterize the flow and maybe even to forecast it`s dynamics. The visualization of such structures in closed chaotic flows is a difficult and often long-lasting process. Here, the so-called 'Leaking-method' will be introduced, in examples of simple mathematical maps as the baker- or sine-map, with which we are able to visualize subsets of the manifolds of the system`s chaotic saddle. Comparisons between the visualized manifolds and structures traced out by chemical or biological reactions superimposed on the same flow will be done in the example of a kinematic model of the Gulf Stream. It will be shown that with the help of the leaking method dynamical structures can be also visualized in environmental systems. In the example of a realistic model of the Mediterranean Sea, the leaking method will be extended to the 'exchange-method'. The exchange method allows us to characterize transport between two regions, to visualize transport routes and their exchange sets and to calculate the exchange times. Exchange times and sets will be shown and calculated for a northern and southern region in the western basin of the Mediterranean Sea. Furthermore, mixing properties in the Earth mantle will be characterized and geometrical properties of manifolds in a 3dimensional mathematical model (ABC map) will be investigated. T2 - Dynamical structures and manifold detection in 2D and 3D chaotic flows KW - Chaos KW - Transport KW - Mannigfaltigkeiten KW - Umweltsysteme KW - 2D Systeme KW - 3D Systeme KW - chaos KW - transport KW - manifold detection KW - environmental systems KW - 2d systems KW - 3d systems Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001696 ER - TY - THES A1 - Washüttl, Albert T1 - EI Eridani and the art of doppler imaging : a long-term study N2 - Das Verständnis magnetisch verursachter Aktivität auf Sternen sowie der zugrundeliegenden Dynamoprozesse ist von fundamentaler Bedeutung für das Verständnis von Entstehung und Entwicklung von Sternen sowie des Lebens im Universum. Sichtbare Erscheinungen dieser stellaren Aktivität sind u.a. Sternflecken, welche als Indikatoren des zugrundeliegenden Magnetfeldes dienen. Solche Flecken können auf anderen Sternen als der Sonne nicht direkt beobachtet werden, zumal mit den heutigen technischen Mitteln eine Auflösung der Oberfläche selbst der benachbarten Sterne unmöglich ist. Eine indirekte Rekonstruktionsmethode namens 'Doppler Imaging' erlaubt es jedoch, auf die Temperaturverteilung auf der Sternoberfläche zu schließen. Für diese Arbeit wurden elf Jahre kontinuierlicher spektroskopischer Beobachtungen des aktiven Doppelsterns EI Eridani herangezogen, um insgesamt 34 Dopplerkarten zu erstellen. In der Folge wird versucht, eine Grundlage zu schaffen für die Analyse des zweidimensionalen Informationsgehalts dieser Karten. Drei Oberflächenkartenparameter werden vorgeschlagen: gemittelte Temperatur, getrennt für verschiedenen stellare Breitenbänder; relative Fleckenhäufigkeit; und, zum Zwecke der Auswertung der strukturellen Temperaturverteilung, Längen- und Breiten-Ortsfunktion der Sternfleckenhäufung. Die resultierenden Werte zeigen deutlich, daß kein zeitlicher Zusammenhang mit dem photometrischen Aktivitätszyklus besteht. Die Morphologie der Fleckenverteilung bleibt während des kompletten Beobachtungszeitraums im wesentlichen konstant. Im Gegensatz zur Sonne gibt es also, im beobachteten Zeitraum und innerhalb der bestehenden Genauigkeit, keinen Fleckenzyklus auf dem aktiven Stern EI Eri. Darüberhinaus wurde eine ausführliche Studie der stellaren Parameter von EI Eri und eine vorläufige Abschätzung der differentiellen Rotation auf EI Eri durchgeführt, die eine anti-solare Ausrichtung aufzuweisen scheint, d.h. der Pol rotiert schneller als der Äquator. N2 - Understanding stars, their magnetic activity phenomena and the underlying dynamo action is the foundation for understanding 'life, the universe and everything' - as stellar magnetic fields play a fundamental role for star and planet formation and for the terrestrial atmosphere and climate. Starspots are the fingerprints of magnetic field lines and thereby the most important sign of activity in a star's photosphere. However, they cannot be observed directly, as it is not (yet) possible to spacially resolve the surfaces of even the nearest neighbouring stars. Therefore, an indirect approach called 'Doppler imaging' is applied, which allows to reconstruct the surface spot distribution on rapidly rotating, active stars. In this work, data from 11 years of continuous spectroscopic observations of the active binary star EI Eridani are reduced and analysed. 34 Doppler maps are obtained and the problem of how to parameterise the information content of Doppler maps is discussed. Three approaches for parameter extraction are introduced and applied to all maps: average temperature, separated for several latitude bands; fractional spottedness; and, for the analysis of structural temperature distribution, longitudinal and latitudinal spot-occurrence functions. The resulting values do not show a distinct correlation with the proposed activity cycle as seen from photometric long-term observations, thereby suggesting that the photometric activity cycle is not accompanied by a spot cycle as seen on the Sun. The general morphology of the spot pattern on EI Eri remains persistent for the whole period of 11 years. In addition, a detailed parameter study is performed. Improved orbital parameters suggest that EI Eri might be complemented by a third star in a wide orbit of about 19 years. Preliminary differential rotation measurements are carried out, indicating an anti-solar orientation. T2 - EI Eridani and the art of doppler imaging : a long-term study KW - Sterne KW - Aktivität KW - Sternflecken KW - Zyklus KW - stars KW - activity KW - spots KW - cycle KW - binaries KW - late-type Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001714 ER - TY - THES A1 - Romano Blasco, M. Carmen T1 - Synchronization analysis by means of recurrences in phase space N2 - Die tägliche Erfahrung zeigt uns, daß bei vielen physikalischen Systemen kleine Änderungen in den Anfangsbedingungen auch zu kleinen Änderungen im Verhalten des Systems führen. Wenn man z.B. das Steuerrad beim Auto fahren nur ein wenig zur Seite dreht, unterscheidet sich die Richtung des Wagens auch nur wenig von der ursprünglichen Richtung. Aber es gibt auch Situationen, für die das Gegenteil dieser Regel zutrifft. Die Folge von Kopf und Zahl, die wir erhalten, wenn wir eine Münze werfen, zeigt ein irreguläres oder chaotisches Zeitverhalten, da winzig kleine Änderungen in den Anfangsbedingungen, die z.B. durch leichte Drehung der Hand hervorgebracht werden, zu vollkommen verschiedenen Resultaten führen. In den letzten Jahren hat man sehr viele nichtlineare Systeme mit schnellen Rechnern untersucht und festgestellt, daß eine sensitive Abhängigkeit von den Anfangsbedingungen, die zu einem chaotischen Verhalten führt, keinesfalls die Ausnahme darstellt, sondern eine typische Eigenschaft vieler Systeme ist. Obwohl chaotische Systeme kleinen Änderungen in den Anfangsbedingungen gegenüber sehr empfindlich reagieren, können sie synchronisieren wenn sie durch eine gemeinsame äußere Kraft getrieben werden, oder wenn sie miteinander gekoppelt sind. Das heißt, sie vergessen ihre Anfangsbedingungen und passen ihre Rhythmen aneinander. Diese Eigenschaft chaotischer Systeme hat viele Anwendungen, wie z.B. das Design von Kommunikationsgeräte und die verschlüsselte Übertragung von Mitteilungen. Abgesehen davon, findet man Synchronisation in natürlichen Systemen, wie z.B. das Herz-Atmungssystem, raumverteilte ökologische Systeme, die Magnetoenzephalographische Aktivität von Parkinson Patienten, etc. In solchen komplexen Systemen ist es nicht trivial Synchronisation zu detektieren und zu quantifizieren. Daher ist es notwendig, besondere mathematische Methoden zu entwickeln, die diese Aufgabe erledigen. Das ist das Ziel dieser Arbeit. Basierend auf dergrundlegenden Idee von Rekurrenzen (Wiederkehr) von Trajektorien dynamischer Systeme, sind verschiedene Maße entwickelt worden, die Synchronisation in chaotischen und komplexen Systemen detektieren. Das Wiederkehr von Trajektorien erlaubt uns Vorhersagen über den zukünftigen Zustand eines Systems zu treffen. Wenn man diese Eigenschaft der Wiederkehr von zwei interagierenden Systemen vergleicht, kann man Schlüsse über ihre dynamische Anpassung oder Synchronisation ziehen. Ein wichtiger Vorteil der Rekurrenzmaße für Synchronisation ist die Robustheit gegen Rauschen und Instationariät. Das erlaubt eine Synchronisationsanalyse in Systemen durchzuführen, die bisher nicht darauf untersucht werden konnten. N2 - This work deals with the connection between two basic phenomena in Nonlinear Dynamics: synchronization of chaotic systems and recurrences in phase space. Synchronization takes place when two or more systems adapt (synchronize) some characteristic of their respective motions, due to an interaction between the systems or to a common external forcing. The appearence of synchronized dynamics in chaotic systems is rather universal but not trivial. In some sense, the possibility that two chaotic systems synchronize is counterintuitive: chaotic systems are characterized by the sensitivity ti different initial conditions. Hence, two identical chaotic systems starting at two slightly different initial conditions evolve in a different manner, and after a certain time, they become uncorrelated. Therefore, at a first glance, it does not seem to be plausible that two chaotic systems are able to synchronize. But as we will see later, synchronization of chaotic systems has been demonstrated. On one hand it is important to investigate the conditions under which synchronization of chaotic systems occurs, and on the other hand, to develop tests for the detection of synchronization. In this work, I have concentrated on the second task for the cases of phase synchronization (PS) and generalized synchronization (GS). Several measures have been proposed so far for the detection of PS and GS. However, difficulties arise with the detection of synchronization in systems subjected to rather large amounts of noise and/or instationarities, which are common when analyzing experimental data. The new measures proposed in the course of this thesis are rather robust with respect to these effects. They hence allow to be applied to data, which have evaded synchronization analysis so far. The proposed tests for synchronization in this work are based on the fundamental property of recurrences in phase space. T2 - Synchronization analysis by means of recurrences in phase space KW - Synchronisation KW - Wiederkehrdiagramme KW - Chaos KW - Zeitreihenanalyse KW - Synchronization KW - Recurrence Plots KW - Chaos KW - Data Analysis Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001756 ER - TY - THES A1 - Bischofs, Ilka Bettina T1 - Elastic interactions of cellular force patterns N2 - Gewebezellen sammeln ständig Informationen über die mechanischen Eigenschaften ihrer Umgebung, indem sie aktiv an dieser ziehen. Diese Kräfte werden an Zell-Matrix-Kontakten übertragen, die als Mechanosensoren fungieren. Jüngste Experimente mit Zellen auf elastischen Substraten zeigen, dass Zellen sehr empfindlich auf Veränderungen der effektiven Steifigkeit ihrer Umgebung reagieren, die zu einer Reorganisation des Zytoskeletts führen können. In dieser Arbeit wird ein theoretisches Model entwickelt, um die Selbstorganisation von Zellen in weichen Materialien vorherzusagen. Obwohl das Zellverhalten durch komplexe regulatorische Vorgänge in der Zelle gesteuert wird, scheint die typische Antwort von Zellen auf mechanische Reize eine einfache Präferenz für große effektive Steifigkeit der Umgebung zu sein, möglicherweise weil in einer steiferen Umgebung Kräfte an den Kontakten effektiver aufgebaut werden können. Der Begriff Steifigkeit umfasst dabei sowohl Effekte, die durch größere Härte als auch durch elastische Verzerrungsfelder in der Umgebung verursacht werden. Diese Beobachtung kann man als ein Extremalprinzip in der Elastizitätstheorie formulieren. Indem man das zelluläre Kraftmuster spezifiziert, mit dem Zellen mit ihrer Umgebung wechselwirken, und die Umgebung selbst als linear elastisches Material modelliert, kann damit die optimale Orientierung und Position von Zellen vorhergesagt werden. Es werden mehrere praktisch relevante Beispiele für Zellorganisation theoretisch betrachtet: Zellen in externen Spannungsfeldern und Zellen in der Nähe von Grenzflächen für verschiedene Geometrien und Randbedingungen des elastischen Mediums. Dafür werden die entsprechenden elastischen Randwertprobleme in Vollraum, Halbraum und Kugel exakt gelöst. Die Vorhersagen des Models stimmen hervorragend mit experimentellen Befunden für Fibroblastzellen überein, sowohl auf elastischen Substraten als auch in physiologischen Hydrogelen. Mechanisch aktive Zellen wie Fibroblasten können auch elastisch miteinander wechselwirken. Es werden daher optimale Strukturen als Funktion von Materialeigenschaften und Zelldichte bzw. der Geometrie der Zellpositionen berechnet. Schließlich wird mit Hilfe von Monte Carlo Simulationen der Einfluss stochastischer Störungen auf die Strukturbildung untersucht. Das vorliegende Model trägt nicht nur zu einem besseren Verständnis von vielen physiologischen Situationen bei, sondern könnte in Zukunft auch für biomedizinische Anwendungen benutzt werden, um zum Beispiel Protokolle für künstliche Gewebe im Bezug auf Substratgeometrie, Randbedingungen, Materialeigenschaften oder Zelldichte zu optimieren. N2 - Adherent cells constantly collect information about the mechanical properties of their extracellular environment by actively pulling on it through cell-matrix contacts, which act as mechanosensors. In recent years, the sophisticated use of elastic substrates has shown that cells respond very sensitively to changes in effective stiffness in their environment, which results in a reorganization of the cytoskeleton in response to mechanical input. We develop a theoretical model to predict cellular self-organization in soft materials on a coarse grained level. Although cell organization in principle results from complex regulatory events inside the cell, the typical response to mechanical input seems to be a simple preference for large effective stiffness, possibly because force is more efficiently generated in a stiffer environment. The term effective stiffness comprises effects of both rigidity and prestrain in the environment. This observation can be turned into an optimization principle in elasticity theory. By specifying the cellular probing force pattern and by modeling the environment as a linear elastic medium, one can predict preferred cell orientation and position. Various examples for cell organization, which are of large practical interest, are considered theoretically: cells in external strain fields and cells close to boundaries or interfaces for different sample geometries and boundary conditions. For this purpose the elastic equations are solved exactly for an infinite space, an elastic half space and the elastic sphere. The predictions of the model are in excellent agreement with experiments for fibroblast cells, both on elastic substrates and in hydrogels. Mechanically active cells like fibroblasts could also interact elastically with each other. We calculate the optimal structures on elastic substrates as a function of material properties, cell density and the geometry of cell positioning, respectively, that allows each cell to maximize the effective stiffness in its environment due to the traction of all the other cells. Finally, we apply Monte Carlo simulations to study the effect of noise on cellular structure formation. The model not only contributes to a better understanding of many physiological situations. In the future it could also be used for biomedical applications to optimize protocols for artificial tissues with respect to sample geometry, boundary condition, material properties or cell density. T2 - Elastic interactions of cellular force patterns KW - Zellorganisation KW - Fokalkontakt KW - Zytoskelett KW - Punktdefekt KW - Mechanosensor KW - Mechanotransduktion KW - Substrat KW - Morphogenese KW - Kraftdipol KW - extrazelluläre Matr KW - cell organization KW - focal adhesion KW - point defect KW - substrate KW - cytoskeleton KW - mechanosensor KW - morphogenesis KW - mechanotransduction KW - force dipole KW - extra-cellul Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001767 ER - TY - THES A1 - Ullner, Ekkehard T1 - Noise-induced phenomena of signal transmission in excitable neural models N2 - Meine Dissertation behandelt verschiedene neue rauschinduzierte Phänomene in anregbaren Neuronenmodellen, insbesondere solche mit FitzHugh-Nagumo Dynamik. Ich beschreibe das Auftreten von vibronischer Resonanz in anregbaren Systemen. Sowohl in einer anregbaren elektronischen Schaltung als auch im FitzHugh-Nagumo Modell zeige ich, daß eine optimale Amplitude einer hochfrequenten externen Kraft die Signalantwort bezüglich eines niederfrequenten Signals verbessert. Weiterhin wird der Einfluß von additivem Rauschen auf das Zusammenwirken von stochastischer und vibronischer Resonanz untersucht. Weiterhin untersuche ich Systeme, die sowohl oszillierende als auch anregbare Eigenschaften beinhalten und dadurch zwei interne Frequenzen aufweisen. Ich zeige, daß in solchen Systemen der Effekt der stochastischen Resonanz deutlich erhöht werden kann, wenn eine zusätzliche hochfrequente Kraft in Resonanz mit den kleinen Oszillationen unterhalb der Anregungsschwelle hinzugenommen wird. Es ist beachtenswert, daß diese Verstärkung der stochastischen Resonanz eine geringere Rauschintensität zum Erreichen des Optimums benötigt als die standartmäßige stochastische Resonanz in anregbaren Systemen. Ich untersuche Frequenzselektivität bei der rauschinduzierten Signalverarbeitung von Signalen unterhalb der Anregungsschwelle in Systemen mit vielen rauschunterstützten stochastischen Attraktoren. Diese neuen Attraktoren mit abweichenden gemittelten Perioden weisen auch unterschiedliche Phasenbeziehungen zwischen den einzelnen Elementen auf. Ich zeige, daß die Signalantwort des gekoppelten Systems unter verschiedenen Rauscheinwirkungen deutlich verbessert oder auch reduziert werden kann durch das Treiben einzelner Elemente in Resonanz mit diesen neuen Resonanzfrequenzen, die mit passenden Phasenbeziehungen korrespondieren. Weiterhin konnte ich einen rauschinduzierten Phasenübergang von einem selbstoszillierenden System zu einem anregbaren System nachweisen. Dieser Übergang erfolgt durch eine rauschinduzierte Stabilisierung eines deterministisch instabilen Fixpunktes der lokalen Dynamik, während die gesamte Phasenraumstruktur des Systems erhalten bleibt. Die gemeinsame Wirkung von Kopplung und Rauschen führt zu einem neuen Typ von Phasenübergängen und bewirkt eine Stabilisierung des Systems. Das sich daraus ergebende rauschinduziert anregbare Regime zeigt charakteristische Eigenschaften von klassisch anregbaren Systemen, wie stochastische Resonanz und Wellenausbreitung. Dieser rauschinduzierte Phasenübergang ermöglicht dadurch die Übertragung von Signalen durch ansonsten global oszillierende Systeme und die Kontrolle der Signalübertragung durch Veränderung der Rauschintensität. Insbesondere eröffnen diese theoretischen Ergebnisse einen möglichen Mechanismus zur Unterdrückung unerwünschter globaler Oszillationen in neuronalen Netzwerken, welche charakteristisch für abnorme medizinische Zustände, wie z.B. bei der Parkinson′schen Krankheit oder Epilepsie, sind. Die Wirkung von Rauschen würde dann wieder die Anregbarkeit herstellen, die den normalen Zustand der erkrankten Neuronen darstellt. N2 - My thesis is concerned with several new noise-induced phenomena in excitable neural models, especially those with FitzHugh-Nagumo dynamics. In these effects the fluctuations intrinsically present in any complex neural network play a constructive role and improve functionality. I report the occurrence of Vibrational Resonance in excitable systems. Both in an excitable electronic circuit and in the FitzHugh-Nagumo model, I show that an optimal amplitude of high-frequency driving enhances the response of an excitable system to a low-frequency signal. Additionally, the influence of additive noise and the interplay between Stochastic and Vibrational Resonance is analyzed. Further, I study systems which combine both oscillatory and excitable properties, and hence intrinsically possess two internal frequencies. I show that in such a system the effect of Stochastic Resonance can be amplified by an additional high-frequency signal which is in resonance with the oscillatory frequency. This amplification needs much lower noise intensities than for conventional Stochastic Resonance in excitable systems. I study frequency selectivity in noise-induced subthreshold signal processing in a system with many noise-supported stochastic attractors. I show that the response of the coupled elements at different noise levels can be significantly enhanced or reduced by forcing some elements into resonance with these new frequencies which correspond to appropriate phase-relations. A noise-induced phase transition to excitability is reported in oscillatory media with FitzHugh-Nagumo dynamics. This transition takes place via noise-induced stabilization of a deterministically unstable fixed point of the local dynamics, while the overall phase-space structure of the system is maintained. The joint action of coupling and noise leads to a different type of phase transition and results in a stabilization of the system. The resulting noise-induced regime is shown to display properties characteristic of excitable media, such as Stochastic Resonance and wave propagation. This effect thus allows the transmission of signals through an otherwise globally oscillating medium. In particular, these theoretical findings suggest a possible mechanism for suppressing undesirable global oscillations in neural networks (which are usually characteristic of abnormal medical conditions such as Parkinson′s disease or epilepsy), using the action of noise to restore excitability, which is the normal state of neuronal ensembles. T2 - Noise-induced phenomena of signal transmission in excitable neural models KW - Rauschinduzierte Phänomene KW - Stochastische Prozesse KW - Rauschen KW - Stochastische Resonanz KW - Rauschinduzierte Anregbarkeit KW - Rauschinduzierte Oszillatonsunte KW - Noise-induced phenomena KW - stochastic processes KW - noise KW - stochastic resonance KW - noise-induced excitability KW - noise-induced oscillation suppression Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001522 ER - TY - THES A1 - Svirejeva-Hopkins, Anastasia T1 - Urbanised territories as a specific component of the global carbon cycle N2 - Wir betrachten folgende Teile: die zusätzlichen Kohlenstoff(C)-emissionen, welche aus der Umwandlung von natürlichem Umland durch Stadtwachstum resultieren, und die Änderung des C-Flusses durch 'urbanisierte' Ökosysteme, soweit atmosphärisches C durch diese in umliegende natürliche Ökosysteme entlang der Kette “Atmosphäre -> Vegetation -> abgestorbene organische Substanzen” gepumpt wird: d.h. C-Export; für den Zeitraum von 1980 bis 2050. Als Szenario nutzen wir Prognosen der regionalen Stadtbevölkerung, welche durch ein 'Hybridmodell' generiert werden für acht Regionen. Alle Schätzungen der C-Flüsse basieren auf zwei Modellen: das Regression Modell und das sogenannte G-Modell. Die Siedlungsfläche, welche mit dem Wachstum der Stadtbevölkerung zunimmt, wird in 'Grünflächen' (Parks, usw.), Gebäudeflächen und informell städtisch genutzte Flächen (Slums, illegale Lagerplätze, usw.) unterteilt. Es werden jährlich die regionale und globale Dynamik der C-Emissionen und des C-Exports sowie die C-Gesamtbilanz berechnet. Dabei liefern beide Modelle qualitativ ähnliche Ergebnisse, jedoch gibt es einige quantitative Unterschiede. Im ersten Modell erreicht die globale Jahresemission für die Dekade 2020-2030 resultierend aus der Landnutzungsänderung ein Maximum von 205 Mt/a. Die maximalen Beiträge zur globalen Emission werden durch China, die asiatische und die pazifische Region erbracht. Im zweiten Modell erhöht sich die jährliche globale Emission von 1.12 GtC/a für 1980 auf 1.25 GtC/a für 2005 (1Gt = 109 t). Danach beginnt eine Reduzierung. Vergleichen wir das Emissionmaximum mit der Emission durch Abholzung im Jahre 1980 (1.36 GtC/a), können wir konstatieren, daß die Urbanisierung damit in vergleichbarer Grösse zur Emission beiträgt. Bezogen auf die globale Dynamik des jährlichen C-Exports durch Urbanisierung beobachten wir ein monotones Wachstum bis zum nahezu dreifachen Wert von 24 MtC/a für 1980 auf 66 MtC/a für 2050 im ersten Modell, bzw. im zweiten Modell von 249 MtC/a für 1980 auf 505 MtC/a für 2050. Damit ist im zweiten Fall die Transportleistung der Siedlungsgebiete mit dem C-Transport durch Flüsse in die Ozeane (196 .. 537 MtC/a) vergleichbar. Bei der Abschätzung der Gesamtbilanz finden wir, daß die Urbanisierung die Bilanz in Richtung zu einer 'Senke' verschiebt. Entsprechend dem zweiten Modell beginnt sich die C-Gesamtbilanz (nach annähernder Konstanz) ab dem Jahre 2000 mit einer fast konstanten Rate zu verringern. Wenn das Maximum im Jahre 2000 bei 905MtC/a liegt, fällt dieser Wert anschliessend bis zum Jahre 2050 auf 118 MtC/a. Bei Extrapolation dieser Dynamik in die Zukunft können wir annehmen, daß am Ende des 21. Jahrhunderts die “urbane” C-Gesamtbilanz Null bzw. negative Werte erreicht. N2 - We calculate the additional carbon emissions as a result of the conversion of natural land in a process of urbanisation; and the change of carbon flows by “urbanised” ecosystems, when the atmospheric carbon is exported to the neighboring territories, from 1980 till 2050 for the eight regions of the world. As a scenario we use combined UN and demographic model′s prognoses for regional total and urban population growth. The calculations of urban areas dynamics are based on two models: the regression model and the Gamma-model. The urbanised area is sub-divided on built-up, „green“ (parks, etc.) and informal settlements (favelas) areas. The next step is to calculate the regional and world dynamics of carbon emission and export, and the annual total carbon balance. Both models give similar results with some quantitative differences. In the first model, the world annual emissions attain a maximum of 205 MtC/year between 2020-2030. Emissions will then slowly decrease. The maximum contributions are given by China and the Asia and Pacific regions. In the second model, world annual emissions increase to 1.25 GtC in 2005, beginning to decrease afterwards. If we compare the emission maximum with the annual emission caused by deforestation, 1.36GtC per year, then we can say that the role of urbanised territories (UT) is of a comparable magnitude. Regarding the world annual export of carbon by UT, we observe its monotonous growth by three times, from 24 MtC to 66 MtC in the first model, and from 249 MtC to 505 MtC in the second one. The latter, is therefore comparable to the amount of carbon transported by rivers into the ocean (196-537 MtC). By estimating the total balance we find that urbanisation shifts the total balance towards a “sink” state. The urbanisation is inhibited in the interval 2020-2030, and by 2050 the growth of urbanised areas would almost stop. Hence, the total emission of natural carbon at that stage will stabilise at the level of the 1980s (80 MtC per year). As estimated by the second model, the total balance, being almost constant until 2000, then starts to decrease at an almost constant rate. We can say that by the end of the XXI century, the total carbon balance will be equal to zero, when the exchange flows are fully balanced, and may even be negative, when the system begins to take up carbon from the atmosphere, i.e., becomes a “sink”. T2 - Urbanised territories as a specific component of the global carbon cycle KW - Urbanisierung KW - C-Senke KW - Bilanz KW - Kohlenstoffzyklus KW - Städte KW - C-Fluss KW - Slums KW - Vegetation KW - Verteilung KW - urban KW - land conversion KW - carbon KW - sink KW - cities KW - urbanisation KW - emissions KW - favela KW - regional KW - population KW - density KW - distribution KW - flux KW - vegetation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001512 ER - TY - THES A1 - Montbrió i Fairen, Ernest T1 - Synchronization in ensembles of nonisochronous oscillators N2 - Diese Arbeit analysiert Synchronisationsphaenomene, die in grossen Ensembles von interagierenden Oszillatoren auftauchen. Im speziellen werden die Effekte von Nicht-Isochronizitaet (die Abhaengigkeit der Frequenz von der Amplitude des Oszillators) auf den makroskopischen Uebergang zur Synchronisation im Detail studiert. Die neu gefundenen Phaenomene (Anomale Synchronisation) werden sowohl in Populationen von Oszillatoren als auch zwischen Oszillator-Ensembles untersucht. N2 - This thesis analyses synchronization phenomena occurring in large ensembles of interacting oscillatory units. In particular, the effects of nonisochronicity (frequency dependence on the oscillator's amplitude) on the macroscopic transition to synchronization are studied in detail. The new phenomena found (Anomalous Synchronization) are investigated in populations of oscillators as well as between oscillator's ensembles. T2 - Synchronization in ensembles of nonisochronous oscillators KW - Synchronisation KW - Oszillatoren KW - Populationen KW - Anomal KW - Nicht-Isochronizität KW - Synchronization KW - Oscillators KW - Populations KW - Anomalous KW - Nonisochronicity Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001492 ER - TY - THES A1 - Timpanaro, Salvatore T1 - Conductive properties and morphology of conjugated molecular materials studied by local probe techniques N2 - Die vorgelegte Arbeit befasst sich mit der Untersuchung von Zusammenhängen zwischen der Struktur dünner organischer Schichten und stellt einen Bezug zur Leitfähigkeit der Schichten her. Sie liefert einen Beitrag zum vertieften Verständnis der Transporteigenschaf-ten organischer Halbleiter und soll so zur Verbesserung organischer elektronischer Bauele-mente beitragen. Es ist bekannt, dass die Effizienz von Organischen Leuchtdioden (OLEDs) stark von der Qualität der eingesetzten dünnen Filme abhängt. Es ist deshalb interessant, die Strukturen technologisch interessanter organischer Filme mittels Scanning Probe Mikrosko-pie (SPM) zu charakterisieren, um ein besseres Verständnis sowohl der Oberflächen-Morphologie als auch der molekularen/atomaren Packungen zu erhalten. Die Untersuchung von Quaterthiophen (4T), welches vielfach in Feldeffekt-Transistoren eingesetzt wird, bildet einen ersten Schwerpunkt der Arbeit. Es konnte eine neue Kristall-struktur von 4T gefunden werden, die bisher nicht bekannt war. Dafür wurden Quaterthi-ophen-Filme untersucht, welche auf Kaliumphthalat (KAP) aufwuchsen. Die Aufklärung der neuen Struktur gelang durch Kombinierten Einsatz von optischen und Röntgen-Beugungsmessungen. Zur Bestätigung der triklinen Kristall-Einheitszelle mit den Parame-tern a = 0,721 nm, b = 0,632 nm, c = 0,956 nm und α = 91o, β = 91,4o, γ = 91o wurde außer-dem die Atomkraft-Mikroskopie (AFM) angewendet. In Fortführung der rastermikroskopischen Messungen sind die Morphologien von Filmen vier weiterer organischer Materialien technologischer Relevanz untersucht worden: He-xanthiol-Monoschichten auf Gold, Azobenzenthiol-Monoschichten auf Gold, Para-Phenylenvinylen-Oligomer-Filme auf Gold und Phenyl-Oxadiazol-Filme auf Gold. Dafür kam zusätzlich die Ultrahochvakuum-Scanning-Tunneling-Mikroskopie (UHV-STM) zum Einsatz. Es zeigte sich eine Vielzahl morphologischer Eigenheiten, deren Besonderheiten sowohl von den gewählten Substraten als auch von der chemischen Struktur der untersuchten organischen Materialien abhängen. So zeigen Para-Phenylenvinylen-Oligomer-Filme eine Stäbchen- und Oxadiazol-Filme eine Körnchen-Struktur auf Gold. Auf Basis dieser Kenntnisse gelang es, das optisch induzierte Schalten von Azobenzen durch STM-Untersuchungen und durch Scanning Tunneling Spektroskopie (STS) auf molekularer Skale nachzuweisen. Die Topographie einer Reihe von Poly(3,4-ethylendioxythiophen)-(PEDOT)-Filmen und de-ren Bezug zu den Ladungstransporteigenschaften dieser Filme war ein weiterer Arbeits-schwerpunkt. PEDOT-Filme auf Indium-Zinn-Oxid (ITO) kommen in organischen elektro-nischen Bauelementen als Lochinjektionsschichten zum Einsatz. Für die Schichtherstellung kamen Dispersionen des Polymers unterschiedlicher Konzentration zur Anwendung: Mittels AFM und STM konnte gezeigt werden, dass unterschiedliche Konzentrationen zu unter-schiedlichen Topographien führen. Besonders die Oberfläche der Filme mit hoher Konzent-ration von PEDOT, d.h. die der leitfähigsten Filme, wird durch eine körnchenartige Struktur eingebetteter Teilchen charakterisiert. Durch STM Strom-Abstands-(I-d)-Untersuchungen wurde gefunden, dass diese Teilchen die „Spitze eines Eisbergs“ leitfähiger Domänen dar-stellen. Ausgehend von dieser Erkenntnis wird ein Strukturmodell für die Filme vorgeschla-gen, in dem die leitfähigen Domänen / Partikel in eine weniger leitfähige Matrix eingebettet sind. Durch Zugabe von Polyolen wie Sorbitol zur PEDOT-Dispersion ließen sich Filme mit höherer Leitfähigkeit herstellen. Eine klare Abhängigkeit zwischen der Leitfähigkeit und der bisher nicht beschrieben nano-Morphologie wurde gefunden. N2 - It is known that the efficiency of organic light-emitting devices (OLEDs) is strongly influenced by the ’quality′ of the thin films [1]. On the basis of this conviction, the work presented in this thesis aimed to obtain a better understanding of the structure of organic thin films of general interest in the field of organic light emitting devices by using scanning probe microscopies (SPMs). A not yet reported crystal structure of quaterthiophene film grown on potassium hydrogen (KHP) is determined by optical measurements, a simulation program, diffraction at both normal incidence and grazing angle and AFM. The crystal cell is triclinic with parameters a = 0.721 nm, b = 0.632 nm, c = 0.956 nm and a = 91°, b = 91.4°, g = 91° [2]. The morphologies of four organic thin films deposited on gold are characterized by ultra high vacuum scanning tunneling microscopy (UHV-STM). Terraces in an hexanethiol monolayer, lamellar structures in an azobenzenethiol monolayer, rods in a a poly(paraphenylenevinylene) oligomer film and a granular morphology in an oxadiazole film are shown. The topographies of a series of poly(3,4-ethylenedioxythiophene)/poly(styrenesulfonate) (PEDOT/PSS) films deposited on indium-tin oxide (ITO) and gold obtained from dispersions with PEDOT:PSS weight ratios of 1:20, 1:6 and 1:1 are investigated by AFM. It is demonstrated that the films show the same topography on gold and on ITO. It is shown that the PEDOT films eliminate the spike features of ITO. It is reported that PEDOT 1:20 and 1:6 appear indistinguishable between each other but different from PEDOT 1:1 (the most conductive). Coupling STM and I-d measurements, a not yet reported structural model of PEDOT 1:1 on gold is obtained [3]. In this model the surface presents grains and the bulk particles/domains rich in PEDOT embedded in a PEDOT-poor matrix. The equation of conductivity is derived. A STM investigation of four PEDOT films deposited on ITO obtained from dispersions with the same PEDOT:PSS weight ratio of 1:1 is carried out [4]. The films differ either for the presence of sorbitol or for a different synthetic route (and they present different conductivities). For the first time a quantitative and qualitative correlation between the nanometer-scale morphology of PEDOT films with and without sorbitol and their conductivity is established. T2 - Conductive properties and morphology of conjugated molecular materials studied by local probe techniques KW - SPMs KW - PEDOT KW - 4T KW - PPV KW - OLEDs KW - SPMs KW - PEDOT KW - 4T KW - PPV KW - OLEDs Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001929 ER - TY - THES A1 - Koppitz, Michael T1 - Numerical studies of Black Hole initial data N2 - Diese Doktorarbeit behandelt neue Methoden der numerischen Evolution von Systemen mit binären Schwarzen Löchern. Wir analysieren und vergleichen Evolutionen von verschiedenen physikalisch motivierten Anfangsdaten und zeigen Resultate der ersten Evolution von so genannten 'Thin Sandwich' Daten, die von der Gruppe in Meudon entwickelt wurden. Zum ersten Mal wurden zwei verschiedene Anfangsdaten anhand von dreidimensionalen Evolutionen verglichen: die Puncture-Daten und die Thin-Sandwich Daten. Diese zwei Datentypen wurden im Hinblick auf die physikalischen Eigenschaften während der Evolution verglichen. Die Evolutionen zeigen, dass die Meudon Daten im Vergleich zu Puncture Daten wesentlich mehr Zeit benötigen bevor sie kollidieren. Dies deutet auf eine bessere Abschätzung der Parameter hin. Die Kollisionszeiten der numerischen Evolutionen sind konsistent mit unabhängigen Schätzungen basierend auf Post-Newtonschen Näherungen die vorhersagen, dass die Schwarzen Löcher ca. 60% eines Orbits rotieren bevor sie kollidieren. N2 - This thesis presents new approaches to evolutions of binary black hole systems in numerical relativity. We analyze and compare evolutions from various physically motivated initial data sets, in particular presenting the first evolutions of Thin Sandwich data generated by the Meudon group. For the first time two different quasi-circular orbit initial data sequences are compared through fully 3d numerical evolutions: Puncture data and Thin Sandwich data (TSD) based on a helical killing vector ansatz. The two different sets are compared in terms of the physical quantities that can be measured from the numerical data, and in terms of their evolutionary behavior. The evolutions demonstrate that for the latter, "Meudon" datasets, the black holes do in fact orbit for a longer amount of time before they merge, in comparison with Puncture data from the same separation. This indicates they are potentially better estimates of quasi-circular orbit parameters. The merger times resulting from the numerical simulations are consistent with independent Post-Newtonian estimates that the final plunge phase of a black hole inspiral should take 60% of an orbit. KW - numerische Relativiät KW - binäre schwarze Löcher KW - Anfangsdaten KW - Evolutionen KW - numerical relativity KW - binary black holes KW - initial data KW - evolutions Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001245 ER - TY - THES A1 - Albers, Nicole T1 - On the relevance of adhesion : applications to Saturn's rings T1 - Zur Relevanz von Teilchenadhäsion : Anwendung auf die Ringe des Saturn N2 - Since their discovery in 1610 by Galileo Galilei, Saturn's rings continue to fascinate both experts and amateurs. Countless numbers of icy grains in almost Keplerian orbits reveal a wealth of structures such as ringlets, voids and gaps, wakes and waves, and many more. Grains are found to increase in size with increasing radial distance to Saturn. Recently discovered "propeller" structures in the Cassini spacecraft data, provide evidence for the existence of embedded moonlets. In the wake of these findings, the discussion resumes about origin and evolution of planetary rings, and growth processes in tidal environments. In this thesis, a contact model for binary adhesive, viscoelastic collisions is developed that accounts for agglomeration as well as restitution. Collisional outcomes are crucially determined by the impact speed and masses of the collision partners and yield a maximal impact velocity at which agglomeration still occurs. Based on the latter, a self-consistent kinetic concept is proposed. The model considers all possible collisional outcomes as there are coagulation, restitution, and fragmentation. Emphasizing the evolution of the mass spectrum and furthermore concentrating on coagulation alone, a coagulation equation, including a restricted sticking probability is derived. The otherwise phenomenological Smoluchowski equation is reproduced from basic principles and denotes a limit case to the derived coagulation equation. Qualitative and quantitative analysis of the relevance of adhesion to force-free granular gases and to those under the influence of Keplerian shear is investigated. Capture probability, agglomerate stability, and the mass spectrum evolution are investigated in the context of adhesive interactions. A size dependent radial limit distance from the central planet is obtained refining the Roche criterion. Furthermore, capture probability in the presence of adhesion is generally different compared to the case of pure gravitational capture. In contrast to a Smoluchowski-type evolution of the mass spectrum, numerical simulations of the obtained coagulation equation revealed, that a transition from smaller grains to larger bodies cannot occur via a collisional cascade alone. For parameters used in this study, effective growth ceases at an average size of centimeters. N2 - Seit ihrer Entdeckung im Jahre 1610 durch Galileo Galilei faszinieren die Ringe des Saturn sowohl Laien als auch Experten. Planetare Ringe finden sich in der Äquatorialebene aller vier Riesenplaneten unseres Sonnensystems und sind eines der eindruckvollsten Beispiele granularer Gase. Darunter gehören die Saturnringe zu den Bekanntesten. Sie bergen eine Vielzahl von Strukturen und erstrecken sich über mehr als 240 000 Kilometer, wobei sie weit weniger als 100 Meter dick sind. Unzählige kleinerer Körper bewegen sich auf leicht exzentrischen Kepler-ähnlichen Bahnen um den Zentralplaneten und bestehen dabei vorwiegend aus Eis. Die seit Juli 2004 im Orbit um den Saturn befindliche Raumsonde Cassini liefert atemberaubende Bilder und Daten, die nicht nur neue Erkenntnisse liefern, sondern auch alte Fragestellungen neu aufleben lassen. Dazu gehört z.B. die Frage nach dem Ursprung und den Entwicklungsstufen planetarer Ringe. Kürzlich, im äusseren A-Ring entdeckte Kleinmonde, deren Existenz schon viel früher postuliert wurde, weisen auf eventuell stattfindende Wachstumsprozesse hin. Da sich planetare Ringe jedoch hauptsächlich innerhalb der sogenannten Roche-Zone des jeweiligen Planeten befinden, ist ein effektives, allein auf gravitativen Wechselwirkungen beruhendes Größenwachstum nicht zu erwarten. Der Einfluß von Teilchenadhäsion auf diese Prozesse ist bis dato fraglich. Im Rahmen dieser Dissertation ist ein Kontaktmodell für adhäsive, viskoelastische Binärstöße granularer Teilchen entwickelt worden, welches sowohl deren Agglomeration als auch Restitution gestattet. Chakateristisch für granulare Materie ist die dissipative Wechselwirkung der einzelnen Teilchen untereinander. Dieser Energieverlust wird gewöhnlich mittels des Restitutionskoeffizienten erfaßt, der das Verhältnis von Relativgeschwindigkeiten nach zu vor dem Stoß darstellt. Dieser Parameter ermöglicht es, Agglomeration und Restitution nicht nur qualitativ sondern auch quantitativ voneinander zu unterscheiden. Ferner ergibt sich eine maximale Impaktgeschwindigkeit, bei der eine Agglomeration noch immer möglich ist. Basierend auf der Existenz derartiger Grenzgeschwindigkeiten für Agglomeration und Fragmentation, wurde in dieser Dissertation ein selbstkonsistentes, kinetisches Strukturbildungsmodell vorgestellt und im Hinblick auf die Koagulation von Teilchen weitergehend untersucht. Eine Koagulationsgleichung, die einer eingeschränkten Haftwahrscheinlichkeit Rechnung trägt, ist analytisch hergeleitet worden. Aus ihr läßt sich die allgemein bekannte, aber ansonsten phenomenologische Smoluchowski Gleichung als ein Grenzfall ableiten, bei dem jeder mögliche Kontakt zur Koagulation führt. Qualitative und quantitative Untersuchungen der Relevanz von Adhäsion in kräftefreien und Kepler-gescherten Systemen beziehen sich auf die Stabilität von Zwei-Teilchen-Agglomeraten, die Wahrscheinlichkeit eines gegenseitigen "Einfangens" beider Teilchen, und die zeitliche Entwicklung der Größenverteilung unter Berücksichtigung der im ersten Teil dieser Arbeit eingeführten Kollisionsdynamik. Dabei ergab sich ein kritischer Abstand zum Zentralkörper, der das ansonsten in diesem Rahmen benutzte Roche Kriterium erweitert. Numerische Simulationen der vorgestellten Koagulationsgleichung zeigen deutlich, daß im Vergleich zu Smoluchowski-ähnlichem Verhalten, ein kollisionsbasiertes Wachstum von kleineren zu größeren Körpern nicht notwendigerweise auftritt. Lediglich Größen von Zentimetern konnten an dieser Stelle erreicht werden. Die Relevanz von adhäsiven Teilchenwechselwirkungen konnte damit nachgewiesen werden. Vermögen diese auch nicht für ein effektives Wachstum aufzukommen, so sind sie dennoch von Bedeutung für die kollektive Dynamik planetarer Ringe. KW - Saturn KW - Cassini KW - Adhäsion KW - Kinetik KW - Planetare Ringe KW - Roche Limit KW - Roche KW - Agglomeration KW - Kollisionsdynamik KW - planetary rings KW - Saturn KW - collision dynamics KW - adhesion KW - kinetics KW - kinetic Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10848 ER - TY - THES A1 - Dominis, Dijana T1 - The role of binary stars in searches for extrasolar planets by microlensing and astrometry T1 - Die Rolle der Doppelsterne bei der Suche nach extrasolaren Planeten durch Mikrogravitationslinseneffekte und Astrometrie N2 - When Galactic microlensing events of stars are observed, one usually measures a symmetric light curve corresponding to a single lens, or an asymmetric light curve, often with caustic crossings, in the case of a binary lens system. In principle, the fraction of binary stars at a certain separation range can be estimated based on the number of measured microlensing events. However, a binary system may produce a light curve which can be fitted well as a single lens light curve, in particullary if the data sampling is poor and the errorbars are large. We investigate what fraction of microlensing events produced by binary stars for different separations may be well fitted by and hence misinterpreted as single lens events for various observational conditions. We find that this fraction strongly depends on the separation of the binary components, reaching its minimum at between 0.6 and 1.0 Einstein radius, where it is still of the order of 5% The Einstein radius is corresponding to few A.U. for typical Galactic microlensing scenarios. The rate for misinterpretation is higher for short microlensing events lasting up to few months and events with smaller maximum amplification. For fixed separation it increases for binaries with more extreme mass ratios. Problem of degeneracy in photometric light curve solution between binary lens and binary source microlensing events was studied on simulated data, and data observed by the PLANET collaboration. The fitting code BISCO using the PIKAIA genetic algorithm optimizing routine was written for optimizing binary-source microlensing light curves observed at different sites, in I, R and V photometric bands. Tests on simulated microlensing light curves show that BISCO is successful in finding the solution to a binary-source event in a very wide parameter space. Flux ratio method is suggested in this work for breaking degeneracy between binary-lens and binary-source photometric light curves. Models show that only a few additional data points in photometric V band, together with a full light curve in I band, will enable breaking the degeneracy. Very good data quality and dense data sampling, combined with accurate binary lens and binary source modeling, yielded the discovery of the lowest-mass planet discovered outside of the Solar System so far, OGLE-2005-BLG-390Lb, having only 5.5 Earth masses. This was the first observed microlensing event in which the degeneracy between a planetary binary-lens and an extreme flux ratio binary-source model has been successfully broken. For events OGLE-2003-BLG-222 and OGLE-2004-BLG-347, the degeneracy was encountered despite of very dense data sampling. From light curve modeling and stellar evolution theory, there was a slight preference to explain OGLE-2003-BLG-222 as a binary source event, and OGLE-2004-BLG-347 as a binary lens event. However, without spectra, this degeneracy cannot be fully broken. No planet was found so far around a white dwarf, though it is believed that Jovian planets should survive the late stages of stellar evolution, and that white dwarfs will retain planetary systems in wide orbits. We want to perform high precision astrometric observations of nearby white dwarfs in wide binary systems with red dwarfs in order to find planets around white dwarfs. We selected a sample of observing targets (WD-RD binary systems, not published yet), which can possibly have planets around the WD component, and modeled synthetic astrometric orbits which can be observed for these targets using existing and future astrometric facilities. Modeling was performed for the astrometric accuracy of 0.01, 0.1, and 1.0 mas, separation between WD and planet of 3 and 5 A.U., binary system separation of 30 A.U., planet masses of 10 Earth masses, 1 and 10 Jupiter masses, WD mass of 0.5M and 1.0 Solar masses, and distances to the system of 10, 20 and 30 pc. It was found that the PRIMA facility at the VLTI will be able to detect planets around white dwarfs once it is operating, by measuring the astrometric wobble of the WD due to a planet companion, down to 1 Jupiter mass. We show for the simulated observations that it is possible to model the orbits and find the parameters describing the potential planetary systems. N2 - Bei von Sternen verursachten Mikrolinsen-Ereignissen beobachtet man meist symmetrische Lichtkurven einer einzelnen Linse oder asymmetrische Lichtkurven (oftmals mit Kaustik-Crossing), die durch Doppel-Linsen hervorgerufen werden. Im Prinzip kann aus der Zahl der gemessenen unsymmetrischen Ereignisse der Anteil der Doppelstern-Systeme in Abhängigkeit vom Winkelabstand abgeschätzt werden. Allerdings kann auch ein Doppelsystem Lichtkurven erzeugen, die gut mit einer Einzellinsen-Lichtkurve gefittet werden können. Die gilt insbesondere bei lückenhafter Messung oder grossen Messfehlern. In dieser Arbeit wird für verschiedene Beobachtungsbedingungen untersucht, wie häufig Lichtkurven, die von Doppellinsen mit unterschiedlichen Abständen erzeugt werden, gut mit Einzellinsen-Lichtkurven gefittet werden können und damit fehlinterpretiert werden. Es wurde herausgefunden, dass der Anteil fehlinterpretierter Lichtkurven stark von der Separation der Komponenten abhängig ist: das Minimum liegt zwischen 2 A.E. and 5 A.E. , wobei der Anteil immer noch 5% beträgt. Die Rate der Fehlinterpretationen ist höher für kurze Mikrolinsen-Ereignisse (bis zu wenigen Monaten) und für Ereignisse mit geringer Maximalverstärkung. Bei gleicher Separation steigt die Rate mit extremeren Massenverhältnissen an. Das Problem der Degenerierung zwischen den Lichtkurven für doppelte Linsensysteme und doppelte Hintergrund-Quellen wurde anhand simulierter Daten und mit Beobachtungsdaten des PLANET Projekts untersucht. Der Fit-Code BISCO, der den genetischen Algorithmus PIKAIA nutzt, wurde geschrieben, um Doppel-Linsen Lichtkurven, die von verschiedenen Observatorien in den photometrischen Bändern I, B, und V gemessen wurden, zu modellieren. Tests mit simulierten Daten haben gezeigt, dass BISCO in der Lage ist, in einem sehr weiten Parameterbereich die korrekte Lösung für die Lichtkurve einer Doppel-Linsen zu finden. In dieser Arbeit wird die Flussverhältnis-Methode empfohlen, um die Degenerierung zwischen Doppel-Linse und Doppel-Quelle aufzulösen. Modellierungen zeigen, dass nur wenige zusätzliche Datenpunkte im V-Band genügen, um zusammen mit einer vollständigen Lichtkurve im I-Band die Degenerierung aufzubrechen. Mit sehr guter Datenqualität und zeitlich dichten Messungen, kombiniert mit genauer Modellierung von Doppel-Linsen und Doppel-Quellen, gelang die Entdeckung des bisher masseärmsten Planeten ausserhalb des Sonnensystems: OGLE-2005-BLG-390Lb, mit nur 5.5 Erdmassen. Dies war das erste Mikrolinsen-Ereignis, bei dem die Degenerierung zwischen plantarer Doppel-Linse und einer Doppel-Quelle mit extremem Flussverhältnis erfolgreich aufgelöst wurde. Für die Ereignisse OGLE-2003-BLG-222 und OGLE-2004-BLG-347 besteht die Degenerierung trotz sehr dichter Messungen. Aufgrund der Lichtkurvenmodellierung und Argumenten aus der Theorie der Sternentwicklung ist die Erklärung von OGLE-2003-BLG-222 als Doppel-Quelle und OGLE-2004-BLG-347 als Doppel-Linsen Ereignis vorzuziehen. Allerdings kann die Degenerierung ohne spektrale Daten nicht vollständig aufgelöst werden. Bisher wurde kein Planet als Begleiter eines Weissen Zwerges gefunden, obwohl es möglich sein sollte, dass jupiterähnliche Planeten die Spätstadien der Sternentwicklung überleben und dass sich Weisse Zwerge Planetensysteme mit weiten Umlaufbahnen erhalten können. Wir planen hochgenaue astrometrische Beobachtungen von nahen Weissen Zwergen in weiten Doppelsystemen, um Planeten um Weisse Zwerge zu finden. Wir haben eine Stichprobe von Systemen zusammengestellt, in denen möglicherweise Planeten gefunden werden könnten. Wir haben synthetische astrometrische Orbits modelliert, die für diese Systeme mit existierenden und zukünftigen astrometrischen Instrumenten beobachtbar sind. Die Modellierungen wurden für astrometrische Genauigkeiten von 0.01, 0.1, 1.0 Mikrobogensekunden gerechnet. Als Abstände zwischen weissem Zwerg und Planet wurden 3, 5 und 10 Astronomische Einheiten angenommen, für den Abstand zwischen den Doppelsternkomponenten 30 A.E. Als Planetenmassen wurden 10 Erdmassen, bzw. 1 und 10 Jupitermassen gewählt, als Masse für den weissen Zwerg 0.5 und 1.0 Sonnenmassen. Die Distanzen zum System betragen 10 und 20 parsec. Als Resultat dieser Untersuchung wurde herausgefunden, dass das PRIMA Instrument am VLTI in der Lage sein wird, die astrometrischen Oszillationen, die ein Planet ab einer Jupitermasse verursacht, zu detektieren. Wir zeigen, dass es möglich sein wird, die Umlaufbahnen solcher Planeten zu modellieren und damit die Parameter dieser Planetensysteme zu bestimmen. KW - Mikrogravitationslinseneffekt KW - Astrometrie KW - Extrasolare Planeten KW - Microlensing KW - astrometry KW - extrasolar planets Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10814 ER - TY - THES A1 - Richter, Andreas T1 - Structure formation and fractionation in systems of colloidal rods T1 - Strukturbildung und Fraktionierung in Systemen aus kolloidalen Stäbchen N2 - Nowadays, colloidal rods can be synthesized in large amounts. The rods are typically cylindrically and their length ranges from several nanometers to a few micrometers. In solution, systems of colloidal rodlike molecules or aggregates can form liquid-crystalline phases with long-range orientational and spatial order. In the present work, we investigate structure formation and fractionation in systems of rodlike colloids with the help of Monte Carlo simulations in the NPT ensemble. Repulsive interactions can successfully be mimicked by the hard rod model, which has been studied extensively in the past. In many cases, attractive interactions like van der Waals or depletion forces cannot be neglected, however. In the first part of this work, the phase behavior of monodisperse attractive rods is characterized for different interaction strengths. Phase diagrams as a function of rod length and pressure are presented. Most systems of synthesized mesoscopic rods have a polydisperse length distribution as a consequence of the longitudinal growth process of the rods. For many technical and research applications, a rather small polydispersity is desired in order to have well defined material properties. The polydispersity can be reduced by a spatial demixing (fractionation) of long and short rods. Fractionation and structure formation is studied in a tridisperse and a polydisperse bulk suspension of rods. We observe that the resulting structures depend distinctly on the interaction strength. The fractionation in the system is strongly enhanced with increasing interaction strength. Suspensions are typically confined in a container. We also examine the influence of adjacent substrates in systems of tridisperse and polydisperse rod suspensions. Three different substrate types are studied in detail: a planar wall, a corrugated substrate, and a substrate with rectangular cavities. We analyze the fluid structure close to the substrate and substrate controlled fractionation. The spatial arrangement of long and short rods in front of the substrate depends sensitively on the substrate structure and the pressure. Rods with a predefined length are segregated at substrates with rectangular cavities. N2 - Kolloidale Stäbchen können mittlerweile in großen Mengen hergestellt werden. Die Form der Stäbchen ist in der Regel zylinderförmig und ihre Länge reicht von einigen Nanometern bis hin zu wenigen Mikrometern. Systeme aus kolloidalen stäbchenförmigen Molekülen oder Aggregaten können in Lösung flüssigkristalline Phasen mit langreichweitiger Orientierungs- und Raumordnung ausbilden. Im Rahmen dieser Arbeit werden Strukturbildung und Fraktionierung in Systemen aus stäbchenförmigen Kolloiden mittels Monte Carlo Simulationen im NPT Ensemble untersucht. Replusive Wechselwirkungen können erfolgreich durch harte Stäbchen modelliert werden. Dieses Modell wurde in der Vergangenheit bereits ausgiebig untersucht. Oft jedoch können attraktive Wechselwirkungen, wie z.~B. van der Waals- oder Depletionskräfte, nicht vernachlässigt werden. Im ersten Teil dieser Arbeit wird das Phasenverhalten von monodispersen attraktiven Stäbchen bei unterschiedlichen Wechselwirkungsstärken charakterisiert. Es werden Phasendiagramme bezüglich der Parameter Druck und Stäbchenlänge präsentiert. Die überwiegende Mehrzahl von Systemen aus synthetisierten mesoskopischen Stäbchen weist eine polydisperse Längenverteilung aufgrund des Längswachstums auf. Für eine Reihe technischer und wissenschaftlicher Anwendungen sind hingegen schmale Längenverteilungen wünschenswert, um wohl definierte Materialeigenschaften zu haben. Die Polydispersität kann durch räumliche Trennung (Fraktionierung) langer und kurzer Stäbchen reduziert werden. Fraktionierung und Strukturbildung werden in einer tridispersen und einer polydispersen Suspension untersucht. Wir beobachten, dass die entstehenden Strukturen ganz wesentlich von der Wechselwirkungsstärke abhängen. Der Grad der Fraktionierung wird durch Attraktivität stark erhöht. Suspensionen befinden sich typischerweise in Gefäsen. Wir untersuchen daher auch den Einfluss von begrenzenden Substraten auf Systeme aus tridispersen und polydispersen Stäbchensuspensionen. Drei verschiedene Substratstrukturen werden genauer betrachtet: Eine planare Wand, ein riefenförmiges Substrat und Substrate mit rechteckigen Aussparungen. Wir untersuchen die Flüssigkeitsstruktur in Substratnähe und substratinduzierte Fraktionierung. Die räumliche Anordnung von langen und kurzen Stäbchen hängt sehr sensibel von der Substratstruktur und dem Druck ab. Stäbchen mit einer festgelegten Länge werden an Substraten mit rechteckigen Aussparungen abgesondert. KW - Monte Carlo KW - Stäbchen KW - Polydispersität KW - attraktive Wechselwirkung KW - Substrat KW - Monte Carlo KW - rods KW - polydispersity KW - attractive interaction KW - substrate Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13090 ER - TY - THES A1 - Korn, Christian T1 - Stochastic dynamics of cell adhesion in hydrodynamic flow T1 - Stochastische Dynamik der Zelladhäsion im hydrodynamischen Fluss N2 - In this thesis the interplay between hydrodynamic transport and specific adhesion is theoretically investigated. An important biological motivation for this work is the rolling adhesion of white blood cells experimentally investigated in flow chambers. There, specific adhesion is mediated by weak bonds between complementary molecular building blocks which are either located on the cell surface (receptors) or attached to the bottom plate of the flow chamber (ligands). The model system under consideration is a hard sphere covered with receptors moving above a planar ligand-bearing wall. The motion of the sphere is influenced by a simple shear flow, deterministic forces, and Brownian motion. An algorithm is given that allows to numerically simulate this motion as well as the formation and rupture of bonds between receptors and ligands. The presented algorithm spatially resolves receptors and ligands. This opens up the perspective to apply the results also to flow chamber experiments done with patterned substrates based on modern nanotechnological developments. In the first part the influence of flow rate, as well as of the number and geometry of receptors and ligands, on the probability for initial binding is studied. This is done by determining the mean time that elapses until the first encounter between a receptor and a ligand occurs. It turns out that besides the number of receptors, especially the height by which the receptors are elevated above the surface of the sphere plays an important role. These findings are in good agreement with observations of actual biological systems like white blood cells or malaria-infected red blood cells. Then, the influence of bonds which have formed between receptors and ligands, but easily rupture in response to force, on the motion of the sphere is studied. It is demonstrated that different states of motion-for example rolling-can be distinguished. The appearance of these states depending on important model parameters is then systematically investigated. Furthermore, it is shown by which bond property the ability of cells to stably roll in a large range of applied flow rates is increased. Finally, the model is applied to another biological process, the transport of spherical cargo particles by molecular motors. In analogy to the so far described systems molecular motors can be considered as bonds that are able to actively move. In this part of the thesis the mean distance the cargo particles are transported is determined. N2 - In der vorliegenden Arbeit wird das Zusammenspiel zwischen hydrodynamischem Transport und spezifischer Adhäsion theoretisch untersucht. Eine wichtige biologische Motivation für diese Arbeit ist die rollende Adhäsion weißer Blutkörperchen, die experimentell in Flusskammern untersucht wird. Die spezifische Adhäsion wird durch schwache Bindungen zwischen komplementären molekularen Bausteinen vermittelt, die sich einerseits auf der Zelloberfläche, Rezeptoren genannt, andererseits auf der unteren begrenzenden Platte der Flusskammer, Liganden genannt, befinden. Das untersuchte Modellsystem besteht aus einer festen Kugel, die mit Rezeptoren bedeckt ist und sich unter dem Einfluss einer einfachen Scherströmung, deterministischer Kräfte und der Brownschen Molekularbewegung oberhalb einer mit Liganden bedeckten Wand bewegt. Es wird ein Algorithmus angegeben, mit dessen Hilfe diese Bewegung sowie das Entstehen und Reißen von Bindungen zwischen Rezeptoren und Liganden numerisch simuliert werden kann. In der numerischen Modellierung werden die Positionen von Rezeptoren und Liganden räumlich aufgelöst, wodurch sich die Möglichkeit ergibt, die Ergebnisse auch mit Flusskammerexperimenten, in denen moderne nanotechnologisch strukturierte Substrate verwendet werden, zu vergleichen. Als Erstes wird der Einfluss von Strömungsrate sowie Zahl und Form der Rezeptoren bzw. Liganden auf die Wahrscheinlichkeit, mit der es zu einer Bindung kommen kann, untersucht. Hierfür wird die mittlere Zeit bestimmt, die vergeht bis zum ersten Mal ein Rezeptor mit einem Liganden in Kontakt kommt. Dabei stellt sich heraus, dass neben der Anzahl der Rezeptoren auf der Kugel insbesondere der Abstand, welchen die Rezeptoren von der Oberfläche haben, eine große Rolle spielt. Dieses Ergebnis ist in sehr guter Übereinstimmung mit tatsächlichen biologischen Systemen wie etwa weißen Blutkörperchen oder mit Malaria infizierten roten Blutkörperchen. Als Nächstes wird betrachtet, welchen Einfluss Bindungen haben, die sich zwischen Rezeptoren und Liganden bilden, aber unter Kraft auch leicht wieder reißen. Dabei zeigt sich, dass verschiedene Bewegungstypen auftreten, beispielsweise Rollen, deren Erscheinen in Abhängigkeit wichtiger Modellparameter dann systematisch untersucht wird. Weiter wird der Frage nachgegangen, welche Eigenschaften von Bindungen dazu führen können, dass Zellen in einem großen Bereich von Strömungsraten ein stabiles Rollverhalten zeigen. Abschließend wird das Modell auf einen etwas anderen biologischen Prozess angewendet, nämlich den Transport kugelförmiger Lastpartikeln durch molekulare Motoren. In Analogie zu den bisher beschriebene Systemen können diese molekularen Motoren als sich aktiv bewegende Bindungen betrachtet werden. In diesem Teil der Arbeit wird ermittelt, wie weit die Lastpartikel im Mittel transportiert werden. KW - Rollende Adhäsion KW - Stokessche Dynamik KW - Zelladhäsion KW - Hydrodynamischer Fluss KW - Stochastischer Prozess KW - rolling adhesion KW - Stokesion Dynamics KW - cell adhesion KW - hydrodynamic flow KW - stochastic process KW - mean first passage times Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12997 ER - TY - THES A1 - Erdmann, Thorsten T1 - Stochastic dynamics of adhesion clusters under force T1 - Stochastische Dynamik von Adhäsionsclustern unter Kraft N2 - Adhesion of biological cells to their environment is mediated by two-dimensional clusters of specific adhesion molecules which are assembled in the plasma membrane of the cells. Due to the activity of the cells or external influences, these adhesion sites are usually subject to physical forces. In recent years, the influence of such forces on the stability of cellular adhesion clusters was increasingly investigated. In particular, experimental methods that were originally designed for the investigation of single bond rupture under force have been applied to investigate the rupture of adhesion clusters. The transition from single to multiple bonds, however, is not trivial and requires theoretical modelling. Rupture of biological adhesion molecules is a thermally activated, stochastic process. In this work, a stochastic model for the rupture and rebinding dynamics of clusters of parallel adhesion molecules under force is presented. In particular, the influence of (i) a constant force as it may be assumed for cellular adhesion clusters is investigated and (ii) the influence of a linearly increasing force as commonly used in experiments is considered. Special attention is paid to the force-mediated cooperativity of parallel adhesion bonds. Finally, the influence of a finite distance between receptors and ligands on the binding dynamics is investigated. Thereby, the distance can be bridged by polymeric linker molecules which tether the ligands to a substrate. N2 - Adhäsionskontakte biologischer Zellen zu ihrer Umgebung werden durch zweidimensionale Cluster von spezifischen Adhäsionsmolekülen in der Plasmamembran der Zellen vermittelt. Aufgrund der Zellaktivität oder äußerer Einflüsse sind diese Kontakte normalerweise Kräften ausgesetzt. Der Einfluss mechanischer Kräfte auf die Stabilität zellulärer Adhäsionscluster wurde in den vergangenen Jahren verstärkt experimentell untersucht. Insbesondere wurden experimentelle Methoden, die zunächst vor allem zur Untersuchung des Reißssverhaltens einzelner Moleküle unter Kraft entwickelt wurden, zur Untersuchung von Adhäsionsclustern verwendet. Die Erweiterung von einzelnen auf viele Moleküle ist jedoch keineswegs trivial und erfordert theoretische Modellierung. Das Reißen biologischer Adhäsionsmoleküle ist ein thermisch aktivierter, stochastischer Prozess. In der vorliegenden Arbeit wird ein stochastisches Modell zur Beschreibung der Reiß- und Rückbindedynamik von Clustern paralleler Adhäsionsmoleküle unter dem Einfluss einer mechanischen Kraft vorgestellt mit dem die Stabilität der Cluster untersucht wird. Im besonderen wird (i) der Einfluss einer konstante Kraft untersucht wie sie in zellulären Adhäsionsclustern angenommen werden kann und (ii) der Einfluss einer linear ansteigenden Kraft betrachtet wie sie gemeinhin in Experimenten angewendet wird. Besonderes Augenmerk liegt hier auf der durch die Kraft vermittelte Kooperativität paralleler Bindungen. Zuletzt wird der Einfluss eines endlichen Abstandes zwischen Rezeptoren und Liganden auf die Dynamik untersucht. Der Abstand kann hierbei durch Polymere, durch die die Liganden an das Substrat gebunden sind, überbrückt werden. KW - Biophysik KW - Stochastischer Prozess KW - Stochastisches dynamisches System KW - Mastergleichung KW - Adhäsionscluster KW - Zelladhäsion KW - dynamische Kraftspektroskopie KW - master equation KW - adhesion cluster KW - cell adhesion KW - dynamic force spectroscopy Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5564 ER - TY - THES A1 - Lazar, Paul T1 - Transport mechanisms and wetting dynamics in molecularly thin films of long-chain alkanes at solid/vapour interface : relation to the solid-liquid phase transition T1 - Transport Mechanismen und Benetzungsdynamik in molekular dünnen Schichten langketiger Alkane an Fest/Gas Grenzfächen : Beziehung zum Fest-Flüssig Phasenübergang N2 - Wetting and phase transitions play a very important role our daily life. Molecularly thin films of long-chain alkanes at solid/vapour interfaces (e.g. C30H62 on silicon wafers) are very good model systems for studying the relation between wetting behaviour and (bulk) phase transitions. Immediately above the bulk melting temperature the alkanes wet partially the surface (drops). In this temperature range the substrate surface is covered with a molecularly thin ordered, solid-like alkane film ("surface freezing"). Thus, the alkane melt wets its own solid only partially which is a quite rare phenomenon in nature. The thesis treats about how the alkane melt wets its own solid surface above and below the bulk melting temperature and about the corresponding melting and solidification processes. Liquid alkane drops can be undercooled to few degrees below the bulk melting temperature without immediate solidification. This undercooling behaviour is quite frequent and theoretical quite well understood. In some cases, slightly undercooled drops start to build two-dimensional solid terraces without bulk solidification. The terraces grow radially from the liquid drops on the substrate surface. They consist of few molecular layers with the thickness multiple of all-trans length of the molecule. By analyzing the terrace growth process one can find that, both below and above the melting point, the entire substrate surface is covered with a thin film of mobile alkane molecules. The presence of this film explains how the solid terrace growth is feeded: the alkane molecules flow through it from the undercooled drops to the periphery of the terrace. The study shows for the first time the coexistence of a molecularly thin film ("precursor") with partially wetting bulk phase. The formation and growth of the terraces is observed only in a small temperature interval in which the 2D nucleation of terraces is more likely than the bulk solidification. The nucleation mechanisms for 2D solidification are also analyzed in this work. More surprising is the terrace behaviour above bulk the melting temperature. The terraces can be slightly overheated before they melt. The melting does not occur all over the surface as a single event; instead small drops form at the terrace edge. Subsequently these drops move on the surface "eating" the solid terraces on their way. By this they grow in size leaving behind paths from were the material was collected. Both overheating and droplet movement can be explained by the fact that the alkane melt wets only partially its own solid. For the first time, these results explicitly confirm the supposed connection between the absence of overheating in solid and "surface melting": the solids usually start to melt without an energetic barrier from the surface at temperatures below the bulk melting point. Accordingly, the surface freezing of alkanes give rise of an energetic barrier which leads to overheating. N2 - Sowohl Benetzung als auch Phasenübergänge spielen eine sehr wichtige Rolle im täglichen Leben. Molekular dünne Filme langkettiger Alkane an Festkörper/Gas-Grenzflächen (z. B. C30H62 an Silizium-Waferoberflächen) sind sehr gute Modellsysteme um die Wechselbeziehung zwischen Benetzungsverhalten und (Volumen-)Phasenübergängen zu untersuchen. In einem Temperaturbereich knapp oberhalb der Volumenschmelztemperatur benetzt die Alkanschmelze die Substratoberfläche nur partiell (Alkantropfen). In diesem Temperaturbereich ist die Substratoberfläche mit einer molekular dünnen, festkörperartig geordneten Alkanschicht bedeckt ("Oberflächengefrieren" ). Die Alkanschmelze benetzt also die eigene Festkörperoberfläche nur partiell, ein in der Natur ziemlich seltenes Phänomen. Die Dissertation beschäftigt sich damit wie die Alkanschmelze ihre eigene Festkörperoberfläche über und unter dem Volumenschmelzpunkt benetzt und mit den entsprechenden Vorgängen beim Schmelzen bzw. Erstarren. Flüssige Alkantropfen lassen sich einige Grad unter ihren Schmelzpunkt unterkühlen ohne sich sofort zu verfestigen. Dieses "Unterkühlungsverhalten" ist üblich und es ist theoretisch qualitativ gut verstanden. Allerdings beobachtet man bei den Alkanen bei leichter Unterkühlung statt einer eventuellen Volumenverfestigung oft die Ausbildung von zweidimensionalen Terrassen aus erstarrtem Alkanen. Die Terrassen wachsen auf der Substratoberfläche radial aus den flüssigen Tropfen. Sie bestehen aus wenigen Alkanlagen mit jeweils der Dicke einer Moleküllänge. Die Analyse der Terrassen-Wachstumsprozesse zeigt, dass die gesamte Substratoberfläche einschliesslich der Terrassen sowohl oberhalb als auch unterhalb der Volumenschmelztemperatur mit einer dünnen Schicht mobiler Alkanmoleküle bedeckt ist. Durch diese Schicht fliessen bei Unterkühlung die Alkane vom unterkühlten Tropfen zur Terrassenkante und liefern den Nachschub für deren Wachstum. Die Untersuchungen zeigen damit erstmalig die Koexistenz eines molekular dünnen Films ("Precursor") mit einer partiell benetzenden Volumenphase. Die Entstehung und das Wachstum der Terrassen wird nur in einem engen Temperaturfenster beobachtet in dem die Keimbildung zweidimensionaler Terrassen wahrscheinlicher ist als die dreidimensionale Volumenverfestigung. Auch dieses Keimbildungsverhalten wird in der Dissertation genauer analysiert. Noch erstaunlicher als das Terrassenwachstum, d. h. das Verfestigungsverhalten ist das Schmelzverhalten der Terrassen. Sie lassen sich bis zu einer gewissen Temperatur überhitzen bevor sie schmelzen! Weiterhin findet bei genügender Überhitzung das Schmelzen nicht gleichzeitig überall statt sondern es entstehen zuerst kleine Alkantropfen an den Terrassenrändern. Diese bewegen sich dann über die Substratoberfläche und "fressen" sich durch die festen Terrassen. Dabei wachsen sie weil sie das geschmolzene Material aufnehmen und hinterlassen eine alkanfreie Spur. Sowohl die Überhitzung als auch die Tropfenbewegung lassen sich damit erklären dass die flüssige Alkanschmelze ihren eigenen Festkörper nur partiell benetzt. Die Ergebnisse bestätigen erstmals explizit den seit vielen Jahrzehnten vermuteten Zusammenhang zwischen der üblicherweise nicht beobachtbaren Überhitzung von Festkörpern und Oberflächenschmelzen: Festkörper beginnen normalerweise ohne Energiebarriere von der Oberfläche an zu schmelzen. Entsprechend bildet das Oberflächengefrieren der Alkane eine Energiebarriere und erlaubt damit deren Überhitzen. KW - Benetzung KW - Phasenübergang KW - Keimbildung KW - Alkane KW - Unterkühlung KW - Überhitzung KW - 2D Transport KW - wetting KW - phase transitions KW - long-chain alkane KW - 2D transport KW - nucleation KW - undercooling KW - overheating Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5275 ER - TY - THES A1 - Kraikivski, Pavel T1 - Non-equilibrium dynamics of adsorbed polymers and filaments T1 - Nichtgleichgewichtsdynamik adsorbierter Polymere und Filamente N2 - In the present work, we discuss two subjects related to the nonequilibrium dynamics of polymers or biological filaments adsorbed to two-dimensional substrates. The first part is dedicated to thermally activated dynamics of polymers on structured substrates in the presence or absence of a driving force. The structured substrate is represented by double-well or periodic potentials. We consider both homogeneous and point driving forces. Point-like driving forces can be realized in single molecule manipulation by atomic force microscopy tips. Uniform driving forces can be generated by hydrodynamic flow or by electric fields for charged polymers. In the second part, we consider collective filament motion in motility assays for motor proteins, where filaments glide over a motor-coated substrate. The model for the simulation of the filament dynamics contains interactive deformable filaments that move under the influence of forces from molecular motors and thermal noise. Motor tails are attached to the substrate and modeled as flexible polymers (entropic springs), motor heads perform a directed walk with a given force-velocity relation. We study the collective filament dynamics and pattern formation as a function of the motor and filament density, the force-velocity characteristics, the detachment rate of motor proteins and the filament interaction. In particular, the formation and statistics of filament patterns such as nematic ordering due to motor activity or clusters due to blocking effects are investigated. Our results are experimentally accessible and possible experimental realizations are discussed. N2 - In der vorliegenden Arbeit behandeln wir zwei Probleme aus dem Gebiet der Nichtgleichgewichtsdynamik von Polymeren oder biologischen Filamenten, die an zweidimensionale Substrate adsorbieren. Der erste Teil befasst sich mit der thermisch aktivierten Dynamik von Polymeren auf strukturierten Substraten in An- oder Abwesenheit einer treibenden Kraft. Das strukturierte Substrat wird durch Doppelmulden- oder periodische Potentiale dargestellt. Wir betrachten sowohl homogene treibende Kräfte als auch Punktkräfte. Punktkräfte können bei der Manipulation einzelner Moleküle mit die Spitze eines Rasterkraftmikroskops realisiert werden. Homogene Kräfte können durch einen hydrodynamischen Fluss oder ein elektrisches Feld im Falle geladener Polymere erzeugt werden. Im zweiten Teil betrachten wir die kollektive Bewegung von Filamenten in Motility-Assays, in denen Filamente über ein mit molekularen Motoren überzogenes Substrat gleiten. Das Modell zur Simulation der Filamentdynamik beinhaltet wechselwirkende, deformierbare Filamente, die sich unter dem Einfluss von Kräften, die durch molekulare Motoren erzeugt werden, sowie thermischem Rauschen bewegen. Die Schaftdomänen der Motoren sind am Substrat angeheftet und werden als flexible Polymere (entropische Federn) modelliert. Die Kopfregionen der Motoren vollführen eine gerichtete Schrittbewegung mit einer gegebenen Kraft-Geschwindigkeitsbeziehung. Wir untersuchen die kollektive Filamentdynamik und die Ausbildung von Mustern als Funktion der Motor- und der Filamentdichte, der Kraft-Geschwindigkeitscharakteristik, der Ablöserate der Motorproteine und der Filamentwechselwirkung. Insbesondere wird die Bildung und die Statistik der Filamentmuster, wie etwa die nematische Anordnung aufgrund der Motoraktivität oder die Clusterbildung aufgrund von Blockadeeffekten, untersucht. Unsere Ergebnisse sind experimentell zugänglich und mögliche experimentelle Realisierungen werden diskutiert. KW - Polymere KW - Nichtgleichgewicht KW - Nichtgleichgewichts-Phasenübergang KW - Filament KW - Molekularer Motor KW - Motilität KW - Adsorption KW - thermisch aktivierte Dynamik KW - strukturierte Substrate KW - Motility-Assay KW - non-equilibrium dynamics KW - adsorption KW - polymers KW - filaments KW - motility assay KW - molecular motors KW - structured substrates KW - thermally activated dynamics Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5979 ER - TY - THES A1 - Kleinen, Thomas Christopher T1 - Stochastic information in the assessment of climate change T1 - Stochastische Information in der Bewertung des Klimawandels N2 - Stochastic information, to be understood as "information gained by the application of stochastic methods", is proposed as a tool in the assessment of changes in climate. This thesis aims at demonstrating that stochastic information can improve the consideration and reduction of uncertainty in the assessment of changes in climate. The thesis consists of three parts. In part one, an indicator is developed that allows the determination of the proximity to a critical threshold. In part two, the tolerable windows approach (TWA) is extended to a probabilistic TWA. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted within the TWA. The thermohaline circulation (THC) is a circulation system in the North Atlantic, where the circulation may break down in a saddle-node bifurcation under the influence of climate change. Due to uncertainty in ocean models, it is currently very difficult to determine the distance of the THC to the bifurcation point. We propose a new indicator to determine the system's proximity to the bifurcation point by considering the THC as a stochastic system and using the information contained in the fluctuations of the circulation around the mean state. As the system is moved closer to the bifurcation point, the power spectrum of the overturning becomes "redder", i.e. more energy is contained in the low frequencies. Since the spectral changes are a generic property of the saddle-node bifurcation, the method is not limited to the THC, but it could also be applicable to other systems, e.g. transitions in ecosystems. In part two, a probabilistic extension to the tolerable windows approach (TWA) is developed. In the TWA, the aim is to determine the complete set of emission strategies that are compatible with so-called guardrails. Guardrails are limits to impacts of climate change or to climate change itself. Therefore, the TWA determines the "maneuvering space" humanity has, if certain impacts of climate change are to be avoided. Due to uncertainty it is not possible to definitely exclude the impacts of climate change considered, but there will always be a certain probability of violating a guardrail. Therefore the TWA is extended to a probabilistic TWA that is able to consider "probabilistic uncertainty", i.e. uncertainty that can be expressed as a probability distribution or uncertainty that arises through natural variability. As a first application, temperature guardrails are imposed, and the dependence of emission reduction strategies on probability distributions for climate sensitivities is investigated. The analysis suggests that it will be difficult to observe a temperature guardrail of 2°C with high probabilities of actually meeting the target. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted. A simple hydrological model is presented, as well as a downscaling scheme that allows the reconstruction of the spatio-temporal natural variability of temperature and precipitation. These are used to determine a probabilistic climate impact response function (CIRF), a function that allows the assessment of changes in probability of certain flood events under conditions of a changed climate. The assessment of changes in flooding probability is conducted in 83 major river basins. Not all floods can be considered: Events that either happen very fast, or affect only a very small area can not be considered, but large-scale flooding due to strong longer-lasting precipitation events can be considered. Finally, the probabilistic CIRFs obtained are used to determine emission corridors, where the guardrail is a limit to the fraction of world population that is affected by a predefined shift in probability of the 50-year flood event. This latter analysis has two main results. The uncertainty about regional changes in climate is still very high, and even small amounts of further climate change may lead to large changes in flooding probability in some river systems. N2 - Stochastische Information, zu verstehen als "Information, die durch die Anwendung stochastischer Methoden gewonnen wird", wird als Hilfsmittel in der Bewertung von Klimaänderungen vorgeschlagen. Das Ziel dieser Doktorarbeit ist es, zu zeigen, dass stochastische Information die Berücksichtigung und Reduktion von Unsicherheit in der Bewertung des Klimawandels verbessern kann. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird ein Indikator entwickelt, der die Bestimmung des Abstandes zu einem kritischen Grenzwert ermöglicht. Im zweiten Teil wird der "tolerable windows approach" (TWA) zu einem probabilistischen TWA erweitert. Im dritten Teil wird eine integrierte Abschätzung der Veränderung von Überflutungswahrscheinlichkeiten im Rahmen des TWA durchgeführt. Die thermohaline Zirkulation (THC) ist ein Zirkulationssystem im Nordatlantik, in dem die Zirkulation unter Einfluss des Klimawandels in einer Sattel-Knoten Bifurkation abreißen kann. Durch Unsicherheit in Ozeanmodellen ist es gegenwärtig kaum möglich, den Abstand des Systems zum Bifurkationspunkt zu bestimmen. Wir schlagen einen neuen Indikator vor, der es ermöglicht, die Nähe des Systems zum Bifurkationspunkt zu bestimmen. Dabei wird die THC als stochastisches System angenommen, und die Informationen, die in den Fluktuationen der Zirkulation um den mittleren Zustand enthalten sind, ausgenutzt. Wenn das System auf den Bifurkationspunkt zubewegt wird, wird das Leistungsspektrum "roter", d.h. die tiefen Frequenzen enthalten mehr Energie. Da diese spektralen Veränderungen eine allgemeine Eigenschaft der Sattel-Knoten Bifurkation sind, ist die Methode nicht auf die THC beschränkt, sondern weitere Anwendungen könnten möglich sein, beispielsweise zur Erkennung von Übergängen in Ökosystemen. Im zweiten Teil wird eine probabilistische Erweiterung des "tolerable windows approach" (TWA) entwickelt. Das Ziel des TWA ist die Bestimmung der Menge der Emissionsreduktionsstrategien, die mit sogenannten Leitplanken kompatibel sind. Diese Leitplanken sind Begrenzungen der Auswirkungen des Klimawandels, oder des Klimawandels selber. Der TWA bestimmt daher den Spielraum, den die Menschheit hat, wenn bestimmte Auswirkungen des Klimawandels vermieden werden sollen. Durch den Einfluss von Unsicherheit ist es aber nicht möglich, die betrachteten Auswirkungen des Klimawandels mit Sicherheit auszuschließen, sondern es existiert eine gewisse Wahrscheinlichkeit, dass die Leitplanke verletzt wird. Der TWA wird daher zu einem probabilistischen TWA weiterentwickelt, der es ermöglicht, "probabilistische Unsicherheit", also Unsicherheit, die durch eine Wahrscheinlichkeitsverteilung ausgedrückt werden kann, oder die durch den Einfluß von natürlicher Variabilität entsteht, zu berücksichtigen. Als erste Anwendung werden Temperaturleitplanken betrachtet, und die Abhängigkeit der Emissionsreduktionsstrategien von Wahrscheinlichkeitsverteilungen über die Klimasensitivität wird bestimmt. Die Analyse ergibt, dass die Einhaltung einer Temperaturleitplanke von 2°C sehr schwierig wird, wenn man hohe Wahrscheinlichkeiten des Einhaltens der Leitplanke fordert. Im dritten Teil wird eine integrierte Abschätzung der Änderungen von Überflutungswahrscheinlichkeiten unter Einfluss des Klimawandels durchgeführt. Ein einfaches hydrologisches Modell wird vorgestellt, sowie ein Skalierungsansatz, der es ermöglicht, die raum-zeitliche natürliche Variabilität von Temperatur und Niederschlag zu rekonstruieren. Diese werden zur Bestimmung einer probabilistischen Klimawirkungsfunktion genutzt, einer Funktion, die es erlaubt, die Veränderungen der Wahrscheinlichkeit bestimmter Überflutungsereignisse unter Einfluss von Klimaänderungen abzuschätzen. Diese Untersuchung der Veränderung von Überflutungswahrscheinlichkeiten wird in 83 großen Flusseinzugsgebieten durchgeführt. Nicht alle Klassen von Überflutungen können dabei berücksichtigt werden: Ereignisse, die entweder sehr schnell vonstatten gehen, oder die nur ein kleines Gebiet betreffen, können nicht berücksichtigt werden, aber großflächige Überflutungen, die durch starke, langanhaltende Regenfälle hervorgerufen werden, können berücksichtigt werden. Zuguterletzt werden die bestimmten Klimawirkungsfunktion dazu genutzt, Emissionskorridore zu bestimmen, bei denen die Leitplanken Begrenzungen des Bevölkerungsanteils, der von einer bestimmten Veränderung der Wahrscheinlichkeit eines 50-Jahres-Flutereignisses betroffen ist, sind. Letztere Untersuchung hat zwei Hauptergebnisse. Die Unsicherheit von regionalen Klimaänderungen ist immer noch sehr hoch, und außerdem können in einigen Flusssystemen schon kleine Klimaänderungen zu großen Änderungen der Überflutungswahrscheinlichkeit führen. KW - Anthropogene Klimaänderung KW - Stochastische Differentialgleichung KW - Überflutung KW - Thermohaline Zi KW - Integrierte Bewertung KW - Klimawandel KW - Climate Change KW - Integrated Assessment KW - Flooding probability KW - stochastic differential equation Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5382 ER - TY - THES A1 - Kölsch, Patrick T1 - Static and dynamic properties of soluble surfactants at the air/water interface T1 - Statische und dynamische Eigenschaften von löslichen Amphiphilen an der Wasser/Luft Grenzfläche N2 - Amphiphilic molecules contain a hydrophilic headgroup and a hydrophobic tail. The headgroup is polar or ionic and likes water, the tail is typically an aliphatic chain that cannot be accommodated in a polar environment. The prevailing molecular asymmetry leads to a spontaneous adsorption of amphiphiles at the air/water or oil/water interfaces. As a result, the surface tension and the surface rheology is changed. Amphiphiles are important tools to deliberately modify the interfacial properties of liquid interfaces and enable new phenomena such as foams which cannot be formed in a pure liquid. In this thesis we investigate the static and dynamic properties of adsorption layers of soluble amphiphiles at the air/water interface, the so called Gibbs monolayers. The classical way for an investigation of these systems is based on a thermodynamic analysis of the equilibrium surface tension as a function of the bulk composition in the framework of Gibbs theory. However, thermodynamics does not provide any structural information and several recent publications challenge even fundamental text book concepts. The experimental investigation faces difficulties imposed by the low surface coverage and the presence of dissolved amphiphiles in the adjacent bulk phase. In this thesis we used a suite of techniques with the sensitivity to detect less than a monolayer of molecules at the air-water interface. Some of these techniques are extremely complex such as infrared visible sum frequency generation (IR-VIS SFG) spectroscopy or second harmonic generation (SHG). Others are traditional techniques, such as ellipsometry employed in new ways and pushed to new limits. Each technique probes selectively different parts of the interface and the combination provides a profound picture of the interfacial architecture. The first part of the thesis is dedicated to the distribution of ions at interfaces. Adsorption layers of ionic amphiphiles serve as model systems allowing to produce a defined surface charge. The charge of the monolayer is compensated by the counterions. As a result of a complex zoo of interactions there will be a defined distribution of ions at the interface, however, its experimental determination is a big scientific challenge. We could demonstrate that a combination of linear and nonlinear techniques gives direct insights in the prevailing ion distribution. Our investigations reveal specific ion effects which cannot be described by classical Poisson-Boltzmann mean field type theories. Adsorption layer and bulk phase are in thermodynamic equilibrium, however, it is important to stress that there is a constant molecular exchange between adsorbed and dissolved species. This exchange process is a key element for the understanding of some of the thermodynamic properties. An excellent way to study Gibbs monolayers is to follow the relaxation from a non-equilibrium to an equilibrium state. Upon compression amphiphiles must leave the adsorption layer and dissolve in the adjacent bulk phase. Upon expansion amphiphiles must adsorb at the interface to restore the equilibrium coverage. Obviously the frequency of the expansion and compression cycles must match the molecular exchange processes. At too low frequencies the equilibrium is maintained at all times. If the frequency is too fast the system behaves as a monolayer of insoluble surfactants. In this thesis we describe an unique variant of an oscillating bubble technique that measures precisely the real and imaginary part of the complex dilational modulus E in a frequency range up to 500 Hz. The extension of about two decades in the time domain in comparison to the conventional method of an oscillating drop is a tremendous achievement. The imaginary part of the complex dilational modulus E is a consequence of a dissipative process which is interpreted as an intrinsic surface dilational viscosity. The IR-VIS SFG spectra of the interfacial water provide a molecular interpretation of the underlying dissipative process. N2 - Amphiphile Moleküle vereinen zwei gegensätzliche Strukturelemente. Sie bestehen aus einer polaren oder ionischen Kopfgruppe und einem unpolaren Molekülteil, häufig einer Kohlenwasserstoffkette. Die vorliegende molekulare Asymmetrie bewirkt eine spontane Adsorption der Amphiphile an der Wasser/Luft Grenzschicht. Als Folge verändern sich Oberflächenspannung und Grenzflächenrheologie. Amphiphile Moleküle werden benutzt, um die Eigenschaften flüssiger Grenzflächen zu verändern und begegnen uns z.B. in Form von Seifen oder anderen waschaktiven Substanzen im täglichen Leben. Der erste Teil dieser Doktorarbeit widmet sich der Verteilung von Ionen an geladenen flüssigen Grenzflächen. Adsorbtionsschichten ionischer Amphiphile bieten Modellsysteme zur Untersuchung dieses klassischen Bereiches der Kolloid- und Grenzflächenforschung. Durch die Adsorption der Amphiphile in der Grenzschicht werden definierte Oberflächenladungen erzeugt, welche durch die angrenzenden Gegenionen in der Sublage kompensiert werden. In dieser Arbeit wird gezeigt, dass eine Kombination aus linearen und komplexen nichtlinearen optischen Methoden, die experimentelle Bestimmung der Verteilung der Gegenionen an geladenen Grenzflächen ermöglicht. Unsere Messungen zeigen ionenspezifische Effekte, die sich nicht in Reihenfolge des Periodensystems ordnen lassen. Insbesondere wurde ein Phasenübergang in der Verteilung der Gegenionen von einem Zustand, in dem sich die Ionen in der Sublage befinden, zu einem Zustand bestehend aus direkt kondensierten Ionen beobachtet. Dieser Phasenübergang geschieht innerhalb einer geringen Erhöhung der Oberflächenladung und lässt sich nicht mit klassischen Theorien beschreiben. Der zweite Teil dieser Arbeit widmet sich der Stabilität von Schaumlamellen. Eine Schaumlamelle ist ein dünner Wasserfilm, der durch die Adsorption von oberflächenaktiven Molekülen an beiden Seiten stabilisiert wird. In Zusammenhang von Schäumen muss zwischen zwei Prozessen unterschieden werden: Der Schaumbildung und der Schaumstabilität. Die zugrundeliegenden Mechanismen der Schaumbildung sind weitestgehend verstanden, die der Schaumstabilität jedoch noch nicht. Um die Stabilität von Schäumen zu untersuchen, müssen Nichtgleichgewichtszustände erzeugt und die anschließende Relaxation in das Gleichgewicht beobachtet werden. In dieser Arbeit wurde ein neues Verfahren entwickelt, welches es ermöglicht, das Elastizitätsmodul von Grenzflächen in einem Frequenzbereich von 1-500 Hz zu bestimmen. Dies bedeutet eine Erweiterung um zwei Dekaden gegenüber herkömmlichen Methoden. Die Idee ist denkbar einfach: In einer mit Flüssigkeit gefüllten Kammer wird über die Bewegung eines Piezos eine Luftblase in Schwingung versetzt und mit einem in der Kammer befindlichen Drucksensor die Schwingungsantwort der Blase aufgezeichnet. Unsere Untersuchungen zeigen, dass die Voraussetzung für die Ausbildung einer stabilen Schaumlamelle das Vorkommen einer intrinsischen Oberflächenviskosität ist. Eine anschauliche Erklärung verdeutlicht dies: Eine viskose Oberfläche ist in der Lage, eine eingehende Störung lokal zu dämpfen, im Gegensatz zu einer komplett elastischen Oberfläche, wo sich die Störung über die gesamte Schaumlamelle verbreiten kann. Untersuchungen mittels der IR-VIS SFG Spektroskopie ergaben, dass die Struktur des Wassers bei der Beschreibung der Schaumstabilität auf molekularer Ebene eine entscheidende Rolle spielt: Die Oberflächenviskosität ist mit einem dissipativen Vorgang innerhalb der Grenzschicht verbunden. Dieser dissipative Vorgang konnte auf molekularer Ebene durch das Aufbrechen von Wasserstoffbrückenbindungen identifiziert werden. Ausschlaggebend war dabei der Austausch der adsorbierten Amphiphile in der Grenzfläche und der angrenzenden Sublage. KW - Nichtlineare Optik KW - Ellipsometrie KW - Schaum KW - Tensidlösung KW - Tensidschaum KW - Tensid KW - Ionisches Tensid KW - Hofmeister KW - Ionenspezifisch KW - Schaumstabilität KW - Schaumbildung KW - Summenfrequenzspektroskopie KW - Hofmeister KW - ions KW - foam KW - NLO KW - SFG KW - SHG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5716 ER - TY - THES A1 - Kubas, Daniel T1 - Applications of Galactic Microlensing T1 - Anwendungen des Galaktischen Mikrolinseneffektes N2 - Subject of this work is the study of applications of the Galactic Microlensing effect, where the light of a distant star (source) is bend according to Einstein's theory of gravity by the gravitational field of intervening compact mass objects (lenses), creating multiple (however not resolvable) images of the source. Relative motion of source, observer and lens leads to a variation of deflection/magnification and thus to a time dependant observable brightness change (lightcurve), a so-called microlensing event, lasting weeks to months. The focus lies on the modeling of binary-lens events, which provide a unique tool to fully characterize the lens-source system and to detect extra-solar planets around the lens star. Making use of the ability of genetic algorithms to efficiently explore large and intricate parameter spaces in the quest for the global best solution, a modeling software (Tango) for binary lenses is developed, presented and applied to data sets from the PLANET microlensing campaign. For the event OGLE-2002-BLG-069 the 2nd ever lens mass measurement has been achieved, leading to a scenario, where a G5III Bulge giant at 9.4 kpc is lensed by an M-dwarf binary with total mass of M=0.51 solar masses at distance 2.9 kpc. Furthermore a method is presented to use the absence of planetary lightcurve signatures to constrain the abundance of extra-solar planets. N2 - Thema der Arbeit ist das Studium von Anwendungen des Galaktischen Mikrolinseneffektes bei dem das Licht eines entfernten Sternes (Quelle) nach Einstein's Theorie der Gravitation im Schwerefeld eines sich hinreichend nahe der Sichlinie zur Quelle befindlichen massereichen kompakten Objektes (Linse) abgelenkt wird und Mehrfachbilder der Quelle erzeugt werden (welche jedoch nicht aufgelöst werden können). Die Relativbewegung von Quelle, Beobachter und Linse führt zur einer Änderung der Ablenk-und Verstärkungswirkung und somit zu einer beobachtbaren Helligkeitsänderung der Quelle (Lichtkurve), einem sogenannten Mikrolinsenereignis, welches Wochen bis Monate andauert. Der Schwerpunkt liegt in der Modelierung von Doppellinsen-Ereignissen, welche die einzigartige Möglichkeit bieten das Linsen-Quelle System vollständig zu charakterisieren und extra-solare Planeten um den Linsenstern zu detektieren. Unter Verwendung der Eigenschaft genetischer Algorithmen hoch-dimensionale und komplizierte Parameterräume effizient nach dem besten globalen Model zu durchsuchen, wird eine Modelier-Software (Tango) entwickelt, präsentiert und auf Daten der PLANET Mikrolinsen Beobachtungskampagne angewandt. Dabei konnte für das Ereignis OGLE-2002-BLG-069 zum zweitenmal überhaupt die Linsenmasse bestimmt werden, in einem Szenario bei dem ein G5III Bulge Riese, 9.4 kpc entfernt, von einem M-Zwerg Binärsystem mit einer Gesamtmasse von M=0.51 Sonnenmassen in einer Entfernung von 2.9 kpc gelinst wird. Darüberhinaus wird ein Verfahren vorgestellt mit dem man die Abwesenheit planetarer Lichtkurvensignaturen nutzen kann, um Aussagen über die Häufigkeit extrasolarer Planeten zu treffen. KW - Planeten KW - Gravitation KW - Milchstrasse KW - Genetik KW - Gravitationslinsen KW - Mikrolinsen KW - OGLE KW - PLANET KW - Optimierung KW - microlensing KW - planet KW - OGLE KW - gravity KW - genetics Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5179 ER - TY - THES A1 - Schmidt, Robert W. T1 - Cosmological applications of gravitational lensing N2 - In dieser Arbeit benutze ich den Gravitationslinseneffekt als ein Werkzeug, um zwei recht unterschiedliche kosmologische Fragestellungen zu bearbeiten: die Natur der dunklen Materie in Galaxienhalos und die Rotation des Universums. Zuerst untersuche ich den Mikrolinseneffekt in den Gravitationlinsensystemen Q0957+561 und Q2237+0305. In diesen Systemen scheint das Licht eines Quasars durch die Linsengalaxie hindurch. Aufgrund der Relativbewegung zwischen Quasar, Linsengalaxie und Beobachter verursachen kompakte Objekte innerhalb der Galaxie oder dem Galaxienhalo Helligkeitsfluktuationen des Hintergrundquasars. Ich vergleiche die am 3.5m Teleskop des Apache Point Observatory zwischen 1995 und 1998 gewonnene Lichtkurve des Doppelquasars Q0957+561 (Colley, Kundic & Turner 2000) mit numerischen Simulationen, um zu untersuchen, ob der Halo der Linsengalaxie aus massiven kompakten Objekten (MACHOs) besteht. Dieser Test wurde zuerst von Gott (1981) vorgeschlagen. Ich kann MACHO-Massen von 10^-6 M_sun bis zu 10^-2 M_sun ausschliessen, sofern der Quasar kleiner ist als 3x10^14 h_60^-0.5 cm und MACHOs mehr als 50% des dunklen Halos ausmachen. Im zweiten Teil der Arbeit stelle ich neue Beobachtungsdaten fuer den Vierfachquasar Q2237+0305 vor, die am 3.5m Teleskop des Apache Point Observatory zwischen Juni 1995 und Januar 1998 gewonnen wurden. Obwohl die Daten bei veraenderlichen, oft schlechten Seeing Bedingungen und grober Pixelaufloesung aufgenommen wurden, ist die Photometrie der beiden helleren Quasarbilder A und B mit Hilfe von HST-Beobachtungen moeglich. Ich finde ein Helligkeitsmaximum in Bild A mit einer Amplitude von 0.4 bis 0.5 mag und einer Dauer von wenigstens 100 Tagen. Dies zeigt, dass in der Linsengalaxie der Mikrolinseneffekt stattgefunden hat. Im abschliessenden Teil der Arbeit benutze ich dann den schwachen Gravitationslinseneffekt, um Grenzen fuer eine Klasse von rotierenden Kosmologien vom Goedel-Typ zu ermitteln, die von Korotky & Obukhov (1996) beschrieben wurde. In Studien des schwachen Linseneffektes werden die Formen von tausenden von Hintergrundgalaxien vermessen und gemittelt. Dabei werden kohaerente Verzerrungen der Galaxienformen gemessen, die von Massenverteilungen im Vordergrund oder von der grossraeumigen Struktur der Raumzeit selbst verursacht werden. Ich berechne die vorhergesagte Scherung als Funktion der Rotverschiebung in rotierenden Kosmologien vom Goedel-Typ und vergleiche diese mit der oberen Grenze fuer die kosmische Scherung gamma_limit von 0.04, die in Studien des schwachen Linseneffektes gewonnen wurde. Dieser Vergleich zeigt, dass Modelle vom Goedel-Typ keine groesseren Rotationen omega als H_0=6.1x10^-11 h_60/Jahr haben koennen, wenn die Grenze fuer die kosmische Scherung fuer den ganzen Himmel gilt. N2 - In this thesis we use the gravitational lensing effect as a tool to tackle two rather different cosmological topics: the nature of the dark matter in galaxy halos, and the rotation of the universe. Firstly, we study the microlensing effect in the gravitational lens systems Q0957+561 and Q2237+0305. In these systems the light from the quasar shines directly through the lensing galaxy. Due to the relative motion of the quasar, the lensing galaxy, and the observer compact objects in the galaxy or galaxy halo cause brightness fluctuations of the light from the background quasar. We compare light curve data from a monitoring program of the double quasar Q0957+561 at the 3.5m telescope at Apache Point Observatory from 1995 to 1998 (Colley, Kundic & Turner 2000) with numerical simulations to test whether the halo of the lensing galaxy consists of massive compact objects (MACHOs). This test was first proposed by Gott (1981). We can exclude MACHO masses from 10^-6 M_sun up to 10^-2 M_sun for quasar sizes of less than 3x10^14 h_60^-0.5 cm if the MACHOs make up at least 50% of the dark halo. Secondly, we present new light curve data for the gravitationally lensed quadruple quasar Q2237+0305 taken at the 3.5m telescope at Apache Point Observatory from June 1995 to January 1998. Although the images were taken under variable, often poor seeing conditions and with coarse pixel sampling, photometry is possible for the two brighter quasar images A and B with the help from HST observations. We find independent evidence for a brightness peak in image A of 0.4 to 0.5 mag with a duration of at least 100 days, which indicates that microlensing has taken place in the lensing galaxy. Finally, we use the weak gravitational lensing effect to put limits on a class of Goedel-type rotating cosmologies described by Korotky & Obukhov (1996). In weak lensing studies the shapes of thousands of background galaxies are measured and averaged to reveal coherent gravitational distortions of the galaxy shapes by foreground matter distributions, or by the large-scale structure of space-time itself. We calculate the predicted shear as a function of redshift in Goedel-type rotating cosmologies and compare this to the upper limit on cosmic shear gamma_limit of approximately 0.04 from weak lensing studies. We find that Goedel-type models cannot have larger rotations omega than H_0=6.1x10^-11 h_60/year if this shear limit is valid for the whole sky. KW - Gravitationslinseneffekt KW - Quasare KW - Kosmologie KW - dunkle Materie Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000261 ER - TY - THES A1 - Nikolov, Vesselin Kirolov T1 - Model membranes grafted with long polymers N2 - Wir untersuchen, welchen Einfluss die Verankerung von langen, hydrophilen Polymeren in Lipidmembranen auf deren elastische Eigenschaften ausübt. Theoretisch werden zwei Grenzbereiche für die spontane Krümmung der Membran erwartet: i) bei kleinen Oberflächenkonzentrationen des Polymers (Pilzgebiet) sollte die spontane Krümmung linear von der Oberflächendichte des verankerten Polymers abhängen; ii) bei hoher Bedeckung (Bürstengebiet) sollte die Abhängigkeit quadratisch sein. Wir versuchen, Vorhersagen für das Bürstengebiet zu prüfen, indem wir die morphologischen Veränderungen beobachten, die bei Riesen (Giant)- Vesikeln hervorgerufen werden. Als lange Polymere verwenden wir fluoreszenzmarkierte λ-Phage DNA Moleküle, die durch eine Biotin-Avidin-Biotin Verbindung an biotinhaltigen Lipidvesikeln befestigt sind. Wir kontrollieren die Oberflächenkonzentration der Anker durch Variation der Menge an biotinhaltigem Lipid in der Membran. Die Menge der an der Membran verankerten DNA wird durch Fluoreszenzmessungen quantifiziert. Änderungen in den elastischen Eigenschaften der Membran bei Anbindung der DNA, werden über eine Analyse der Vesikel-Fluktuationen kontrolliert. Die spontane Krümmung der Membran steigt mit der Oberflächenbeladung. Bei höheren Verankerungen bilden die Vesikel Knospen (budding). Die Größe der Knospen kann ebenfalls zur Bestimmung der Krümmung der Membran verwendet werden. Der Einfluss auf die Biegesteifigkeit ist Thema weiterer Untersuchungen. N2 - We study the effect on the elastic properties of lipid membranes induced by anchoring of long hydrophilic polymers. Theoretically, two limiting regimes for the membrane spontaneous curvature are expected : i) at low surface polymer concentration (mushroom regime) the spontaneous curvature should scale linearly with the surface density of anchored polymers; ii) at high coverage (brush regime) the dependence should be quadratic. We attempt to test the predictions for the brush regime by monitoring the morphological changes induced on giant vesicles. As long polymers we use fluorescently labeled λ-phage DNA molecules which are attached to biotinylated lipid vesicles with a biotin-avidin-biotin linkage. By varying the amount of biotinylated lipid in the membrane we control the surface concentration of the anchors. The amount of anchored DNA to the membrane is quantified with fluorescence measurements. Changes in the elastic properties of the membrane as DNA grafts to it are monitored via analysis of the vesicle fluctuations. The spontaneous curvature of the membrane increases as a function of the surface coverage. At higher grafting concentrations the vesicles bud. The size of the buds can also be used to assess the membrane curvature. The effect on the bending stiffness is a subject of further investigation. KW - membrane curvature KW - anchored polymer KW - fluctuations KW - avidin Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001409 ER - TY - THES A1 - Zöller, Gert T1 - Analyse raumzeitlicher Muster in Erdbebendaten N2 - Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung von Seismizität anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss darüber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus für die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen häufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die Möglichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird häufig als Vorläuferphaenomen für starke Erdbeben gedeutet. Es wird eine neue Methode präsentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen ermöglicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erhält man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz dafür nicht hoch genug, um eine Vorhersage im Sinne einer Aussage über den Ort, die Zeit und die Stärke eines zu erwartenden Hauptbebens zu ermöglichen. KW - Erdbeben KW - nichtlineare Dynamik Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000122 ER - TY - THES A1 - Uyaver, Sahin T1 - Simulation of annealed polyelectrolytes in poor solvents N2 - Polymere sind lange kettenartige Moleküle. Sie bestehen aus vielen elementaren chemischen Einheiten, den Monomeren, die durch kovalente Bindungen aneinander gekettet sind. Polyelektrolyte sind Polymere, die ionisierbare Monomeren enthalten. Aufgrund ihrer speziellen Eigenschaften sind Polyelektrolyte sowohl in der Molekular- und Zellbiologie von großen Bedeutung als auch in der Chemie großtechnisch relevant. Verglichen mit ungeladenen Polymeren sind Polyelektrolyte theoretisch noch wenig verstanden. Insbesondere gilt dies für Polyelektrolyte in sogenanntem schlechten Lösungsmittel. Ein schlechtes Lösungsmittel bewirkt eine effektive Anziehung zwischen den Monomeren. Für Polyelektrolyte in schlechtem Lösungsmittel kommt es daher zu einer Konkurrenz zwischen dieser Anziehung und der elektrostatischen Abstoßung. Geladene Polymere werden im Rahmen der chemischen Klassifikation in starke und schwache Polyelektrolyte unterschieden. Erstere zeigen vollständige Dissoziation unabhängig vom pH-Wert der Lösung. Die Position der Ladungen auf der Kette wird ausschließlich während der Polymersynthese festgelegt. In der Physik spricht man deshalb von Polyelektrolyten mit eingefrorener Ladungsverteilung (quenched polyelectrolytes). Im Falle von schwachen Polyelektrolyten ist die Ladungsdichte auf der Kette nicht konstant, sondern wird durch der pH-Wert der Lösung kontrolliert. Durch Rekombinations- und Dissoziationsprozesse sind die Ladungen auf der Kette beweglich. Im allgemeinen stellt sich eine inhomogene Gleichgewichtsverteilung ein, die mit der Struktur der Kette gekoppelt ist. Diese Polymere werden deshalb auch Polyelektrolyte mit Gleichgewichtsladungsverteilung (annealed polyelectrolytes) genannt. Wegen des zusätzlichen Freiheitsgrades in der Ladungsverteilung werden eine Reihe ungewöhnlicher Eigenschaften theoretisch vorhergesagt. Mit Hilfe von Simulationen ist es zum ersten Mal gelungen, zu zeigen daß 'annealed' Polyelektrolyte in relativ schlechtem Lösungsmittel einen diskontinuierlichen Phasenübergang durchlaufen, wenn ein kritischer pH-Werts der Lösung überschritten wird. Bei diesem Phasenübergang, gehen die Polyelektolyte von einer schwach geladenen kompakten globulären Struktur zu einer stark geladenen gestreckten Konfiguration über. Aufgrund theoretischer Vorhersagen wird erwartet, daß die globuläre Struktur in weniger schlechtem Lösungsmittel instabil wird und sich eine Perlenkettenkonfiguration ausbildet. Diese Vorhersage konnte für 'annealed' Polyelektrolyte mit den durchgeführten Simulationen zum ersten Mal bestätigt werden - inzwischen auch durch erste experimentelle Ergebnisse. Schließlich zeigen die Simulationen auch, daß annealed Polyelektrolyte bei einer kritischen Salzkonzentration in der Lösung einen scharfen Übergang zwischen einem stark geladenen gestreckten Zustand und einem schwach geladenen globulären Zustand aufweisen, wiederum in Übereinstimmung mit theoretischen Erwartungen. N2 - A polymer is a large molecule made up of many elementary chemical units, joined together by covalent bonds (for example, polyethylene). Polyelectrolytes (PELs) are polymer chains containing a certain amount of ionizable monomers. With their specific properties PELs acquire big importance in molecular and cell biology as well as in technology. Compared to neutral polymers the theory of PELs is less understood. In particular, this is valid for PELs in poor solvents. A poor solvent environment causes an effective attraction between monomers. Hence, for PELs in a poor solvent, there occurs a competition between attraction and repulsion. Strong or quenched PELs are completely dissociated at any accessible pH. The position of charges along the chain is fixed by chemical synthesis. On the other hand, in weak or annealed PELs dissociation of charges depends on solution pH. For the first time the simulation results have given direct evidence that at rather poor solvents an annealed PEL indeed undergoes a first-order phase transition when the chemical potential (solution pH) reaches at a certain value. The discontinuous transition occurs between a weakly charged compact globular structure and a strongly charged stretched configuration. At not too poor solvents theory predicts that globule would become unstable with respect to the formation of pearl-necklaces. The results show that pearl-necklaces exist in annealed PELs indeed. Furthermore, as predicted by theory, the simulation results have shown that annealed PELs display a sharp transition from a highly charged stretched state to a weakly charged globule at a critical salt concentration. KW - Polymer-Plastik KW - Polyelektrolyte KW - Simulation KW - polymer KW - polyelectrolytes KW - simulation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001488 ER - TY - THES A1 - Maraun, Douglas T1 - What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis T1 - Was können wir aus Klimadaten lernen? : Methoden zur Fluktuations-, Zeit/Skalen- und Phasenanalyse N2 - Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined. N2 - Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich. Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert. Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert. Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten. KW - Spektralanalyse KW - Monsun KW - Klimatologie KW - Zeitreihenanalyse KW - Wavelet-Analyse KW - El-Niño-Phänomen KW - Kopplungs-Analyse KW - Kohärenz-Analyse KW - Phasen-Analyse KW - Signifikanztests KW - Continuous Wavelet Spectral Analysis KW - Wavelet Coherence KW - Phase-Analysis KW - Significance Testing KW - Climatology Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9047 ER - TY - THES A1 - Kappe, Philip T1 - Design and investigation of the emission dynamics of a mode-locked SBS-laser oscillator T1 - Steuerung und Untersuchung der Emissionsdynamik eines modengekoppelten SBS-Laser Oszillators N2 - The primary objective of this work was to develop a laser source for fundamental investigations in the field of laser – materials interactions. In particular it is supposed to facilitate the study of the influence of the temporal energy distribution such as the interaction between adjacent pulses on ablation processes. Therefore, the aim was to design a laser with a highly flexible and easily controllable temporal energy distribution. The laser to meet these demands is an SBS-laser with optional active mode-locking. The nonlinear reflectivity of the SBS-mirror leads to a passive Q-switching and issues ns-pulse bursts with µs spacing. The pulse train parameters such as pulse duration, pulse spacing, pulse energy and number of pulses within a burst can be individually adjusted by tuning the pump parameters and the starting conditions for the laser. Another feature of the SBS-reflection is phase conjugation, which leads to an excellent beam quality thanks to the compensation of phase distortions. Transverse fundamental mode operation and a beam quality better than 1.4 times diffraction limited can be maintained for average output powers of up to 10 W. In addition to the dynamics on a ns-timescale described above, a defined splitting up of each ns-pulse into a train of ps-pulses can be achieved by additional active mode-locking. This twofold temporal focussing of the intensity leads to single pulse energies of up to 2 mJ at pulse durations of approximately 400 ps which corresponds to a pulse peak power of 5 MW. While the pulse duration is of the same order of magnitude as those of other passively Q-switched lasers with simultaneous mode-locking, the pulse energy and pulse peak power exceeds the values of these systems found in the literature by an order of magnitude. To the best of my knowledge the laser presented here is the first implementation of a self-starting mode-locked SBS-laser oscillator. In order to gain a better understanding and control of the transient output of the laser two complementary numerical models were developed. The first is based on laser rate equations which are solved for each laser mode individually while the mode-locking dynamics are calculated from the resultant transient spectrum. The rate equations consider the mean photon densities in the resonator, therefore the propagation of the light inside the resonator is not properly displayed. The second model, in contrast, introduces a spatial resolution of the resonator and hence the propagation inside the resonator can more accurately be considered. Consequently, a mismatch between the loss modulation frequency and the resonator round trip time can be conceived. The model calculates all dynamics in the time domain and therefore the spectral influences such as the Stokes-shift have to be neglected. Both models achieve an excellent reproduction of the ns-dynamics that are generated by the SBS-Q-switch. Separately, each model fails to reproduce all aspects of the ps-dynamics of the SBS-laser in detail. This can be attributed to the complexity of the numerous physical processes involved in this system. But thanks to their complementary nature they provide a very useful tool for investigating the various influences on the dynamics of the mode-locked SBS-laser individually. These aspects can eventually be recomposed to give a complete picture of the mechanisms which govern the output dynamics. Among the aspects under scrutiny were in particular the start resonator quality which determines the starting condition for the SBS-Q-switch, the modulation depth of the AOM and the phonon lifetime as well as the Brillouin-frequency of the SBS-medium. The numerical simulations and the experiments have opened several doors inviting further investigations and promising a potential for further improvement of the experimental results: The results of the simulations in combination with the experimental results which determined the starting conditions for the simulations leave no doubt that the bandwidth generation can primarily be attributed to the SBS-Stokes-shift during the buildup of the Q-switch pulse. For each resonator round trip, bandwidth is generated by shifting a part of the revolving light in frequency. The magnitude of the frequency shift corresponds to the Brillouin-frequency which is a constant of the SBS material and amounts in the case of SF6 to 240 MHz. The modulation of the AOM merely provides an exchange of population between spectrally adjacent modes and therefore diminishes a modulation in the spectrum. By use of a material with a Brillouin-frequency in the GHz range the bandwidth generation can be considerably accelerated thereby shortening the pulse duration. Also, it was demonstrated that yet another nonlinear effect of the SBS can be exploited: If the phonon lifetime is short compared to the resonator round trip time we obtain a modulation in the SBS-reflectivity that supports the modulation of the AOM. The application of an external optical feedback by a conventional mirror turns out to be an alternative to the AOM in synchronizing the longitudinal resonator modes. The interesting feature about this system is that it is ― although highly complex in the physical processes and the temporal output dynamics ― very simple and inexpensive from a technical point of view. No expensive modulators and no control electronics are necessary. Finally, the numerical models constitute a powerful tool for the investigation of emission dynamics of complex laser systems on arbitrary timescales and can also display the spectral evolution of the laser output. In particular it could be demonstrated that differences in the results of the complementary models vanish for systems of lesser complexity. N2 - Ziel der Arbeit ist die Entwicklung einer Laserstrahlquelle, die zur Untersuchung von Laser-Material-Wechselwirkungen eingesetzt werden soll. Im Mittelpunkt des Interesses steht hierbei der Einfluss der zeitlichen Pulsstruktur des Lasers auf Materialabtragsprozesse. Daraus ergibt sich die Anforderung einer möglichst hohen Flexibilität in der Pulsstruktur des Lasers sowie einer möglichst guten Strahlqualität. Eine gute Strahlqualität zeichnet sich durch eine homogene räumliche Intensitätsverteilung aus und ist Voraussetzung für eine gezielte Energiedeponierung auf dem Material. Diese Anforderungen wurden mit einem SBS-Laser erfüllt. Dabei handelt es sich um einen Laser, der einen SBS-Spiegel verwendet, dessen Reflektivität auf der Streuung des Lichts an Schallwellen beruht, die von dem einfallenden Licht selbst erzeugt werden. Als Resultat hat dieser Spiegel eine Reflektivität, die abhängig von der Energie des eingestrahlten Lichts ist. In einem Laser verwendet führt diese energieabhängige Reflektivität zu einer sogenannten Güteschaltung, die sich in der Ausbildung von kurzen Lichtpulsen mit Dauern von etwa 100 Nanosekunden äußert. Die Abstände zwischen den Pulsen, die Pulsdauern und die Pulsenergien können sehr leicht durch die Randbedingungen, wie etwa die Reflektivität der konventionellen Spiegel des Lasers, gesteuert werden. Durch eine zusätzliche, aktiv herbeigeführte Verlustmodulation im Laserresonator wird eine Aufspaltung der Nanosekundenpulse in eine Reihe von Pulsen mit Dauern von nur noch einigen 100 Pikosekunden erreicht. Diese Technik ist unter dem Begriff Modenkopplung bekannt. Es liegt jetzt also eine doppelte Pulsstruktur vor: Nanosekundenpulse, die sich jeweils aus vielen Pikosekundenpulsen zusammensetzen. Durch diese doppelte zeitliche Bündelung der Ausgangsleistung werden während der Pulse Spitzenleistungen von bis zu 5 MW erreicht. Die Pulsenergien der ps-Pulse erreichen bis zu 2 mJ. Diese Werte liegen um den Faktor 10 über denen vergleichbarer Systeme. Meines Wissens ist dies die erste Umsetzung eines selbsttätigen SBS-Lasers mit zusätzlicher Modenkopplung. Um die verschiedenen Einflüsse auf diese Emissionsdynamik besser verstehen und kontrollieren zu können, wurden zwei Modelle mit komplementären Ansätzen entwickelt, auf deren Basis diese Dynamik durch numerische Simulationen wiedergegeben werden kann. Insbesondere können auf diese Weise auch die Einflüsse von einzelnen Materialparametern isoliert betrachtet werden, was im Experiment im allgemeinen nicht möglich ist. Der SBS-Laser wurde bereits erfolgreich in Laser-Materialbearbeitungsexperimenten eingesetzt. So konnte beispielsweise gezeigt werden, dass sich die Bearbeitungsdauer beim Wendelbohren durch die Verwendung von Pulszügen, also einer Reihe kurz aufeinander folgender Pulse, gegenüber dem Einsatz von Pulsen mit gleichmäßigen Abständen erheblich verbessern lässt. KW - Laser KW - Pulszugformung KW - Stimulierte Brillouin Streuung KW - Modenkopplung KW - Laser KW - tailored pulse trains KW - stimulated Brillouin scattering KW - mode-locking Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11514 ER - TY - THES A1 - Boroudjerdi, Hoda T1 - Charged polymer-macroion complexes T1 - Geladene Polymer-Makroionen Komplexe N2 - This work explores the equilibrium structure and thermodynamic phase behavior of complexes formed by charged polymer chains (polyelectrolytes) and oppositely charged spheres (macroions). Polyelectrolyte-macroion complexes form a common pattern in soft-matter physics, chemistry and biology, and enter in numerous technological applications as well. From a fundamental point of view, such complexes are interesting in that they combine the subtle interplay between electrostatic interactions and elastic as well as entropic effects due to conformational changes of the polymer chain, giving rise to a wide range of structural properties. This forms the central theme of theoretical studies presented in this thesis, which concentrate on a number of different problems involving strongly coupled complexes, i.e. complexes that are characterized by a large adsorption energy and small chain fluctuations. In the first part, a global analysis of the structural phase behavior of a single polyelectrolyte-macroion complex is presented based on a dimensionless representation, yielding results that cover a wide range of realistic system parameters. Emphasize is made on the interplay between the effects due to the polyelectrolytes chain length, salt concentration and the macroion charge as well as the mechanical chain persistence length. The results are summarized into generic phase diagrams characterizing the wrapping-dewrapping behavior of a polyelectrolyte chain on a macroion. A fully wrapped chain state is typically obtained at intermediate salt concentrations and chain lengths, where the amount of polyelectrolyte charge adsorbed on the macroion typically exceeds the bare macroion charge leading thus to a highly overcharged complex. Perhaps the most striking features occur when a single long polyelectrolyte chain is complexed with many oppositely charged spheres. In biology, such complexes form between DNA (which carries the cell's genetic information) and small oppositely charged histone proteins serving as an efficient mechanism for packing a huge amount of DNA into the micron-size cell nucleus in eucaryotic cells. The resultant complex fiber, known as the chromatin fiber, appears with a diameter of 30~nm under physiological conditions. Recent experiments indicate a zig-zag spatial arrangement for individual DNA-histone complexes (nucleosome core particles) along the chromatin fiber. A numerical method is introduced in this thesis based on a simple generic chain-sphere cell model that enables one to investigate the mechanism of fiber formation on a systematic level by incorporating electrostatic and elastic contributions. As will be shown, stable complex fibers exhibit an impressive variety of structures including zig-zag, solenoidal and beads-on-a-string patterns, depending on system parameters such as salt concentration, sphere charge as well as the chain contour length (per sphere). The present results predict fibers of compact zig-zag structure within the physiologically relevant regime with a diameter of about 30~nm, when DNA-histone parameters are adopted. In the next part, a numerical method is developed in order to investigate the role of thermal fluctuations on the structure and thermodynamic phase behavior of polyelectrolyte-macroion complexes. This is based on a saddle-point approximation, which allows to describe the experimentally observed reaction (or complexation) equilibrium in a dilute solution of polyelectrolytes and macroions on a systematic level. This equilibrium is determined by the entropy loss a single polyelectrolyte chain suffers as it binds to an oppositely charged macroion. This latter quantity can be calculated from the spectrum of polyelectrolyte fluctuations around a macroion, which is determined by means of a normal-mode analysis. Thereby, a stability phase diagram is obtained, which exhibits qualitative agreement with experimental findings. At elevated complex concentrations, one needs to account for the inter-complex interactions as well. It will be shown that at small separations, complexes undergo structural changes in such a way that positive patches from one complex match up with negative patches on the other. Furthermore, one of the polyelectrolyte chains may bridge between the two complexes. These mechanisms lead to a strong inter-complex attraction. As a result, the second virial coefficient associated with the inter-complex interaction becomes negative at intermediate salt concentrations in qualitative agreement with recent experiments on solutions of nucleosome core particles. N2 - In dieser Arbeit werden Gleichgewichtsstrukturen und die thermodynamischen Phasen von Komplexen aus geladenen Polymeren (Polyelektrolyten) und entgegengesetzt geladenen Kugeln (Makroionen) untersucht. Polyelektrolyt-Makroion-Komplexe bilden ein grundlegendes und wiederkehrendes Prinzip in der Physik weicher Materie sowie in Chemie und Biologie. In zahlreichen technologischen Prozessen finden sich ebenfalls Anwendungsbeispiele für derartige Komplexe. Zusätzlich zu ihrem häufigen Auftreten sind sie aufgrund ihrer Vielfalt von strukturellen Eigenschaften von grundlegendem Interesse. Diese Vielfalt wird durch ein Zusammenspiel von elektrostatischen Wechselwirkungen sowie elastischen und entropischen Effekten aufgrund von Konformationsänderungen in der Polymerkette bedingt und bildet das zentrale Thema der theoretischen Studien, die mit dieser Arbeit vorgelegt werden. Verschiedene Strukturen und Prozesse, die stark gekoppelte Komplexe beinhalten - das sind solche, für die eine hohe Adsorptionsenergie und geringe Fluktuationen in den Polymerketten charakteristisch sind -, bilden das Hauptthema der Arbeit. Basierend auf einer dimensionslosen Darstellung wird im ersten Teil der Arbeit in einer umfassenden Analyse das strukturelle Phasenverhalten einzelner Polyelektrolyt-Makroion-Komplexe behandelt. Der Schwerpunkt wird hier auf das Wechselspiel zwischen Effekten aufgrund der Polyelektrolytkettenlänge, ihrer mechanischen Persistenzlänge, der Salzkonzentration und der Ladung des Makroions gelegt. Die Ergebnisse werden in allgemeinen Phasendiagrammen zusammengestellt, das das Aufwickeln-Abwickeln-Verhalten der Polyelektrolytkette auf einem Makroion beschreibt. Ein Zustand mit komplett aufgewickelter Kette tritt typischerweise bei mittleren Salzkonzentrationen und Kettenlängen auf; häufig ist hier die auf dem Makroion adsorbierte Gesamtladung des Polyelektrolyts größ er als die Ladung des nackten Makroions, d.h. es findet in hohem Grad Ladungsinversion statt. Äußerst bemerkenswerte Eigenschaften treten auf, wenn eine einzelne lange Polyelektrolytkette viele, ihr entgegengesetzt geladene Kugeln komplexiert. In biologischen Systemen findet man solche Komplexe zwischen DNS, die die genetische Information einer Zelle trägt, und kleinen, entgegengesetzt geladenen Histonproteinen. Diese Komplexe dienen als effizienter Mechanismus, die groß e Menge an DNS im Mikrometer-groß en Zellkern eukaryotischer Zellen zu komprimieren. Die dadurch erhaltene komplexe Faser, eine Chromatinfaser, hat unter physiologischen Bedingungen einen Durchmesser von nur etwa 30~nm. Neue Experimente haben gezeigt, dass eine räumliche Zickzack-Anordnung einzelner DNA-Histon-Komplexe entlang der Chromatinfaser vorliegt. In der hier vorgelegten Arbeit wird eine numerische Methode vorgestellt, die auf einem einfachen Ketten-Kugel-Zell-Modell basiert und die die systematische Untersuchung des Mechnismus zur Faserbildung ermöglicht, wobei sowohl elektrostatische als auch elastische Wechselwirkungen berücksichtigt werden. Es wird gezeigt, dass stabile Komplexfasern in Abhängigkeit von der Salzkonzentration, der Kugelladung und der Kettenkonturlänge eine Vielfalt von Strukturen aufweisen, darunter Zickzack-, Solenoid- und Perlenkettenformen. Für physiologisch relevante Bedingungen werden mit dieser Methode für DNA-Histon-Komplexe Fasern kompakter Zickzack-Struktur mit einem Durchmesser von etwa 30~nm erhalten. Im folgenden Teil wird eine numerische Methode entwickelt, um den Einfluss thermischer Fluktuationen auf Struktur und thermodynamisches Phasenverhalten der Polyelektrolyt-Makroion-Komplexe zu untersuchen. Basierend auf der Sattelpunktsnäherung werden die experimentell beobachteten Reaktionsgleichgewichte in verdünnten Lösungen von Polyelektrolyten und Makroionen systematisch beschrieben. Das Gleichgewicht ist durch einen Verlust an Entropie für die einzelne Polyelektrolytkette durch die Bindung an das entgegengesetzt geladene Makroion gekennzeichnet. Diese Größ e wurde aus dem Spektrum der Polyelektrolytfluktuationen um das Makroion erhalten und mittels einer Analyse der Normalmoden berechnet. Hierüber wird ein Phasendiagramm zur Stabilität der Komplexe erhalten, das qualitativ gute Übereinstimmungen mit experimentellen Ergebnissen aufweist. Bei höheren Komplexkonzentrationen müssen auch die Wechselwirkungen zwischen den Komplexen berücksichtigt werden. Es wird gezeigt, dass sich die Struktur der Komplexe bei kleinen Abständen so ändert, dass positiv geladene Bereiche eines Komplexes mit negativ geladenen auf einem Nachbarkomplex räumlich korrelieren. Weiterhin können einzelne Polyelektrolytketten als verbrückendes Element zwischen zwei Komplexen dienen. Dieser Mechanismus führt zu starker effektiver Anziehung zwischen den Komplexen. In Übereinstimmung mit kürzlich durchgeführten Experimenten ist als Folge davon der zweite Virialkoeffizient der Wechselwirkung zwischen Komplexen bei mittleren Salzkonzentrationen negativ. KW - Biopolymere KW - Histon-DNS-Komplex KW - DNS-Bindungsproteine KW - DNS KW - Chromatin KW - Kolloides System KW - Kolloidphysik KW - Polyelektrolyt KW - geladene Systeme KW - Theorie KW - Polyelektrolytkomplexe KW - Chromatin KW - Histone-DNA Complexes KW - Charged Systems KW - Polyelectrolyte Complexes Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6282 ER - TY - THES A1 - Narayanan Nair, Arun Kumar T1 - Molecular dynamics simulations of polyelectrolyte brushes T1 - Molekulardynamik Simulationen von Polyelektrolytbürsten N2 - This thesis studies strong, completely charged polyelectrolyte brushes. Extensive molecular dynamics simulations are performed on different polyelectrolyte brush systems using local compute servers and massively parallel supercomputers. The full Coulomb interaction of charged monomers, counterions, and salt ions is treated explicitly. The polymer chains are anchored by one of their ends to a uncharged planar surface. The chains are treated under good solvent conditions. Monovalent salt ions (1:1 type) are modelled same as counterions. The studies concentrate on three different brush systems at constant temperature and moderate Coulomb interaction strength (Bjerrum length equal to bond length): The first system consists of a single polyelectrolyte brush anchored with varying grafting density to a plane. Results show that chains are extended up to about 2/3 of their contour length. The brush thickness slightly grows with increasing anchoring density. This slight dependence of the brush height on grafting density is in contrast to the well known scaling result for the osmotic brush regime. That is why the result obtained by simulations has stimulated further development of theory as well as new experimental investigations on polyelectrolyte brushes. This observation can be understood on a semi-quantitative level using a simple scaling model that incorporates excluded volume effects in a free-volume formulation where an effective cross section is assigned to the polymer chain from where couterions are excluded. The resulting regime is called nonlinear osmotic brush regime. Recently this regime was also obtained in experiments. The second system studied consists of polyelectrolyte brushes with added salt in the nonlinear osmotic regime. Varying salt is an important parameter to tune the structure and properties of polyelectrolytes. Further motivation is due to a theoretical scaling prediction by Pincus for the salt dependence of brush thickness. In the high salt limit (salt concentration much larger than counterion concentration) the brush height is predicted to decrease with increasing external salt, but with a relatively weak power law showing an exponent -1/3. There is some experimental and theoretical work that confirms this prediction, but there are other results that are in contradiction. In such a situation simulations are performed to validate the theoretical prediction. The simulation result shows that brush thickness decreases with added salt, and indeed is in quite good agreement with the scaling prediction by Pincus. The relation between buffer concentration and the effective ion strength inside the brush at varying salt concentration is of interest both from theoretical as well as experimental point of view. The simulation result shows that mobile ions (counterions as well as salt) distribute nonhomogeneously inside and outside of the brush. To explain the relation between the internal ion concentration with the buffer concentration a Donnan equilibrium approach is employed. Modifying the Donnan approach by taking into account the self-volume of polyelectrolyte chains as indicated above, the simulation result can be explained using the same effective cross section for the polymer chains. The extended Donnan equilibrium relation represents a interesting theoretical prediction that should be checked by experimental data. The third system consist of two interacting polyelectrolyte brushes that are grafted to two parallel surfaces. The interactions between brushes are important, for instance, in stabilization of dispersions against flocculation. In the simulations pressure is evaluated as a function of separation D between the two grafting planes. The pressure behavior shows different regimes for decreasing separation. This behavior is in qualitative agreement with experimental data. At relatively weak compression the pressure behavior obtained in the simulation agrees with a 1/D power law predicted by scaling theory. Beyond that the present study could supply new insight for understanding the interaction between polyelectrolyte brushes. N2 - In dieser Arbeit werden vollständig geladene, starke Polyelektrolytbürsten untersucht. Unter Verwendung lokaler Computeserver und massiv paralleler Supercomputer wurden umfangreiche Molekulardynamik Simulationen von verschiedenen Polyelektrolytbürsten Systemen ausgeführt. Die vollständige Coulomb Wechselwirkung zwischen geladenen Monomeren, Gegen- und Salzionen wird explizit berücksichtigt. Die Polymerketten – in gutem Lösungsmittel simuliert – sind mit einem Ende an einer ungeladenen, planaren Grenzfläche verankert. Monovalente Salzionen (1:1) werden identisch wie Gegenionen modelliert. Simulationen bei konstanter Temperatur und moderater Stärke der Coulomb Wechselwirkung (Bjerrum Länge etwa gleich der Bindungslänge) konzentrieren sich auf drei Systeme: 1. Polyelektrolytbürsten ohne Salzionen mit variabler Ankerdichte der Ketten Die Simulationsergebnisse zeigen, dass die Polyelektrolytketten bis zu 2/3 ihrer Konturlänge gestreckt sind, wobei die Bürstenhöhe mit zunehmender Ankerdichte leicht wächst. Diese schwache Abhängigkeit steht im Widerspruch zu theoretischen Ergebnissen, die Unabhängigkeit von der Ankerdichte im so genannten osmotischen Regime vorhersagen. In der Folge haben die Simulationen sowohl weitergehende theoretische Überlegungen als auch neue experimentelle Untersuchungen an Polyelektrolytbürsten stimuliert. Zwischenzeitlich konnte die Beobachtung auf semi-quantitativer Ebene auf der Basis eines einfachen Skalenmodells verstanden werden, welches das Eigenvolumen der Polymerketten im Rahmen einer freien Volumen Näherung berücksichtigt. Dabei wird der Kette ein effektiver Querschnitt zugeordnet, von dem Gegenionen ausgeschlossen sind. Das resultierende Regime, in dem nichtlineare Entropie und Elastizität berücksichtigt sind, wird als nichtlinear osmotisches Regime bezeichnet. In der Zwischenzeit konnte dieses Regime auch experimentell verifiziert werden. 2. Polyelektrolytbürsten im nichtlinear osmotischen Regime mit variabler Salzkonzentration Struktur und Eigenschaften von Polyelektrolyten können in einfacher Weise durch Veränderung der Salzkonzentration beeinflusst werden. Nach Pincus sollte für starke Salzkonzentration (groß gegenüber der Konzentration der Gegenionen) die Bürstenhöhe mit wachsender Konzentration abnehmen, jedoch nur als relativ schwaches Potenzgesetz mit einem Exponenten -1/3. In der Literatur sind experimentelle und theoretische Ergebnisse bekannt, die diese theoretische Vorhersage bestätigen – allerdings auch solche, die dazu im Widerspruch stehen. In einer solchen Situation sind Simulationen ein geeignetes Mittel, um theoretische Vorhersagen zu überprüfen: In der Tat bestätigen die vorliegenden Simulationsergebnisse in eindeutiger Weise die theoretische Vorhersage von Pincus. Das Verhältnis zwischen Buffer Konzentration und effektiver Ionenstärke in der Polymerschicht ist nicht nur von theoretischem Interesse, sondern hat ebenso experimentelle Relevanz. Die Simulationen zeigen, dass die mobilen Ionen innerhalb und außerhalb der Polyelektrolytbürste inhomogen verteilt sind. Ein Erklärungsversuch mit Hilfe des Donnan Gleichgewichts liefert nur für sehr kleine Salzkon-zentrationen befriedigende Übereinstimmung, ansonst ein qualitativ unterschiedliches Verhalten. Wird jedoch das Eigenvolumen der Ketten in ähnlicher Weise wie oben skizziert berücksichtigt, können die Simulationsdaten bei identischer Parameterwahl in nahezu perfekter Übereinstimmung reproduziert werden. Der erweiterte Ansatz für das Donnan Gleichgewicht in konzentrierten Systemen stellt eine interessante theoretische Vorhersage dar, die auch experimentell überprüft werden sollte. 3. Wechselwirkung zwischen zwei Polyelektrolytbürsten ohne Salz Repulsive Wechselwirkungen zwischen Polymerbürsten haben in unterschiedlichen Zusammenhängen eine große Bedeutung, so z.B. bei der Stabilisierung von Dispersionen oder bei der Reduzierung von Reibungswiderständen in biologischen Systemen. In den vorgestellten Simulationen von zwei Polyelektrolytbürsten, die an gegenüberliegende Grenzflächen verankert sind, wird der osmotische Druck in Abhängigkeit vom Abstand D der Ankerflächen untersucht. Mit abnehmendem Abstand werden unterschiedliche Regime im Verhalten des Druckes beobachtet. Dieses Verhalten stimmt qualitativ mit experimentellen Ergebnissen überein. Für relativ schwache Überlappung folgt das Verhalten des Drucks dem theoretisch vorhergesagten 1/D Skalengesetz. Darüber hinaus liefert die Simulationsuntersuchung neue Daten zum Verständnis der Wechselwirkung zwischen Polyelektrolyt Bürsten. KW - Molekulardynamik KW - Polyelektrolyt KW - molecular dynamics KW - polyelectrolyte brushes Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7005 ER - TY - THES A1 - Kuckländer, Nina T1 - Synchronization via correlated noise and automatic control in ecological systems T1 - Synchronisation in ökologischen Systemen durch korreliertes Rauschen und automatische Kontrolle N2 - Subject of this work is the possibility to synchronize nonlinear systems via correlated noise and automatic control. The thesis is divided into two parts. The first part is motivated by field studies on feral sheep populations on two islands of the St. Kilda archipelago, which revealed strong correlations due to environmental noise. For a linear system the population correlation equals the noise correlation (Moran effect). But there exists no systematic examination of the properties of nonlinear maps under the influence of correlated noise. Therefore, in the first part of this thesis the noise-induced correlation of logistic maps is systematically examined. For small noise intensities it can be shown analytically that the correlation of quadratic maps in the fixed-point regime is always smaller than or equal to the noise correlation. In the period-2 regime a Markov model explains qualitatively the main dynamical characteristics. Furthermore, two different mechanisms are introduced which lead to a higher correlation of the systems than the environmental correlation. The new effect of "correlation resonance" is described, i. e. the correlation yields a maximum depending on the noise intensity. In the second part of the thesis an automatic control method is presented which synchronizes different systems in a robust way. This method is inspired by phase-locked loops and is based on a feedback loop with a differential control scheme, which allows to change the phases of the controlled systems. The effectiveness of the approach is demonstrated for controlled phase synchronization of regular oscillators and foodweb models. N2 - Gegenstand der Arbeit ist die Möglichkeit der Synchronisierung von nichtlinearen Systemen durch korreliertes Rauschen und automatische Kontrolle. Die Arbeit gliedert sich in zwei Teile. Der erste Teil ist motiviert durch Feldstudien an wilden Schafspopulationen auf zwei Inseln des St. Kilda Archipels, die starke Korrelationen aufgrund von Umwelteinflüssen zeigen. In einem linearen System entspricht die Korrelation der beiden Populationen genau der Rauschkorrelation (Moran-Effekt). Es existiert aber noch keine systematische Untersuchung des Verhaltens nichtlinearer Abbildungen unter dem Einfluss korrelierten Rauschens. Deshalb wird im ersten Teils dieser Arbeit systematisch die rauschinduzierte Korrelation zweier logistischer Abbildungen in den verschiedenen dynamischen Bereichen untersucht. Für kleine Rauschintensitäten wird analytisch gezeigt, dass die Korrelation von quadratischen Abbildungen im Fixpunktbereich immer kleiner oder gleich der Rauschkorrelation ist. Im Periode-2 Bereich beschreibt ein Markov-Modell qualitativ die wichtigsten dynamischen Eigenschaften. Weiterhin werden zwei unterschiedliche Mechanismen vorgestellt, die dazu führen, dass die beiden ungekoppelten Systeme stärker als ihre Umwelt korreliert sein können. Dabei wird der neue Effekt der "correlation resonance" aufgezeigt, d. h. es ergibt sich eine Resonanzkurve der Korrelation in Abbhängkeit von der Rauschstärke. Im zweiten Teil der Arbeit wird eine automatische Kontroll-Methode präsentiert, die es ermöglicht sehr unterschiedliche Systeme auf robuste Weise in Phase zu synchronisieren. Die Methode ist angelehnt an Phase-locked-Loops und basiert auf einer Rückkopplungsschleife durch einen speziellen Regler, der es erlaubt die Phasen der kontrollierten Systeme zu ändern. Die Effektivität dieser Methode zur Kontrolle der Phasensynchronisierung wird an regulären Oszillatoren und an Nahrungskettenmodellen demonstriert. KW - Markov-Prozess KW - Kontrolltheorie KW - Synchronisierung KW - Nichtlineare Dynamik KW - Theoretische Ökologie KW - Moran-Effekt KW - Stochastische Prozesse KW - Moran effect KW - Markov process KW - Theoretical ecology KW - Synchronisation KW - Nonlinear Dynamics Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10826 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - THES A1 - Gámez López, Antonio Juan T1 - Application of nonlinear dimensionality reduction to climate data for prediction T1 - Anwendung nichtlinearer Dimensionsreduktion auf Klimadaten zur Vorhersage N2 - This Thesis was devoted to the study of the coupled system composed by El Niño/Southern Oscillation and the Annual Cycle. More precisely, the work was focused on two main problems: 1. How to separate both oscillations into an affordable model for understanding the behaviour of the whole system. 2. How to model the system in order to achieve a better understanding of the interaction, as well as to predict future states of the system. We focused our efforts in the Sea Surface Temperature equations, considering that atmospheric effects were secondary to the ocean dynamics. The results found may be summarised as follows: 1. Linear methods are not suitable for characterising the dimensionality of the sea surface temperature in the tropical Pacific Ocean. Therefore they do not help to separate the oscillations by themselves. Instead, nonlinear methods of dimensionality reduction are proven to be better in defining a lower limit for the dimensionality of the system as well as in explaining the statistical results in a more physical way [1]. In particular, Isomap, a nonlinear modification of Multidimensional Scaling methods, provides a physically appealing method of decomposing the data, as it substitutes the euclidean distances in the manifold by an approximation of the geodesic distances. We expect that this method could be successfully applied to other oscillatory extended systems and, in particular, to meteorological systems. 2. A three dimensional dynamical system could be modeled, using a backfitting algorithm, for describing the dynamics of the sea surface temperature in the tropical Pacific Ocean. We observed that, although there were few data points available, we could predict future behaviours of the coupled ENSO-Annual Cycle system with an accuracy of less than six months, although the constructed system presented several drawbacks: few data points to input in the backfitting algorithm, untrained model, lack of forcing with external data and simplification using a close system. Anyway, ensemble prediction techniques showed that the prediction skills of the three dimensional time series were as good as those found in much more complex models. This suggests that the climatological system in the tropics is mainly explained by ocean dynamics, while the atmosphere plays a secondary role in the physics of the process. Relevant predictions for short lead times can be made using a low dimensional system, despite its simplicity. The analysis of the SST data suggests that nonlinear interaction between the oscillations is small, and that noise plays a secondary role in the fundamental dynamics of the oscillations [2]. A global view of the work shows a general procedure to face modeling of climatological systems. First, we should find a suitable method of either linear or nonlinear dimensionality reduction. Then, low dimensional time series could be extracted out of the method applied. Finally, a low dimensional model could be found using a backfitting algorithm in order to predict future states of the system. N2 - Das Ziel dieser Arbeit ist es das Verhalten der Temperatur des Meers im tropischen Pazifischen Ozean vorherzusagen. In diesem Gebiet der Welt finden zwei wichtige Phänomene gleichzeitig statt: der jährliche Zyklus und El Niño. Der jährliche Zyklus kann als Oszillation physikalischer Variablen (z.B. Temperatur, Windgeschwindigkeit, Höhe des Meeresspiegels), welche eine Periode von einem Jahr zeigen, definiert werden. Das bedeutet, dass das Verhalten des Meers und der Atmosphäre alle zwölf Monate ähnlich sind (alle Sommer sind ähnlicher jedes Jahr als Sommer und Winter des selben Jahres). El Niño ist eine irreguläre Oszillation weil sie abwechselnd hohe und tiefe Werte erreicht, aber nicht zu einer festen Zeit, wie der jährliche Zyklus. Stattdessen, kann el Niño in einem Jahr hohe Werte erreichen und dann vier, fünf oder gar sieben Jahre benötigen, um wieder aufzutreten. Es ist dabei zu beachten, dass zwei Phänomene, die im selben Raum stattfinden, sich gegenseitig beeinflussen. Dennoch weiß man sehr wenig darüber, wie genau el Niño den jährlichen Zyklus beeinflusst, und umgekehrt. Das Ziel dieser Arbeit ist es, erstens, sich auf die Temperatur des Meers zu fokussieren, um das gesamte System zu analysieren; zweitens, alle Temperaturzeitreihen im tropischen Pazifischen Ozean auf die geringst mögliche Anzahl zu reduzieren, um das System einerseits zu vereinfachen, ohne aber andererseits wesentliche Information zu verlieren. Dieses Vorgehen ähnelt der Analyse einer langen schwingenden Feder, die sich leicht um die Ruhelage bewegt. Obwohl die Feder lang ist, können wir näherungsweise die ganze Feder zeichnen wenn wir die höchsten Punkte zur einen bestimmten Zeitpunkt kennen. Daher, brauchen wir nur einige Punkte der Feder um ihren Zustand zu charakterisieren. Das Hauptproblem in unserem Fall ist die Mindestanzahl von Punkten zu finden, die ausreicht, um beide Phänomene zu beschreiben. Man hat gefunden, dass diese Anzahl drei ist. Nach diesem Teil, war das Ziel vorherzusagen, wie die Temperaturen sich in der Zeit entwickeln werden, wenn man die aktuellen und vergangenen Temperaturen kennt. Man hat beobachtet, dass eine genaue Vorhersage bis zu sechs oder weniger Monate gemacht werden kann, und dass die Temperatur für ein Jahr nicht vorhersagbar ist. Ein wichtiges Resultat ist, dass die Vorhersagen auf kurzen Zeitskalen genauso gut sind, wie die Vorhersagen, welche andere Autoren mit deutlich komplizierteren Methoden erhalten haben. Deswegen ist meine Aussage, dass das gesamte System von jährlichem Zyklus und El Niño mittels einfacherer Methoden als der heute angewandten vorhergesagt werden kann. KW - Nichtlineare Dynamik KW - El Niño Phänomen KW - Prognose KW - nonlinear dynamics KW - El Niño KW - prediction Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10956 ER - TY - THES A1 - Rust, Henning T1 - Detection of long-range dependence : applications in climatology and hydrology T1 - Detektion langreichweitiger Korrelationen : Anwendungen in Klimatologie und Hydrologie N2 - It is desirable to reduce the potential threats that result from the variability of nature, such as droughts or heat waves that lead to food shortage, or the other extreme, floods that lead to severe damage. To prevent such catastrophic events, it is necessary to understand, and to be capable of characterising, nature's variability. Typically one aims to describe the underlying dynamics of geophysical records with differential equations. There are, however, situations where this does not support the objectives, or is not feasible, e.g., when little is known about the system, or it is too complex for the model parameters to be identified. In such situations it is beneficial to regard certain influences as random, and describe them with stochastic processes. In this thesis I focus on such a description with linear stochastic processes of the FARIMA type and concentrate on the detection of long-range dependence. Long-range dependent processes show an algebraic (i.e. slow) decay of the autocorrelation function. Detection of the latter is important with respect to, e.g. trend tests and uncertainty analysis. Aiming to provide a reliable and powerful strategy for the detection of long-range dependence, I suggest a way of addressing the problem which is somewhat different from standard approaches. Commonly used methods are based either on investigating the asymptotic behaviour (e.g., log-periodogram regression), or on finding a suitable potentially long-range dependent model (e.g., FARIMA[p,d,q]) and test the fractional difference parameter d for compatibility with zero. Here, I suggest to rephrase the problem as a model selection task, i.e.comparing the most suitable long-range dependent and the most suitable short-range dependent model. Approaching the task this way requires a) a suitable class of long-range and short-range dependent models along with suitable means for parameter estimation and b) a reliable model selection strategy, capable of discriminating also non-nested models. With the flexible FARIMA model class together with the Whittle estimator the first requirement is fulfilled. Standard model selection strategies, e.g., the likelihood-ratio test, is for a comparison of non-nested models frequently not powerful enough. Thus, I suggest to extend this strategy with a simulation based model selection approach suitable for such a direct comparison. The approach follows the procedure of a statistical test, with the likelihood-ratio as the test statistic. Its distribution is obtained via simulations using the two models under consideration. For two simple models and different parameter values, I investigate the reliability of p-value and power estimates obtained from the simulated distributions. The result turned out to be dependent on the model parameters. However, in many cases the estimates allow an adequate model selection to be established. An important feature of this approach is that it immediately reveals the ability or inability to discriminate between the two models under consideration. Two applications, a trend detection problem in temperature records and an uncertainty analysis for flood return level estimation, accentuate the importance of having reliable methods at hand for the detection of long-range dependence. In the case of trend detection, falsely concluding long-range dependence implies an underestimation of a trend and possibly leads to a delay of measures needed to take in order to counteract the trend. Ignoring long-range dependence, although present, leads to an underestimation of confidence intervals and thus to an unjustified belief in safety, as it is the case for the return level uncertainty analysis. A reliable detection of long-range dependence is thus highly relevant in practical applications. Examples related to extreme value analysis are not limited to hydrological applications. The increased uncertainty of return level estimates is a potentially problem for all records from autocorrelated processes, an interesting examples in this respect is the assessment of the maximum strength of wind gusts, which is important for designing wind turbines. The detection of long-range dependence is also a relevant problem in the exploration of financial market volatility. With rephrasing the detection problem as a model selection task and suggesting refined methods for model comparison, this thesis contributes to the discussion on and development of methods for the detection of long-range dependence. N2 - Die potentiellen Gefahren und Auswirkungen der natürlicher Klimavariabilitäten zu reduzieren ist ein wünschenswertes Ziel. Solche Gefahren sind etwa Dürren und Hitzewellen, die zu Wasserknappheit führen oder, das andere Extrem, Überflutungen, die einen erheblichen Schaden an der Infrastruktur nach sich ziehen können. Um solche katastrophalen Ereignisse zu vermeiden, ist es notwendig die Dynamik der Natur zu verstehen und beschreiben zu können. Typischerweise wird versucht die Dynamik geophysikalischer Datenreihen mit Differentialgleichungssystemen zu beschreiben. Es gibt allerdings Situationen in denen dieses Vorgehen nicht zielführend oder technisch nicht möglich ist. Dieses sind Situationen in denen wenig Wissen über das System vorliegt oder es zu komplex ist um die Modellparameter zu identifizieren. Hier ist es sinnvoll einige Einflüsse als zufällig zu betrachten und mit Hilfe stochastischer Prozesse zu modellieren. In dieser Arbeit wird eine solche Beschreibung mit linearen stochastischen Prozessen der FARIMA-Klasse angestrebt. Besonderer Fokus liegt auf der Detektion von langreichweitigen Korrelationen. Langreichweitig korrelierte Prozesse sind solche mit einer algebraisch, d.h. langsam, abfallenden Autokorrelationsfunktion. Eine verläßliche Erkennung dieser Prozesse ist relevant für Trenddetektion und Unsicherheitsanalysen. Um eine verläßliche Strategie für die Detektion langreichweitig korrelierter Prozesse zur Verfügung zu stellen, wird in der Arbeit ein anderer als der Standardweg vorgeschlagen. Gewöhnlich werden Methoden eingesetzt, die das asymptotische Verhalten untersuchen, z.B. Regression im Periodogramm. Oder aber es wird versucht ein passendes potentiell langreichweitig korreliertes Modell zu finden, z.B. aus der FARIMA Klasse, und den geschätzten fraktionalen Differenzierungsparameter d auf Verträglichkeit mit dem trivialen Wert Null zu testen. In der Arbeit wird vorgeschlagen das Problem der Detektion langreichweitiger Korrelationen als Modellselektionsproblem umzuformulieren, d.h. das beste kurzreichweitig und das beste langreichweitig korrelierte Modell zu vergleichen. Diese Herangehensweise erfordert a) eine geeignete Klasse von lang- und kurzreichweitig korrelierten Prozessen und b) eine verläßliche Modellselektionsstrategie, auch für nichtgenestete Modelle. Mit der flexiblen FARIMA-Klasse und dem Whittleschen Ansatz zur Parameterschätzung ist die erste Voraussetzung erfüllt. Hingegen sind standard Ansätze zur Modellselektion, wie z.B. der Likelihood-Ratio-Test, für nichtgenestete Modelle oft nicht trennscharf genug. Es wird daher vorgeschlagen diese Strategie mit einem simulationsbasierten Ansatz zu ergänzen, der insbesondere für die direkte Diskriminierung nichtgenesteter Modelle geeignet ist. Der Ansatz folgt einem statistischen Test mit dem Quotienten der Likelihood als Teststatistik. Ihre Verteilung wird über Simulationen mit den beiden zu unterscheidenden Modellen ermittelt. Für zwei einfache Modelle und verschiedene Parameterwerte wird die Verläßlichkeit der Schätzungen für p-Wert und Power untersucht. Das Ergebnis hängt von den Modellparametern ab. Es konnte jedoch in vielen Fällen eine adäquate Modellselektion etabliert werden. Ein wichtige Eigenschaft dieser Strategie ist, dass unmittelbar offengelegt wird, wie gut sich die betrachteten Modelle unterscheiden lassen. Zwei Anwendungen, die Trenddetektion in Temperaturzeitreihen und die Unsicherheitsanalyse für Bemessungshochwasser, betonen den Bedarf an verläßlichen Methoden für die Detektion langreichweitiger Korrelationen. Im Falle der Trenddetektion führt ein fälschlicherweise gezogener Schluß auf langreichweitige Korrelationen zu einer Unterschätzung eines Trends, was wiederum zu einer möglicherweise verzögerten Einleitung von Maßnahmen führt, die diesem entgegenwirken sollen. Im Fall von Abflußzeitreihen führt die Nichtbeachtung von vorliegenden langreichweitigen Korrelationen zu einer Unterschätzung der Unsicherheit von Bemessungsgrößen. Eine verläßliche Detektion von langreichweitig Korrelierten Prozesse ist somit von hoher Bedeutung in der praktischen Zeitreihenanalyse. Beispiele mit Bezug zu extremem Ereignissen beschränken sich nicht nur auf die Hochwasseranalyse. Eine erhöhte Unsicherheit in der Bestimmung von extremen Ereignissen ist ein potentielles Problem von allen autokorrelierten Prozessen. Ein weiteres interessantes Beispiel ist hier die Abschätzung von maximalen Windstärken in Böen, welche bei der Konstruktion von Windrädern eine Rolle spielt. Mit der Umformulierung des Detektionsproblems als Modellselektionsfrage und mit der Bereitstellung geeigneter Modellselektionsstrategie trägt diese Arbeit zur Diskussion und Entwicklung von Methoden im Bereich der Detektion von langreichweitigen Korrelationen bei. KW - langreichweitige Korrelationen KW - nichtgenestete Modellselektion KW - FARIMA KW - Unsicherheitsanalyse KW - Bemessungshochwasser KW - long-range dependence KW - long-memory KW - non-nested model selection KW - FARIMA KW - uncertainty analysis KW - return level estimation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13347 ER - TY - THES A1 - Zakrevskyy, Yuriy T1 - Liquid crystallinity and alignment of ionic self-assembly complexes T1 - Flüssigkristallinität und Alignment ionischer Self-Assembly Komplexe N2 - In this work the first observation of new type of liquid crystals is presented. This is ionic self-assembly (ISA) liquid crystals formed by introduction of oppositely charged ions between different low molecular tectonic units. As practically all conventional liquid crystals consist of rigid core and alkyl chains the attention is focused to the simplest case where oppositely charged ions are placed between a rigid core and alkyl tails. The aim of this work is to investigate and understand liquid crystalline and alignment properties of these materials. It was found that ionic interactions within complexes play the main role. Presence of these interactions restricts transition to isotropic phase. In addition, these interactions hold the system (like network) allowing crystallization into a single domain from aligned LC state. Alignment of these simple ISA complexes was spontaneous on a glass substrate. In order to show potentials for application perylenediimide and azobenzene containing ISA complexes have been investigated for correlations between phase behavior and their alignment properties. The best results of macroscopic alignment of perylenediimide-based ISA complexes have been obtained by zone-casting method. In the aligned films the columns of the complex align perpendicular to the phase-transition front. The obtained anisotropy (DR = 18) is thermally stable. The investigated photosensitive (azobenzene-based) ISA complexes show formation of columnar LC phases. It was demonstrated that photo alignment of such complexes was very effective (DR = 50 has been obtained). It was shown that photo-reorientation in the photosensitive ISA complexes is cooperative process. The size of domains has direct influence on efficiency of the photo-reorientation process. In the case of small domains the photo-alignment is the most effective. Under irradiation with linearly polarized light domains reorient in the plane of the film leading to macroscopic alignment of columns parallel to the light polarization and joining of small domains into big ones. Finally, the additional distinguishable properties of the ISA liquid crystalline complexes should be noted: (I) the complexes do not solve in water but readily solve in organic solvents; (II) the complexes have good film-forming properties when cast or spin-coated from organic solvent; (III) alignment of the complexes depends on their structure and secondary interactions between tectonic units. N2 - In dieser Arbeit wird erstmalig eine neue Klasse von Flüssigkristallen auf Basis ionischer Self-Assembly (ISA) Komplexe beschrieben. Während herkömmliche thermotrope Flüssigkristalle aus steifen, formanisotropen Molekülfragmenten und kovalent gebundenen Flügelgruppen (meist Alkylketten) bestehen, entstehen diese neuartigen supramolekularen Verbindungen durch die Komplexierung gegensätzlich geladener ionischer tektonischer Einheiten und Tenside. Ziel der Arbeit war es, die flüssigkristallinen und insbesondere die Orientierungseigenschaften dieser neuen Materialien am Beispiel repräsentativer Modellverbindungen zu untersuchen. Es wurde nachgewiesen, dass die ionischen Wechselwirkungen die thermischen Eigenschaften der Verbindungen entscheidend beeinflussen. So behindern sie den Übergang in die isotrope Phase. Das System wird quasi durch ein Netzwerk ionischer Wechselwirkungen stabilisiert. Makroskopisch orientierte LC Zustände sind offensichtlich Ausgangspunkt für hochgeordnete flüssigkristalline Filme oder gar für die Kristallisation von Monodomänen. In speziellen Fällen erfolgt eine spontane Ausbildung von ISA Monodomänen bereits auf Glassubstraten. Mit Hinblick auf potentielle Anwendungen wurden Perylendiimid und Azobenzen enthaltene ISA Komplexe insbesondere hinsichtlich von Zusammenhängen zwischen Phasenverhalten und Orientierungseigenschaften untersucht. Die zone-casting Methode erwies sich als besonders geeignet für die makroskopische Orientierung perylendiimidbasierter ISA Komplexe. In orientierten Filmen richten sich die Kolumnen des Komplexes senkrecht zur Phasenübergangsfront aus. Das dabei erreichte dichroitische Verhältnis (DR=18) ist thermisch stabil. Die untersuchten Azobenzen basierten ISA Komplexe weisen kolumnare LC Phasen auf. Durch Photoalignment mittels linear polarisierten Lichts werden Komplexe sehr effektiv senkrecht bzw. die Columnen der Komplexe parallel zur Polarisation des Lichtes orientiert, wobei sehr hohe DR bis zu 50 erreicht wurden. Weiterhin wurde gezeigt, dass die Photo-Reorientierung photosensitiver ISA Komplexe kooperativ erfolgt. Die Größe der Domänen hat dabei einen entscheidenden Einfluß auf die Effektivität des Photo-Reorientierungsprozesses. So ist der Prozess im Fall kleiner Domänen effektiver. Durch die Bestrahlung mit linear polarisiertem Licht werden die Domänen in der Filmebene reorientiert, was zu einer makroskopischen Ausrichtung der Kolumnen parallel zur Lichtpolarisation und zu einer Vereinigung kleiner Domänen führt. KW - Flüssigkristall KW - ionischer Self-Assembly KW - Komplex KW - Alignment KW - Liquid crystal KW - Ionic Self-Assembly KW - Complex KW - Alignment Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10048 ER - TY - THES A1 - Griesel, Alexa T1 - Modelling large scale ocean circulation : the role of mixing location and meridional pressure gradients for the Atlantic overturning dynamics T1 - Modellierung grossräumiger Ozeanzirkulation :die Rolle inhomoger verteilter Vermischung und meridionaler Druckgradienten für die Atlantische Tiefenzirkulation N2 - Due to its relevance for global climate, the realistic representation of the Atlantic meridional overturning circulation (AMOC) in ocean models is a key task. In recent years, two paradigms have evolved around what are its driving mechanisms: diapycnal mixing and Southern Ocean winds. This work aims at clarifying what sets the strength of the Atlantic overturning components in an ocean general circulation model and discusses the role of spatially inhomogeneous mixing, numerical diffusion and winds. Furthermore, the relation of the AMOC with a key quantity, the meridional pressure difference is analyzed. Due to the application of a very low diffusive tracer advection scheme, a realistic Atlantic overturning circulation can be obtained that is purely wind driven. On top of the winddriven circulation, changes of density gradients are caused by increasing the parameterized eddy diffusion in the North Atlantic and Southern Ocean. The linear relation between the maximum of the Atlantic overturning and the meridional pressure difference found in previous studies is confirmed and it is shown to be due to one significant pressure gradient between the average pressure over high latitude deep water formation regions and a relatively uniform pressure between 30°N and 30°S, which can directly be related to a zonal flow through geostrophy. Under constant Southern Ocean windstress forcing, a South Atlantic outflow in the range of 6-16 Sv is obtained for a large variety of experiments. Overall, the circulation is winddriven but its strength not uniquely determined by the Southern Ocean windstress. The scaling of the Atlantic overturning components is linear with the background vertical diffusivity, not confirming the 2/3 power law for one-hemisphere models without wind forcing. The pycnocline depth is constant in the coarse resolution model with large vertical grid extends. It suggests the ocean model operates like the Stommel box model with a linear relation of the pressure difference and fixed vertical scale for the volume transport. However, this seems only valid for vertical diffusivities smaller 0.4 cm²/s, when the dominant upwelling within the Atlantic occurs along the boundaries. For larger vertical diffusivities, a significant amount of interior upwelling occurs. It is further shown that any localized vertical mixing in the deep to bottom ocean cannot drive an Atlantic overturning. However, enhanced boundary mixing at thermocline depths is potentially important. The numerical diffusion is shown to have a large impact on the representation of the Atlantic overturning in the model. While the horizontal numerical diffusion tends to destabilize the Atlantic overturning the verital numerical diffusion denotes an amplifying mechanism. N2 - Wegen ihrer Bedeutung für das globale Klima ist die realistische Darstellung des Atlantischen meridionalen overturnings in Ozeanmodellen eine zentrale Aufgabe. In den letzten Jahren haben sich zwei verschiedene Hypothesen darüber entwickelt, was diese Zirkulation antreibt: diapyknische Vermischung und Winde im südlichen Ozean. Die vorliegende Arbeit zielt darauf aufzuklären, welche Rolle eine räumlich inhomogene Verteilung der Vermischung, die numerische Diffusion und Winde beim Bestimmen der Stärke des Atlantischen overturnings spielen. Ausserdem wird die Beziehung des Atlantischen overturnings zu meridionalen Druckgradienten untersucht. Durch Anwenden eines sehr gering diffusiven Tracer-Advektionsschemas kann eine realistische Zirkulation erzeugt werden, die rein von den Winden im südlichen Ozean getrieben wird. Ausgehend von der windgetriebenen Zirkulation werden Änderungen der Dichtegradienten durch Verstärkung der parametrisierten Eddy Diffusion im Nordatlantik und südlichen Ozean hervorgerufen. Dadurch wird das Bild einer vom Wind bestimmten Zirkulation in der letztendlich Druckgradienten nicht ausschlaggebend sein würden, modifiziert. Das lineare Verhältnis zwischen dem Maximum des Atlantischen overturnings und dem meridionalen Druckgradienten wird bestätigt und erklärt. Diese Linearität ist auf einen signifikanten Druckgradienten zwischen den Tiefenwasserbildungsgebieten und einem zwischen 30°N and 30°S homogenen Druck zurückzuführen. Der Volumentransport bei 30°S variiert über eine Bandbreite von 10 Sv für verschiedene Experimente unter konstantem Wind über dem südlichen Ozean. Zusammenfassend ist die Zirkulation zwar windgetrieben aber ihre Stärke nicht allein vom Wind bestimmt. Die Skalierung des Atlantischen overturnings ist linear mit vertikaler Vermischung, was die Skalierung mit einem Exponenten von 2/3 in ein-hemisphärischen Modellen ohne Wind-Antrieb nicht bestätigt. Die Tiefe der Pyknokline bleibt mit der groben vertikalen Auflösung konstant. Die Ergebnisse deuten darauf hin, dass das Ozeanmodell sich wie das Stommel-Box Modell verhält mit einer linearen Beziehung zum meridionalen Druckgradienten und einer festen vertikalen Skala für den Volumentransport. Das scheint jedoch nur für Diffusivitäten kleiner als 0.4 cm²/s zu gelten, wenn das Aufsteigen im Atlantischen Ozean bevorzugt an den Ozeanrändern statt findet. In Bezug auf den Antrieb des Atlantischen overturnings wird gezeigt, dass vertikale Vermischung in der Nähe des Ozeanbodens keinen Einfluss hat. Verstärkte vertikale Vermischung an den Ozeanrändern in der Tiefe der Thermokline jedoch ist potentiell wichtig. Die numerische Diffusion hat einen grossen Einfluss auf das Atlantische overturning im Modell. Während die horizontale numerische Diffusion das overturning eher zu destabilisieren tendiert, bewirkt die vertikale numerische Diffusion einen Verstärkungsmechanismus. KW - Thermohaline Zirkulation KW - Parametrisierung KW - Vermischung KW - Atlantischer Ozean KW - Ozeanmodell KW - Antrieb KW - Druckgradient KW - Thermohaline Circulation KW - ocean model KW - mixing parameterization KW - driving mechanism KW - pressure gradient Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-2609 ER - TY - THES A1 - Dahlke, Sandro T1 - Rapid climate changes in the arctic region of Svalbard T1 - Aktuelle Klimaänderungen in der Svalbard-Region BT - processes, implications and representativeness for the broader Arctic BT - Prozesse, Auswirkungen und Repräsentativität für die Arktis N2 - Over the last decades, the Arctic regions of the earth have warmed at a rate 2–3 times faster than the global average– a phenomenon called Arctic Amplification. A complex, non-linear interplay of physical processes and unique pecularities in the Arctic climate system is responsible for this, but the relative role of individual processes remains to be debated. This thesis focuses on the climate change and related processes on Svalbard, an archipelago in the North Atlantic sector of the Arctic, which is shown to be a "hotspot" for the amplified recent warming during winter. In this highly dynamical region, both oceanic and atmospheric large-scale transports of heat and moisture interfere with spatially inhomogenous surface conditions, and the corresponding energy exchange strongly shapes the atmospheric boundary layer. In the first part, Pan-Svalbard gradients in the surface air temperature (SAT) and sea ice extent (SIE) in the fjords are quantified and characterized. This analysis is based on observational data from meteorological stations, operational sea ice charts, and hydrographic observations from the adjacent ocean, which cover the 1980–2016 period. It is revealed that typical estimates of SIE during late winter range from 40–50% (80–90%) in the western (eastern) parts of Svalbard. However, strong SAT warming during winter of the order of 2–3K per decade dictates excessive ice loss, leaving fjords in the western parts essentially ice-free in recent winters. It is further demostrated that warm water currents on the west coast of Svalbard, as well as meridional winds contribute to regional differences in the SIE evolution. In particular, the proximity to warm water masses of the West Spitsbergen Current can explain 20–37% of SIE variability in fjords on west Svalbard, while meridional winds and associated ice drift may regionally explain 20–50% of SIE variability in the north and northeast. Strong SAT warming has overruled these impacts in recent years, though. In the next part of the analysis, the contribution of large-scale atmospheric circulation changes to the Svalbard temperature development over the last 20 years is investigated. A study employing kinematic air-back trajectories for Ny-Ålesund reveals a shift in the source regions of lower-troposheric air over time for both the winter and the summer season. In winter, air in the recent decade is more often of lower-latitude Atlantic origin, and less frequent of Arctic origin. This affects heat- and moisture advection towards Svalbard, potentially manipulating clouds and longwave downward radiation in that region. A closer investigation indicates that this shift during winter is associated with a strengthened Ural blocking high and Icelandic low, and contributes about 25% to the observed winter warming on Svalbard over the last 20 years. Conversely, circulation changes during summer include a strengthened Greenland blocking high which leads to more frequent cold air advection from the central Arctic towards Svalbard, and less frequent air mass origins in the lower latitudes of the North Atlantic. Hence, circulation changes during winter are shown to have an amplifying effect on the recent warming on Svalbard, while summer circulation changes tend to mask warming. An observational case study using upper air soundings from the AWIPEV research station in Ny-Ålesund during May–June 2017 underlines that such circulation changes during summer are associated with tropospheric anomalies in temperature, humidity and boundary layer height. In the last part of the analysis, the regional representativeness of the above described changes around Svalbard for the broader Arctic is investigated. Therefore, the terms in the diagnostic temperature equation in the Arctic-wide lower troposphere are examined for the Era-Interim atmospheric reanalysis product. Significant positive trends in diabatic heating rates, consistent with latent heat transfer to the atmosphere over regions of increasing ice melt, are found for all seasons over the Barents/Kara Seas, and in individual months in the vicinity of Svalbard. The above introduced warm (cold) advection trends during winter (summer) on Svalbard are successfully reproduced. Regarding winter, they are regionally confined to the Barents Sea and Fram Strait, between 70°–80°N, resembling a unique feature in the whole Arctic. Summer cold advection trends are confined to the area between eastern Greenland and Franz Josef Land, enclosing Svalbard. N2 - Die Arktis hast sich über die letzten Jahrzehnte etwa 2–3 mal so schnell erwärmt wie die globale Mitteltemperatur der Erde, wofür der Begriff Arktische Verstärkung geprägt wurde. Eine komplexe Kaskade nichtlinear miteinander interagierender Prozesse und lokaler Bedingungen ist für das Auftreten dieses Phänomens verantwortlich, jedoch bleibt ein wissenschaftlicher Konsens zur Quantifizierung einzelner beteiligter Prozesse noch aus. Diese Arbeit befasst sich mit den Klimaänderungen und assoziierten Prozessen in der Svalbard-Region, einem arktischen Archipel im Nordatlantik. Svalbard kann als Brennpunkt der arktischen Veränderungen bezeichnet werden, vor allem während des Winters. In dieser ausgesprochen dynamischen Region interagieren die Energieflüsse durch großskalige atmosphärische und ozeanische Wärme- und Feuchtetransporte mit der heteorogenen Oberfläche, die sich aus Eis-, Wasser-, oder Landflächen zusammensetzt. Die daraus resultierenden horizontalen und vertikalen Energieflüsse stehen in engem Zusammenhang mit der Beschaffenheit der atmosphärischen Grenzschicht. Im ersten Teil dieser Arbeit werden laterale Unterschiede in der Oberflächentemperatur (SAT), sowie der Meereisbedeckung (SIE) in den Fjorden und Sunden des Archipels quantifiziert und klassifiziert. Dies geschieht auf der Grundlage von meteorologischen Stationsmessdaten und operationellen Eisbedeckungskarten der Jahe 1980–2016. Es zeigt sich, dass prozentuale Eisbedeckungen im Osten des Studiengebietes typischerweise 80–90% im Winter erreichen, während diese Werte in Fjorden der Westküste mit 40–50% deutlich niedriger liegen. Allerdings bedingt eine starke, winterliche SAT Erwärmung von 2–3K pro Jahrzehnt signifikante SIE Abwärtstrends, sodass die Fjorde im Westen von Svalbard in den jüngeren Wintern üblicherweise eisfrei waren. Im Weiteren wird gezeigt dass die warmen Ozeanströmungen nahe der Westküste, sowie spezielle Windkonstellationen, einen signifikanten regionalen Einfluss auf die langzeitliche Entwicklung der Meereisbedeckung ausüben. So kann Variabilität in der Temperatur des Westspitzbergenstroms etwa 20–37% der zwischenjährlichen SIE Variabilität in den Fjorden der Westküste erklären. Die meridionale Atmosphärenströmung nordwestlich von Spitzbergen, die hochkorelliert mit Eisdrift ist, kann andererseits –regional abhängig– etwa 20–50% der SIE-Variablität in den nördlichen und nordöstlichen Fjorden erklären. Durch den starken temperaturbedingten Eisrückgang in der gesamten Region sind diese Einflüsse zuletzt jedoch stark abgeschwächt. Im Folgenden wird der Beitrag von Zirkulationsänderungen zur Temperaturentwicklung Svalbards während der letzten 20 Jahre untersucht. Die Analyse basiert auf den Quellregionen troposphärischer Luftmassen, die sich aus kinematischen FLEXTRA-Rückwärtstrajektorien ergeben. Für den Winter zeigt sich, dass sich diese zuletzt immer häufiger in sub-arktische Gebiete über dem Nordatlantik verlagert hatten, und seltener in der hohen Arktis lagen. Dies moduliert Warmluft-, und Feuchtetransporte in Richtung Spitzbergen, und beeinflusst potentiell Wolkencharakteristiken und assoziierte Strahlungsprozesse. Nähere Untersuchen zeigen dass ein zuletzt stärker ausgeprägtes Uralhoch und Islandtief dafür verantwortlich sind, und dass dies einen Beitrag von etwa 25% zur jüngsten Wintererwärmung auf Spitzbergen hat. Sommertrajektorien offenbaren eine gegensätzliche Entwicklung, mit häufigerer Anströmung aus der Zentralarktis, welche mit Kaltluftadvektion einhergeht, auf Kosten von seltenerer Anströmung aus dem Süden. Dies liegt in einem während der letzten 10 Jahre stark ausgeprägten Grönlandhoch begründet. Eine Fallstudie anhand von Radiosondendaten vom Frühsommer 2017 untermauert die Ergebnisse und zeigt darüber hinaus, dass derartige Zirkulationsänderungen mit ausgeprägten Anomalien von troposphärischen Temperaturen,Feuchtigkeit, und der Grenzschichthöhe in Ny-Ålesund einher geht. Interessanterweise tragen Zirkulationsänderungen im Winter also verstärkend zur Erwärmung auf Svalbard bei, während jene im Sommer einer stärkeren Erwärmung entgegenwirken. In einem letzten Analyseschritt wird die regionale Repräsentativität der Region für die weitere Arktis erörtert. Die Analyse von Era-Interim Reanalysedaten untermauert hierbei zunächst die advektiven Temperaturänderungen in Sommer und Winter in der Region um Svalbard. Der Trend zu verstärkt positiver winterlicher Temperaturadvektion ist einzigartig in der Arktis und beschränkt sich auf die Regionen zwischen Barentssee, Spitzbergen und der nördlichen Framstraße. Die sommerliche erhöhte Kaltluftadvektion findet sich in einem weiten Gebiet zwischen der Ostküste Grönlands und Franz-Josef-Land, welches Svalbard einschließt. Ein diabatischer Erwärmungstrend, der mit aufwärts gerichteten latenten Energieflüssen und Eisrückgang konsistent ist, findet sich in allen Jahreszeiten über der Barents/Karasee wieder, und erstreckt sich in einzelnen Monaten bis nach Svalbard. KW - arctic KW - climate KW - Svalbard KW - meteorology KW - climatology KW - atmosphere KW - Arktis KW - Klima KW - Svalbard KW - Meteorologie KW - Klimatologie KW - Atmosphäre Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445542 ER - TY - THES A1 - Hernandez Anguizola, Eloy Luis T1 - Numerical simulations in multimode fibres for astronomical spectroscopy N2 - The goal of this thesis was to thoroughly investigate the behavior of multimode fibres to aid the development of modern and forthcoming fibre-fed spectrograph systems. Based on the Eigenmode Expansion Method, a field propagation model was created that can emulate effects in fibres relevant for astronomical spectroscopy, such as modal noise, scrambling, and focal ratio degradation. These effects are of major concern for any fibre-coupled spectrograph used in astronomical research. Changes in the focal ratio, modal distribution of light or non-perfect scrambling limit the accuracy of measurements, e.g. the flux determination of the astronomical object, the sky-background subtraction and detection limit for faint galaxies, or the spectral line position accuracy used for the detection of extra-solar planets. Usually, fibres used for astronomical instrumentation are characterized empirically through tests. The results of this work allow to predict the fibre behaviour under various conditions using sophisticated software tools to simulate the waveguide behaviour and mode transport of fibres. The simulation environment works with two software interfaces. The first is the mode solver module FemSIM from Rsoft. It is used to calculate all the propagation modes and effective refractive indexes of a given system. The second interface consists of Python scripts which enable the simulation of the near- and far-field outputs of a given fibre. The characteristics of the input field can be manipulated to emulate real conditions. Focus variations, spatial translation, angular fluctuations, and disturbances through the mode coupling factor can also be simulated. To date, complete coherent propagation or complete incoherent propagation can be simulated. Partial coherence was not addressed in this work. Another limitation of the simulations is that they work exclusively for the monochromatic case and that the loss coefficient of the fibres is not considered. Nevertheless, the simulations were able to match the results of realistic measurements. To test the validity of the simulations, real fibre measurements were used for comparison. Two fibres with different cross-sections were characterized. The first fibre had a circular cross-section, and the second one had an octagonal cross-section. The utilized test-bench was originally developed for the prototype fibres of the 4MOST fibre feed characterization. It allowed for parallel laser beam measurements, light cone measurements, and scrambling measurements. Through the appropriate configuration, the acquisition of the near- and/or far-field was feasible. By means of modal noise analysis, it was possible to compare the near-field speckle patterns of simulations and measurements as a function of the input angle. The spatial frequencies that originate from the modal interference could be analyzed by using the power spectral density analysis. Measurements and simulations yielded similar results. Measurements with induced modal scrambling were compared to simulations using incoherent propagation and once again similar results were achieved. Through both measurements and simulations, the enlargement of the near-field distribution could be observed and analyzed. The simulations made it possible to explain incoherent intensity fluctuations that appear in real measurements due to the field distribution of the active propagation modes. By using the Voigt analysis in the far-field distribution, it was possible to separate the modal diffusion component in order to compare it with the simulations. Through an appropriate assessment, the modal diffusion component as a function of the input angle could be translated into angular divergence. The simulations gave the minimal angular divergence of the system. Through the mean of the difference between simulations and measurements, a figure of merit is given which can be used to characterize the angular divergence of real fibres using the simulations. Furthermore, it was possible to simulate light cone measurements. Due to the overall consistent results, it can be stated that the simulations represent a good tool to assist the fibre characterization process for fibre-fed spectrograph systems. This work was possible through the BMBF Grant 05A14BA1 which was part of the phase A study of the fibre system for MOSAIC, a multi-object spectrograph for the Extremely Large Telescope (ELT-MOS). N2 - Vorrangiges Ziel der Arbeit war eine ausführliche Untersuchung von Eigenschaften multimodaler Glasfasern mittels Simulationen und experimenteller Tests, welche die Charakterisierung fasergekoppelter astronomischer Spektrographen unterstützt. Die simulierten Effekte sind von großer Bedeutung für alle fasergekoppelten Spektrographen, die in der astronomischen Forschung verwendet werden. Jede Änderung des Öffnungsverhältnisses (durch Focal-Ratio-Degradation), der Modenanregung in der Glasfaser (modal noise) oder einer variablen Ausleuchtung (durch unzureichendes scrambling) schränkt die Genauigkeit der Messungen ein. Dies hat Auswirkungen auf die Intensitätsbestimmung des astronomischen Objekts, die Subtraktion des Himmelshintergrundes und damit die Detektion von lichtschwachen Galaxien, oder die spektrale Stabilität, die für den Nachweis von extra-solaren Planeten benötigt wird. Zwei Softwareprogramme wurden für die Simulationsumgebung verwendet. Zunächst wurde ein Modenrechner benötigt, um die ausbreitungsfähigen Moden des simulierten Systems zu berechenen. Dafür wurde das FemSIM-Modul von RSOFT eingesetzt. Anschließend wurden durch selbst geschriebene Python-Skripte die Nah- und Fernfelder am Faserausgang berechnet. Die Funktionen beinhalten die Berechnungen des Eingangsfeldes, der räumlichen Verschiebung, der Winkelabweichung des Eingangsfeldes, sowie der Störungseffekte durch Modenkopplung. Bisher konnte die Propagation der Felder kohärent oder inkohärent simuliert werden. Das umfangreiche Themenfeld der partiellen Kohärenz wurde in dieser Arbeit nicht behandelt. Außerdem sind die von der Wellenlänge abhängigen Verlustkoeffizienten nicht berücksichtig worden und die Simulationen beschränken sich auf den monochromatischen Fall. Dennoch war es möglich, eine gute Übereinstimmung von realen Messwerten und Simulationsergebnissen zu erlangen. Um die Gültigkeit der Simulationen zu überprüfen, wurden optische Fasern vermessen und die Ergebnisse zwischen Simulationen und Messungen verglichen. Hierfür wurden zwei Fasern mit unterschiedlichem Querschnitt verwendet: eine zirkulare Faser und eine oktagonale Faser. Der verwendete Prüfstand wurde für die Charakterisierung der 4MOST Faserprototypen entwickelt. Verschiedene Konfigurationen zur Charakterisierung optischer Fasern waren durch den Prüfstand möglich, z.B. die Aufnahmen von Nah- und Fernfeldern. Durch die Analyse des Modenrauschens war es möglich, die Abhängigkeit der Interferenzmuster als Funktion des Eingangswinkels zu vergleichen. Mittels der spektralen Leistungsdichte konnten die räumlichen Frequenzen der Interferenzmuster untersucht und eine gute Übereinstimmung zwischen Theorie und Experiment bestätigt werden. Messungen mit induzierter Durchmischung wurden mit Simulationen veglichen, die den inkohärenten Ausbreitungsfall benutzen. Die Vergrößerung des Nahfeldes auf Grund schnellerer Blendenzahlen wurde in Messungen und Simulationen beobachtet und nachgewiesen. Durch die Simulationen ist es gelungen, inkohärente Intensitätsuktuationen zu erklären. Mittels der Voigt Analyse der Fernfelder war es möglich, die modale Diffusionskomponente zwischen Messungen und Simulationen zu vergleichen. Durch eine geeignete Auswertung konnten die Diffusionskomponenten als Funktion des Eingangswinkels ermittelt werden und die Winkeldivergenz der Fernfelder berechnet werden. Das Minimum der Winkeldivergenz eines Systems konnte durch Simulationen berechnet werden. Als Leistungszahl wurde die Mittelung der Differenz zwischen der minimalen und der gemessenen Winkeldivergenz ermittelt. Obwohl die Simulationen durch einige Faktoren begrenzt sind, ist es gelungen, die Ergebnisse der Lichtkegel Messungen zu emulieren. Auf Grund der insgesamt guten Übereinstimmung zwischen Simulationen und Messungen ist es damit möglich, die Charakterisierung von fasergekoppelten Spektrographen im Vorfeld realistisch zu simulieren. Diese Arbeit wurde ermöglicht durch die BMBF-Förderung 05A14BA1 als Teil der Phase-A-Studie des Fasersystems für MOSAIC, einem Multi-Objekt-Spektrographen für das Extremly Large Telescope (ELTMOS) der europäischen Südsternwarte ESO. KW - Astronomical instrumentation KW - Fibre-fed spectroscopy KW - Multi-object spectroscopy KW - Multimode fibres KW - Modal expansion method Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-472363 ER - TY - THES A1 - Dziourkevitch, Natalia T1 - Interstellar turbulence driven by magneto-rotational instability T1 - Interstellare Turbulenzen hervorgerufen durch magnetische Rotationsinstabilitäten N2 - Origin and symmetry of the observed global magnetic fields in galaxies are not fully understood. We intend to clarify the question of the magnetic field origin and investigate the global action of the magneto-rotational instability (MRI) in galactic disks with the help of 3D global magneto-hydrodynamical (MHD) simulations. The calculations were done with the time-stepping ZEUS 3D code using massive parallelization. The alpha-Omega dynamo is known to be one of the most efficient mechanisms to reproduce the observed global galactic fields. The presence of strong turbulence is a pre-requisite for the alpha-Omega dynamo generation of the regular magnetic fields. The observed magnitude and spatial distribution of turbulence in galaxies present unsolved problems to theoreticians. The MRI is known to be a fast and powerful mechanism to generate MHD turbulence and to amplify magnetic fields. We find that the critical wavelength increases with the increasing of magnetic fields during the simulation, transporting the energy from critical to larger scales. The final structure, if not disrupted by supernovae explosions, is the structure of `thin layers' of thickness of about 100 pcs. An important outcome of all simulations is the magnitude of the horizontal components of the Reynolds and Maxwell stresses. The result is that the MRI-driven turbulence is magnetic-dominated: its magnetic energy exceeds the kinetic energy by a factor of 4. The Reynolds stress is small and less than 1% of the Maxwell stress. The angular momentum transport is thus completely dominated by the magnetic field fluctuations. The volume-averaged pitch angle is always negative with a magnitude of about -30. The non-saturated MRI regime is lasting sufficiently long to fill the time between the galactic encounters, independently of strength and geometry of the initial field. Therefore, we may claim the observed pitch angles can be due to MRI action in the gaseous galactic disks. The MRI is also shown to be a very fast instability with e-folding time proportional to the time of one rotation. Steep rotation curves imply a stronger growth for the magnetic energy due to MRI. The global e-folding time is from 44 Myr to 100 Myr depending on the rotation profile. Therefore, MRI can explain the existence of rather large magnetic field in very young galaxies. We also have reproduced the observed rms values of velocities in the interstellar turbulence as it was observed in NGC 1058. We have shown with the simulations that the averaged velocity dispersion of about 5 km/s is a typical number for the MRI-driven turbulence in galaxies, which agrees with observations. The dispersion increases outside of the disk plane, whereas supernovae-driven turbulence is found to be concentrated within the disk. In our simulations the velocity dispersion increases a few times with the heights. An additional support to the dynamo alpha-effect in the galaxies is the ability of the MRI to produce a mix of quadrupole and dipole symmetries from the purely vertical seed fields, so it also solves the seed-fields problem of the galactic dynamo theory. The interaction of magneto-rotational instability and random supernovae explosions remains an open question. It would be desirable to run the simulation with the supernovae explosions included. They would disrupt the calm ring structure produced by global MRI, may be even to the level when we can no longer blame MRI to be responsible for the turbulence. N2 - Die Beobachtung polarisierter Synchrotronstrahlung mit modernen Radioteleskopen zeigen die Existenz von großskaligen Magnetfeldern in Galaxien. Mit den ständig verbesserten Beobachtungsinstrumenten findet man Magnetfelder in immer mehr Galaxien, so dass man annehmen kann, Magnetfelder treten mehr oder weniger in allen Galaxien auf. Selbst in sehr jungen Galaxien (damit weit entfernten) wurden schon Magnetfelder von einigen mikroG gefunden. Eine mögliche Erklärung für die Entstehung der Magnetfeldern ist die Wirkung eines turbulenten Dynamos. Neben Supernova-Explosionen können magnetische Instabilitäten eine Quelle für die Turbulenz im interstellaren Medium sein. So werden Galaxien bei Anwesenheit eines schwachen Magnetfeldes auf Grund der "Magneto-Rotations-Instabilität" (MRI) turbulent. Die globale Entwicklung des interstellaren Gases in Galaxien unter Wirkung der MRI ist in der vorliegenden Arbeit betrachtet worden. Mit drei-dimensionalen numerischen Simulationen auf großen Clusterrechnern wurde die zeitliche Entwicklung des Geschwindigkeitsfeldes und der Magnetfelder untersucht. Für die extrem rechenintensiven globalen Modelle wurde ein hochgradig parallelisierbares Rechenprogramm zur Lösung der MHD-Gleichungen an die Problemstellung angepasst, in der Rechenzeit optimiert und ausführlich getestet. Es konnte erstmalig die zeitliche Entwicklung des interstellaren Gases unter dem Einfluss eines schwachen Magnetfeldes über mehrere Milliarden Jahre verfolgt werden. In der galaktischen Scheibe entwickelt sich Turbulenz mit einer Geschwindigkeitsdispersion von einigen km/s und großskalige Magnetfelder von einigen mikroG, genau wie in realen Galaxien beobachtet. Damit konnte der Nachweis erbracht werden, dass das interstellare Gas durch Wirkung der MRI auch bei geringer Sternaktivität Turbulenz entwickelt, wie es in einigen ruhigen Galaxien auch beobachtet wird. Ein anderes wichtiges Resultat ist die Entstehung großskaliger Magnetfelder aus kleinskaligen Strukturen in der Art eines turbulenten Dynamos. Die Wachstumsrate der magnetischen Energie geht bei diesem Prozess mit der Umlaufzeit, schnell genug um auch Magnetfelder mit einigen mikroG in sehr jungen Galaxien zu erreichen. Die Entstehung von Magnetfeldern aus der MRI löst auch die bisher ungeklärte Frage nach der Geometrie der Saatfelder für turbulente Dynamos. KW - Magnetohydrodynamik KW - Instabilität KW - Turbulenz KW - Galaxie KW - Dynamo KW - MHD KW - MRI KW - spiral galaxies KW - dynamo KW - turbulence Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5306 ER - TY - THES A1 - Szklarski, Jacek T. T1 - Helical magnetorotational instability in MHD Taylor-Couette flow T1 - Helikale Magnetorotationsinstabilität in MHD Taylor-Couette Strömung N2 - Magnetorotational instability (MRI) is one of the most important and most common instabilities in astrophysics. Today it is widely accepted that it serves as a major source of turbulent viscosity in accretion disks, the most energy efficient objects in the universe. The importance of the MRI for astrophysics has been realized only in recent fifteen years. However, originally it was discovered much earlier, in 1959, in a very different context. Theoretical flow of a conducting liquid confined between differentially rotating cylinders in the presence of an external magnetic field was analyzed. The central conclusion is that the additional magnetic field parallel to the axis of rotation can destabilize otherwise stable flow. Theory of non-magnetized fluid motion between rotating cylinders has much longer history, though. It has been studied already in 1888 and today such setup is usually referred as a Taylor-Couette flow. To prove experimentally the existence of MRI in a magnetized Taylor-Couette flow is a demanding task and different MHD groups around the world try to achieve it. The main problem lies in the fact that laboratory liquid metals which are used in such experiments are characterized by small magnetic Prandtl number. Consequently rotation rates of the cylinders must be extremely large and vast amount of technical problems emerge. One of the most important difficulties is an influence of plates enclosing the cylinders in any experiment. For fast rotation the plates tend to dominate the whole flow and the MRI can not be observed. In this thesis we discuss a special helical configuration of the applied magnetic field which allows the critical rotation rates to be much smaller. If only the axial magnetic field is present, the cylinders must rotate with angular velocities corresponding to Reynolds numbers of order Re ≈ 10^6. With the helical field this number is dramatically reduced to Re ≈ 10^3. The azimuthal component of the magnetic field can be easily generated by letting an electric current through the axis of rotation, In a Taylor-Couette flow the (primary) instability manifests itself as Taylor vortices. The specific geometry of the helical magnetic field leads to a traveling wave solution and the vortices are drifting in a direction determined by rotation and the magnetic field. In an idealized study for infinitely long cylinders this is not a problem. However, if the cylinders have finite length and are bounded vertically by the plates the situation is different. In this dissertation it is shown, with use of numerical methods, that the traveling wave solution also exists for MHD Taylor-Couette flow at finite aspect ratio H/D, H being height of the cylinders, D width of the gap between them. The nonlinear simulations provide amplitudes of fluid velocity which are helpful in designing an experiment. Although the plates disturb the flow, parameters like the drift velocity indicate that the helical MRI operates in this case. The idea of the helical MRI was implemented in a very recent experiment PROMISE. The results provided, for the first time, an evidence that the (helical) MRI indeed exists. Nevertheless, the influence of the vertical endplates was evident and the experiment can be, in principle, improved. Exemplary methods of reduction of the end-effect are here proposed. Near the vertical boundaries develops an Ekman-Hartmann layer. Study of this layer for the MHD Taylor-Couette system as well as its impact on the global flow properties is presented. It is shown that the plates, especially if they are conducting, can disturb the flow far more then previously thought also for relatively slow rotation rates. N2 - Die magnetische Scherinstabilitaet (engl. MRI) ist eine sehr häufig in der Astrophysik anzutreffende Instabilität. Es wird heute weithin angenommen, dass sie die Ursache für die turbulente Viskosität in Akkretionsscheiben ist, den Objekten mit der höchsten Energieeffizienz im Kosmos. Die Bedeutung der MRI ist erst in den letzten fünfzehn Jahren klargeworden. Entdeckt wurde sie jedoch schon viel früher, im Jahre 1959 in einem völlig anderen physikalischen Kontext. Die Strömung in einer leitfähigen Flüssigkeit zwischen differentiell rotierenden Zylindern unter dem Einfluss eines externen Magnetfeldes wurde theoretisch untersucht. Die Schlussfolgerung war, dass das zugesetzte Magnetfeld eine sonst stabile Strömung destabilisieren kann. Die Geschichte der Theorie von Strömungen zwischen Zylindern reicht bis ins Jahr 1888 zurück. Heute wird ein solcher Aufbau üblicherweise als Taylor-Couette-Strömung bezeichnet. Ein System rotierender Zylinder, zwischen denen sich flüssiges Metall befindet, war Gegenstand des kürzlich durchgeführten Experiments PROMISE. Die Ergebnisse belegen zum ersten Mal experimentell die Existenz der MRI. Um die notwendigen Drehzahlen gering zu halten, wurde ein spezielles, helikales Magnetfeld angelegt. Gegenstand dieser Dissertation ist die theoretische Behandlung der magnetohydrodynamischen Taylor-Couette-Strömung, ähnlich der des Experiments PROMISE. Insbesondere der Einfluss der vertikalen Ränder (Deckel) wird untersucht. Es wird gezeigt, dass die MRI auch in Zylindern mit endlicher Höhe und mit begrenzenden Deckeln einsetzt. In der Nähe der vertikalen Ränder bildet sich eine Ekman-Hartmann-Schicht. Die Untersuchung dieser Schicht im Zusammenhang mit dem MHD-Taylor-Couette-System sowie ihr Einfluss auf die globalen Strömungseigenschaften werden vorgestellt. Es wird gezeigt, dass die Deckel - insbesondere wenn sie elektrisch leitend sind - die Strömung stärker beeinflussen können als bisher angenommen, selbst bei den geringen Drehzahlen. Es werden Methoden zur Verringerung dieser unerwünschten Effekte vorgeschlagen. KW - MHD KW - Simulationen KW - Taylor-Couette KW - Akkretion KW - MHD KW - Simulations KW - Taylor-Couette KW - Accretion Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16002 ER - TY - THES A1 - Memola, Elisabetta T1 - Magnetic jets from accretion disks : field structure and X-ray emission N2 - Astrophysikalische Jets sind stark kollimierte Materieströmungen hoher Geschwindigkeit. Sie stehen im Zusammenhang mit einer Fülle verschiedener astrophysikalischer Objekte wie jungen Sternen, stellaren schwarzen Löchern ('Mikro-Quasare'), Galaxien mit aktivem Kern (AGN) und wahrscheinlich auch mit dem beobachteten intensiven Aufblitzen von Gamma-Strahlung (Gamma Ray Bursts). Insbesondere hat sich gezeigt, dass die Jets der Mikro-Quasare wahrscheinlich als kleinskalige Version der Jets der AGN anzusehen sind. Neben den Beobachtungen haben vor allem auch theoretische Überlegungen gezeigt, dass Magnetfelder bei der Jetentstehung, -beschleunigung und -kollimation eine wichtige Rolle spielen. Weiterhin scheinen Jets systematisch verknüpft zu sein mit dem Vorhandensein einer Akkretionsscheibe um das zentrale Objekt. Insbesondere wenn ein schwarzes Loch den Zentralkörper darstellt, ist die umgebende Akkretionsscheibe der einzig mögliche Ort um Magnetfeld erzeugen zu können. Wir sind speziell interessiert am Entstehungsprozess hoch relativistischer Jets wie sie bei Mikro-Quasaren und AGN beobachtet werden. Insbesondere untersuchen wir die Region, in der der Jet kollimiert, eine Region, deren räumliche Ausdehnung extrem klein ist selbst im Vergleich zur Auflösung der Radioteleskope. Dies ist ein Grund, wieso zum heutigen Zeitpunkt für die meisten Quellen die theoretische Modellierung die einzige Möglichkeit darstellt, um Information über die physikalischen Prozesse in der innersten Region der Jetentstehung zu erhalten. Uns ist es zum ersten Mal gelungen, die globale zwei-dimensionale Magnetfeldstruktur stationärer, axialsymmetrischer, relativistischer und stark magnetisierter (kräfte-freier) Jets zu berechnen, die zum einen asymptotisch in einen zylindrischen Jet kollimieren, zum anderen aber in einer differential rotierenden Akkretionsscheibe verankert sind. Damit erlaubt dieser Ansatz eine physikalische Verkn¨upfung zwischen Akkretionsscheibe und dem asymptotischen Jet. Nimmt man also an, dass die Fußpunkte der Magnetfeldlinien mit Keplergeschwindigkeit rotieren, so kann man eine direkte Skalierung der Jetmagnetosphere mit der Größe des Zentralobjektes erhalten. Unsere Resultate zeigen eine gute Übereinstimmung zwischen unserem Modell und Beobachtungen des Jets von M87. Für das Beispiel eines relativistischen Mikroquasarjets haben wir die Röntgenemission im Bereich von 0.2-10.1 keV berechnet. Dafür haben wir in der Literatur aus den relativistischen magnetohydrodynamischen Gleichungen berechnete Jetgrößen (Dichte-, Geschwindigkeits-, und Temperaturprofil) verwendet und das Spektrum für jeden Punkt entlang der Jetströmung abgeleitet. Das theoretische thermische Röntgenspektrum des innersten, heißen Teils des Jets erhalten wir zusammengesetzt aus den spektralen Anteilen der einzelnen Volumenelemente entlang des Jets. Um relativistische Effekte wie Dopplerverschiebung und -verstärkung (boosting) aufgrund der Jetbewegung zu untersuchen, haben wir für verschiedene Inklinationswinkel des Jets zur Sichtlinie berechnet, wie die erhaltenen Spektren davon beeinflusst werden. Unsere Spektren zeigen deutlich die hochionisierten Eisen-Emissionslinien, die in den galaktischen Mikroquasaren GRS 1915+105 und XTE J1748-288 andeutungsweise beobachtet wurden. Eine Dopplerverschiebung dieser Linien ist in unseren Spektren deutlichzu sehen. Da die innerste, Röntgenstrahlung emittierende Region des magnetohydrodynamischen Jets allerdings noch unkollimiert ist, spielt Dopplerboosting in unseren Spektren, abhängig vom Sichtwinkel, keine große Rolle. Mit unseren Resultaten konnte zum ersten Mal ein Röntgenspektrum gewonnen werden, das auf der numerischen Lösung eines magnetohydrodynamischen Jets beruht. N2 - Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet. KW - MHD ; Röntgenstrahlung ; Jets ; AGN ; Mikro-Quasare KW - MHD ; X-rays ; Jets ; AGN ; Microquasars Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000458 ER - TY - THES A1 - Diercke, Andrea T1 - Physical environment of large-scale high-latitude and polar crown filaments T1 - Die Physik von polaren Filamenten N2 - Filaments are omnipresent features in the solar chromosphere, one of the atmospheric layers of the Sun, which is located above the photosphere, the visible surface of the Sun. They are clouds of plasma reaching from the photosphere to the chromosphere, and even to the outer-most atmospheric layer, the corona. They are stabalized by the magnetic field. If the magnetic field is disturbed, filaments can erupt as coronal mass ejections (CME), releasing plasma into space, which can also hit the Earth. A special type of filaments are polar crown filaments, which form at the interface of the unipolar field of the poles and flux of opposite magnetic polarity, which was transported towards the poles. This flux transport is related to the global dynamo of the Sun and can therefore be analyzed indirectly with polar crown filaments. The main objective of this thesis is to better understand the physical properties and environment of high-latitude and polar crown filaments, which can be approached from two perspectives: (1) analyzing the large-scale properties of high-latitude and polar crown filaments with full-disk Hα observations from the Chromospheric Telescope (ChroTel) and (2) determining the relation of polar crown and high-latitude filaments from the chromosphere to the lower-lying photosphere with high-spatial resolution observations of the Vacuum Tower Telescope (VTT), which reveal the smallest details. The Chromospheric Telescope (ChroTel) is a small 10-cm robotic telescope at Observatorio del Teide on Tenerife (Spain), which observes the entire Sun in Hα, Ca IIK, and He I 10830 Å. We present a new calibration method that includes limb-darkening correction, removal of non-uniform filter transmission, and determination of He I Doppler velocities. Chromospheric full-disk filtergrams are often obtained with Lyot filters, which may display non-uniform transmission causing large-scale intensity variations across the solar disk. Removal of a 2D symmetric limb-darkening function from full-disk images results in a flat background. However, transmission artifacts remain and are even more distinct in these contrast-enhanced images. Zernike polynomials are uniquely appropriate to fit these large-scale intensity variations of the background. The Zernike coefficients show a distinct temporal evolution for ChroTel data, which is likely related to the telescope’s alt-azimuth mount that introduces image rotation. In addition, applying this calibration to sets of seven filtergrams that cover the He I triplet facilitates determining chromospheric Doppler velocities. To validate the method, we use three datasets with varying levels of solar activity. The Doppler velocities are benchmarked with respect to co-temporal high-resolution spectroscopic data of the GREGOR Infrared Spectrograph (GRIS). Furthermore, this technique can be applied to ChroTel Hα and Ca IIK data. The calibration method for ChroTel filtergrams can be easily adapted to other full-disk data exhibiting unwanted large-scale variations. The spectral region of the He I triplet is a primary choice for high-resolution near-infrared spectropolarimetry. Here, the improved calibration of ChroTel data will provide valuable context data. Polar crown filaments form above the polarity inversion line between the old magnetic flux of the previous cycle and the new magnetic flux of the current cycle. Studying their appearance and their properties can lead to a better understanding of the solar cycle. We use full-disk data of the ChroTel at Observatorio del Teide, Tenerife, Spain, which were taken in three different chromospheric absorption lines (Hα 6563 Å, Ca IIK 3933 Å, and He I 10830 Å), and we create synoptic maps. In addition, the spectroscopic He I data allow us to compute Doppler velocities and to create synoptic Doppler maps. ChroTel data cover the rising and decaying phase of Solar Cycle 24 on about 1000 days between 2012 and 2018. Based on these data, we automatically extract polar crown filaments with image-processing tools and study their properties. We compare contrast maps of polar crown filaments with those of quiet-Sun filaments. Furthermore, we present a super-synoptic map summarizing the entire ChroTel database. In summary, we provide statistical properties, i.e. number and location of filaments, area, and tilt angle for both the maximum and declining phase of Solar Cycle 24. This demonstrates that ChroTel provides a promising dataset to study the solar cycle. The cyclic behavior of polar crown filaments can be monitored by regular full-disk Hα observations. ChroTel provides such regular observations of the Sun in three chromospheric wavelengths. To analyze the cyclic behavior and the statistical properties of polar crown filaments, we have to extract the filaments from the images. Manual extraction is tedious, and extraction with morphological image processing tools produces a large number of false positive detections and the manual extraction of these takes too much time. Automatic object detection and extraction in a reliable manner allows us to process more data in a shorter time. We will present an overview of the ChroTel database and a proof of concept of a machine learning application, which allows us a unified extraction of, for example, filaments from ChroTel data. The chromospheric Hα spectral line dominates the spectrum of the Sun and other stars. In the stellar regime, this spectral line is already used as a powerful tracer of magnetic activity. For the Sun, other tracers are typically used to monitor solar activity. Nonetheless, the Sun is observed constantly in Hα with globally distributed ground-based full-disk imagers. The aim of this study is to introduce Hα as a tracer of solar activity and compare it to other established indicators. We discuss the newly created imaging Hα excess in the perspective of possible application for modelling of stellar atmospheres. In particular, we try to determine how constant is the mean intensity of the Hα excess and number density of low-activity regions between solar maximum and minimum. Furthermore, we investigate whether the active region coverage fraction or the changing emission strength in the active regions dominates time variability in solar Hα observations. We use ChroTel observations of full-disk Hα filtergrams and morphological image processing techniques to extract the positive and negative imaging Hα excess, for bright features (plage regions) and dark absorption features (filaments and sunspots), respectively. We describe the evolution of the Hα excess during Solar Cycle 24 and compare it to other well established tracers: the relative sunspot number, the F10.7 cm radio flux, and the Mg II index. Moreover, we discuss possible applications of the Hα excess for stellar activity diagnostics and the contamination of exoplanet transmission spectra. The positive and negative Hα excess follow the behavior of the solar activity over the course of the cycle. Thereby, positive Hα excess is closely correlated to the chromospheric Mg II index. On the other hand, the negative Hα excess, created from dark features like filaments and sunspots, is introduced as a tracer of solar activity for the first time. We investigated the mean intensity distribution for active regions for solar minimum and maximum and found that the shape of both distributions is very similar but with different amplitudes. This might be related with the relatively stable coronal temperature component during the solar cycle. Furthermore, we found that the coverage fraction of Hα excess and the Hα excess of bright features are strongly correlated, which will influence modelling of stellar and exoplanet atmospheres. High-resolution observations of polar crown and high-latitude filaments are scarce. We present a unique sample of such filaments observed in high-resolution Hα narrow-band filtergrams and broad-band images, which were obtained with a new fast camera system at the VTT. ChroTel provided full-disk context observations in Hα, Ca IIK, and He I 10830 Å. The Helioseismic and Magnetic Imager (HMI) and the Atmospheric Imaging Assembly (AIA) on board the Solar Dynamics Observatory (SDO) provided line-of-sight magnetograms and ultraviolet (UV) 1700 Å filtergrams, respectively. We study filigree in the vicinity of polar crown and high-latitude filaments and relate their locations to magnetic concentrations at the filaments’ footpoints. Bright points are a well studied phenomenon in the photosphere at low latitudes, but they were not yet studied in the quiet network close to the poles. We examine size, area, and eccentricity of bright points and find that their morphology is very similar to their counterparts at lower latitudes, but their sizes and areas are larger. Bright points at the footpoints of polar crown filaments are preferentially located at stronger magnetic flux concentrations, which are related to bright regions at the border of supergranules as observed in UV filtergrams. Examining the evolution of bright points on three consecutive days reveals that their amount increases while the filament decays, which indicates they impact the equilibrium of the cool plasma contained in filaments. N2 - Filamente sind omnipräsente Strukturen in der Chromosphäre der Sonne. Diese Schicht befindet sich über der Photosphäre, welche die sichtbare Oberfläche der Sonne darstellt. Filamente sind Plasmagebilde, welche in der Photosphäre verankert sind und von der Chromosphäre in die Korona reichen, der äußersten Atmosphärenschicht der Sonne. Diese Strukturen werden durch das Magnetfeld der Sonne stabilisiert. Durch Störungen des Magnetfelds, destabilisiert sich das Filament und das dort enthaltene Plasma kann als Sonneneruption, ein sogenannter koronaler Massenauswurf, ins Weltall geschleudert werden, welcher auch die Erde treffen könnte. Das Verständnis von Filamenten, deren Stabilität und Verbindung zum Magnetfeld sind ungemein wichtig, um Sonneneruptionen besser verstehen und vorhersagen zu können. Ein spezieller Typ von Filamenten, sind polare Filamente, (engl. polar crown filaments). Diese bilden sich an der Grenzfläche des unipolaren Magnetfelds an den Polen und dem Magnetfeld von gemischten Polaritäten in den Aktivitätsgürteln der Sonne. In letzteren werden Reste von bipolaren und zerfallenen Sonnenfleckengruppen zum Pol transportiert. Dieser Transport wird durch den Sonnendynamo initialisiert, so dass die Untersuchung polarer Filamente indirekt Rückschlüsse auf den Sonnendynamo zulässt. Die vorliegende Arbeit untersucht die polaren Filamente aus zwei Perspektiven. Zum einen aus der globalen Perspektive, bei der wir synoptische Beobachtungen der gesamten Sonnenscheibe nutzen, um das zyklische Verhalten der Filamente zu untersuchen. Zum anderen aus einer detailorientierten Perspektive, wobei wir hochaufgelöste Beobachtungen der Filamente auswerten, um mehr über die Verbindung von kühlem chromosphärischem Plasma zum Magnetfeld zu erfahren. Für die Untersuchung des zyklischen Verhaltens von polaren Filamenten nutzen wir Daten des Chromospheric Telescope (ChroTel), welches alle drei Minuten Aufnahmen der Chromosphäre in drei verschiedenen Wellenlängen macht. Die Wasserstofflinie der Balmerserie Hα ist dabei die beste Möglichkeit Filamente in der Chromosphäre abzubilden. Eine während dieser Arbeit entwickelte Methode, zum Korrigieren von Intensitätsungleichmäßigkeiten in Sonnenbildern, legt den Grundstein für alle weiteren Studien mit diesen Daten. Die Filamente können somit aus den Bildern heraus extrahiert werden und damit kann der aktuelle Sonnenzyklus zwischen Maximum und Minimum untersucht werden. Wir konnten die Wanderung der polaren Filamente für den Sonnenzyklus 24 in den Daten lokalisieren und die polwärtsgerichtete Geschwindigkeit bestimmen, welche wir mit vorherigen Ergebnissen verglichen haben. Da die morphologischen Bildbearbeitungsmethode, welche wir zur Extraktion der Filamente benutzt haben, auch andere Strukturen, wie Sonnenflecken nicht ausschließen konnte, haben wir neue Methoden entwickelt, die auf Maschinellem Lernen mit tiefen neuronalen Netzwerken beruhen. Die vorläufigen Ergebnisse sind sehr vielversprechend und auch auf Hα Bildern von anderen Teleskopen leicht übertragbar. Für die Untersuchung der polaren Filamente mit hochaufgelösten Bildern verwenden wir Beobachtungen vom Vakuumturmteleskop (VTT) auf Teneriffa, Spanien. Die Bilder wurden mit Hα Schmal- und Breitbandfiltern aufgenommen und zeigen sowohl die Chromosphäre als auch die Photosphäre. Wir untersuchen dabei die kleinsten auflösbaren Aufhellungen, (engl. bright points), welche in Verbindung mit dem Magnetfeld stehen. Diese kleinskaligen Aufhellungen finden wir vor allem an den Fußpunktregionen der Filamente, die mit starken Konzentrationen vom Magnetfeld korrelieren. Solche hellen Punkte in der Nähe von polaren Filamenten wurden bisher nie mit hochaufgelösten Beobachtungen untersucht. Die statistische Auswertung dieser Strukturen zeigt, dass sie sich kaum von ihren äquatornahen Gegenstücken unterscheiden, mit Ausnahme einer tendenziell größeren Fläche. KW - Solar Physics KW - Sonnenphysik KW - Filaments KW - Filamente KW - Chromosphere KW - Chromosphäre Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-511301 ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - THES A1 - Berner, Nadine T1 - Deciphering multiple changes in complex climate time series using Bayesian inference T1 - Bayes'sche Inferenz als diagnostischer Ansatz zur Untersuchung multipler Übergänge in komplexen Klimazeitreihen N2 - Change points in time series are perceived as heterogeneities in the statistical or dynamical characteristics of the observations. Unraveling such transitions yields essential information for the understanding of the observed system’s intrinsic evolution and potential external influences. A precise detection of multiple changes is therefore of great importance for various research disciplines, such as environmental sciences, bioinformatics and economics. The primary purpose of the detection approach introduced in this thesis is the investigation of transitions underlying direct or indirect climate observations. In order to develop a diagnostic approach capable to capture such a variety of natural processes, the generic statistical features in terms of central tendency and dispersion are employed in the light of Bayesian inversion. In contrast to established Bayesian approaches to multiple changes, the generic approach proposed in this thesis is not formulated in the framework of specialized partition models of high dimensionality requiring prior specification, but as a robust kernel-based approach of low dimensionality employing least informative prior distributions. First of all, a local Bayesian inversion approach is developed to robustly infer on the location and the generic patterns of a single transition. The analysis of synthetic time series comprising changes of different observational evidence, data loss and outliers validates the performance, consistency and sensitivity of the inference algorithm. To systematically investigate time series for multiple changes, the Bayesian inversion is extended to a kernel-based inference approach. By introducing basic kernel measures, the weighted kernel inference results are composed into a proxy probability to a posterior distribution of multiple transitions. The detection approach is applied to environmental time series from the Nile river in Aswan and the weather station Tuscaloosa, Alabama comprising documented changes. The method’s performance confirms the approach as a powerful diagnostic tool to decipher multiple changes underlying direct climate observations. Finally, the kernel-based Bayesian inference approach is used to investigate a set of complex terrigenous dust records interpreted as climate indicators of the African region of the Plio-Pleistocene period. A detailed inference unravels multiple transitions underlying the indirect climate observations, that are interpreted as conjoint changes. The identified conjoint changes coincide with established global climate events. In particular, the two-step transition associated to the establishment of the modern Walker-Circulation contributes to the current discussion about the influence of paleoclimate changes on the environmental conditions in tropical and subtropical Africa at around two million years ago. N2 - Im Allgemeinen stellen punktuelle Veränderungen in Zeitreihen (change points) eine Heterogenität in den statistischen oder dynamischen Charakteristika der Observablen dar. Das Auffinden und die Beschreibung solcher Übergänge bietet grundlegende Informationen über das beobachtete System hinsichtlich seiner intrinsischen Entwicklung sowie potentieller externer Einflüsse. Eine präzise Detektion von Veränderungen ist daher für die verschiedensten Forschungsgebiete, wie den Umweltwissenschaften, der Bioinformatik und den Wirtschaftswissenschaften von großem Interesse. Die primäre Zielsetzung der in der vorliegenden Doktorarbeit vorgestellten Detektionsmethode ist die Untersuchung von direkten als auch indirekten Klimaobservablen auf Veränderungen. Um die damit verbundene Vielzahl an möglichen natürlichen Prozessen zu beschreiben, werden im Rahmen einer Bayes’schen Inversion die generischen statistischen Merkmale Zentraltendenz und Dispersion verwendet. Im Gegensatz zu etablierten Bayes’schen Methoden zur Analyse von multiplen Übergängen, die im Rahmen von Partitionsmodellen hoher Dimensionalität formuliert sind und die Spezifikation von Priorverteilungen erfordern, wird in dieser Doktorarbeit ein generischer, Kernel-basierter Ansatz niedriger Dimensionalität mit minimal informativen Priorverteilungen vorgestellt. Zunächst wird ein lokaler Bayes’scher Inversionsansatz entwickelt, der robuste Rückschlüsse auf die Position und die generischen Charakteristika einer einzelnen Veränderung erlaubt. Durch die Analyse von synthetischen Zeitreihen die dem Einfluss von Veränderungen unterschiedlicher Signifikanz, Datenverlust und Ausreißern unterliegen wird die Leistungsfähigkeit, Konsistenz und Sensitivität der Inversionmethode begründet. Um Zeitreihen auch auf multiple Veränderungen systematisch untersuchen zu können, wird die Methode der Bayes’schen Inversion zu einem Kernel-basierten Ansatz erweitert. Durch die Einführung grundlegender Kernel-Maße können die Kernel-Resultate zu einer gewichteten Wahrscheinlichkeit kombiniert werden die als Proxy einer Posterior-Verteilung multipler Veränderungen dient. Der Detektionsalgorithmus wird auf reale Umweltmessreihen vom Nil-Fluss in Aswan und von der Wetterstation Tuscaloosa, Alabama, angewendet, die jeweils dokumentierte Veränderungen enthalten. Das Ergebnis dieser Analyse bestätigt den entwickelten Ansatz als eine leistungsstarke diagnostische Methode zur Detektion multipler Übergänge in Zeitreihen. Abschließend wird der generische Kernel-basierte Bayes’sche Ansatz verwendet, um eine Reihe von komplexen terrigenen Staubdaten zu untersuchen, die als Klimaindikatoren der afrikanischen Region des Plio-Pleistozän interpretiert werden. Eine detaillierte Untersuchung deutet auf multiple Veränderungen in den indirekten Klimaobservablen hin, von denen einige als gemeinsame Übergänge interpretiert werden. Diese gemeinsam auftretenden Ereignisse stimmen mit etablierten globalen Klimaereignissen überein. Insbesondere der gefundene Zwei-Stufen-Übergang, der mit der Ausbildung der modernen Walker-Zirkulation assoziiert wird, liefert einen wichtigen Beitrag zur aktuellen Diskussion über den Einfluss von paläoklimatischen Veränderungen auf die Umweltbedingungen im tropischen und subtropischen Afrika vor circa zwei Millionen Jahren. KW - kernel-based Bayesian inference KW - multi-change point detection KW - direct and indirect climate observations KW - Plio-Pleistocene KW - (sub-) tropical Africa KW - terrigenous dust KW - kernel-basierte Bayes'sche Inferenz KW - Detektion multipler Übergänge KW - direkte und indirekte Klimaobservablen KW - Plio-Pleistozän KW - (sub-) tropisches Afrika KW - terrigener Staub Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100065 ER - TY - THES A1 - Lepro, Valentino T1 - Experimental and theoretical study on amoeboid cell-cargo active motion BT - a physical analysis of cell-mediated particle transport N2 - As society paves its way towards device miniaturization and precision medicine, micro-scale actuation and guided transport become increasingly prominent research fields, with high potential impact in both technological and clinical contexts. In order to accomplish directed motion of micron-sized objects, as biosensors and drug-releasing microparticles, towards specific target sites, a promising strategy is the use of living cells as smart biochemically-powered carriers, building the so-called bio-hybrid systems. Inspired by leukocytes, native cells of living organisms efficiently migrating to critical targets as tumor tissue, an emerging concept is to exploit the amoeboid crawling motility of such cells as mean of transport for drug delivery applications. In the research work described in this thesis, I synergistically applied experimental, computational and theoretical modeling approaches to investigate the behaviour and transport mechanism of a novel kind of bio-hybrid system for active transport at the micro-scale, referred to as cellular truck. This system consists of an amoeboid crawling cell, the carrier, attached to a microparticle, the cargo, which may ideally be drug-loaded for specific therapeutic treatments. For the purposes of experimental investigation, I employed the amoeba Dictyostelium discoideum as crawling cellular carrier, being a renowned model organism for leukocyte migration and, in general, for eukaryotic cell motility. The performed experiments revealed a complex recurrent cell-cargo relative motion, together with an intermittent motility of the cellular truck as a whole. The evidence suggests the presence of cargoes on amoeboid cells to act as mechanical stimulus leading cell polarization, thus promoting cell motility and giving rise to the observed intermittent dynamics of the truck. Particularly, bursts in cytoskeletal polarity along the cell-cargo axis have been found to occur in time with a rate dependent on cargo geometrical features, as particle diameter. Overall, the collected experimental evidence pointed out a pivotal role of cell-cargo interactions in the emergent cellular truck motion dynamics. Especially, they can determine the transport capabilities of amoeboid cells, as the cargo size significantly impacts the cytoskeletal activity and repolarization dynamics along the cell-cargo axis, the latter responsible for truck displacement and reorientation. Furthermore, I developed a modeling framework, built upon the experimental evidence on cellular truck behaviour, that connects the relative dynamics and interactions arising at the truck scale with the actual particle transport dynamics. In fact, numerical simulations of the proposed model successfully reproduced the phenomenology of the cell-cargo system, while enabling the prediction of the transport properties of cellular trucks over larger spatial and temporal scales. The theoretical analysis provided a deeper understanding of the role of cell-cargo interaction on mass transport, unveiling in particular how the long-time transport efficiency is governed by the interplay between the persistence time of cell polarity and time scales of the relative dynamics stemming from cell-cargo interaction. Interestingly, the model predicts the existence of an optimal cargo size, enhancing the diffusivity of cellular trucks; this is in line with previous independent experimental data, which appeared rather counterintuitive and had no explanation prior to this study. In conclusion, my research work shed light on the importance of cargo-carrier interactions in the context of crawling cell-mediated particle transport, and provides a prototypical, multifaceted framework for the analysis and modelling of such complex bio-hybrid systems and their perspective optimization. N2 - Im Zuge der fortschreitenden gesellschaftlichen Entwicklung hin zur Miniaturisierung und Präzisionsmedizin, gewinnen Fragen zu Antrieb und zielgerichtetem Transport auf der Mikrometerskala zunehmend an Bedeutung, nicht zuletzt wegen ihres kaum zu unterschätzendem Potentials für Medizin und Technik. Eine vielversprechende Strategie, um den zielgerichteten Transport von Objekten auf der Mikrometerskala, wie zum Beispiel Biosensoren oder mit Medikamenten beladene Mikropartikel, zu bewerkstelligen, ist die Verwendung von lebenden Zellen als intelligenten, biochemisch angetriebenen Transportern. Zellen und Mikroobjekte bilden dabei gemeinsam sogenannte Bio-Hybridsysteme. Inspiriert von Leukozyten - nativen Zellen lebender Organismen, welche sich effizient zu kritischen Zielen, wie Tumorgewebe, bewegen - besteht ein neues Konzept darin, die amöboide Fortbewegung solcher Zellen für den Medikamententransport zu nutzen. Im Rahmen dieser Doktorarbeit kamen experimentelle, numerische und theoretische Modellierungsansätze zum Einsatz, um die Eigenschaften und Transportmechanismen eines neuen Bio-Hybridsystems für den aktiven Transport von Objekten auf der Mikrometerskala zu untersuchen. Dieses Bio-Hybridsystem wird im Folgenden als Zelltransporter bezeichnet. Ein Zelltransporter besteht aus einer sich amöboid fortbewegenden Zelle, dem Transporter, und einem Mikropartikel, der Fracht, welche idealerweise mit Medikamenten für therapeutische Zwecke beladen sein kann. Für die experimentellen Untersuchungen wurde die Amöbe Dictyostelium discoideum als Transporter verwendet. Sie ist ein bekannter Modellorganismus für die Leukozytenmigration und für die Motilität eukaryotischer Zellen im Allgemeinem. Die durchgeführten Experimente zeigten eine komplexe, periodische Zell-Fracht-Relativbewegung, zusammen mit einer intermittierenden Motilität des gesamten Zelltransporters. Die experimentellen Beobachtungen weisen darauf hin, dass die Anwesenheit der Fracht als mechanischer Stimulus auf die amöboide Zelle wirkt und zur Zellpolarisation führt, was wiederum die Zellmotilität fördert und die intermittierende Dynamik des Zelltransportes begründet. So wurde festgestellt, dass das Auftreten der Polarisation des Zytoskeletts entlang der Zell-Fracht-Achse von den geometrischen Merkmalen der Fracht, wie zum Beispiel des Partikeldurchmessers, abhängt. Insgesamt wiesen die gesammelten experimentellen Daten auf eine zentrale Rolle der Zell-Fracht-Wechselwirkungen in der Bewegungsdynamik von Zelltransportern hin. Insbesondere kann die Zell-Fracht-Wechselwirkung die Transportfähigkeiten von amöboiden Zellen erheblich beeinflussen, da die Größe der Fracht die Aktivität des Zytoskeletts und die Repolarisationsdynamik entlang der Zell-Fracht-Achse modelliert, wobei letzteres für die Verlagerung und Neuorientierung des Zelltransportes verantwortlich ist. Darüber hinaus wurde eine Modellierung entwickelt, welche auf den experimentellen Erkenntnissen zum Verhalten der Zelltransporter aufbaut und die relative Dynamik auf Zelltranporterebene, mit der tatsächlichen Partikeltransportdynamik verbindet. Tatsächlich reproduzierten numerische Simulationen des vorgeschlagenen Modells erfolgreich die Phänomenologie des Zell-Fracht-Systems und ermöglichten gleichzeitig die Vorhersage der Transporteigenschaften von Zelltransportern über größere räumliche und zeitliche Skalen. Des Weiteren liefert die theoretische Analyse ein tieferes Verständnis der Rolle der Zell-Fracht-Wechselwirkung beim Massentransport und zeigte insbesondere, wie die Langzeittransporteffizienz durch das Zusammenspiel von Persistenzzeit der Zellpolarität und den Zeitskalen der relativen Dynamik, welche sich aus der Zell-Fracht-Interaktion ergeben, bestimmt wird. Interessanterweise sagt das Modell die Existenz einer optimalen Frachtgröße voraus, wodurch die Diffusivität von Zelltransportern maximiert wird. Dies steht im Einklang mit früheren, unabhängigen experimentellen Daten, für die es vor dieser Studie keine Erklärung gab. Zusammenfassend lässt sich sagen, dass die vorliegende Forschungsarbeit Licht auf die Bedeutung von Transporter-Fracht-Wechselwirkungen, beim Partikeltransports mittels amöboider Zellen, wirft und eine breite Grundlage für die Analyse und Modellierung komplexer Bio-Hybridsysteme und deren perspektivische Optimierung schafft. KW - biophysics KW - bio-hybrid system KW - particle transport KW - active transport KW - amoeboid motion KW - Biophysik KW - Bio-Hybridsystem KW - Partikeltransport KW - aktiven Transport KW - amöboide Bewegung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-490890 ER - TY - THES A1 - Rivera Hernández, Sergio T1 - Tensorial spacetime geometries carrying predictive, interpretable and quantizable matter dynamics T1 - Tensorielle Raumzeit-Geometrien, welche prädiktive, interpretierbare und quantisierbare Materiefeld-Dynamiken tragen können N2 - Which tensor fields G on a smooth manifold M can serve as a spacetime structure? In the first part of this thesis, it is found that only a severely restricted class of tensor fields can provide classical spacetime geometries, namely those that can carry predictive, interpretable and quantizable matter dynamics. The obvious dependence of this characterization of admissible tensorial spacetime geometries on specific matter is not a weakness, but rather presents an insight: it was Maxwell theory that justified Einstein to promote Lorentzian manifolds to the status of a spacetime geometry. Any matter that does not mimick the structure of Maxwell theory, will force us to choose another geometry on which the matter dynamics of interest are predictive, interpretable and quantizable. These three physical conditions on matter impose three corresponding algebraic conditions on the totally symmetric contravariant coefficient tensor field P that determines the principal symbol of the matter field equations in terms of the geometric tensor G: the tensor field P must be hyperbolic, time-orientable and energy-distinguishing. Remarkably, these physically necessary conditions on the geometry are mathematically already sufficient to realize all kinematical constructions familiar from Lorentzian geometry, for precisely the same structural reasons. This we were able to show employing a subtle interplay of convex analysis, the theory of partial differential equations and real algebraic geometry. In the second part of this thesis, we then explore general properties of any hyperbolic, time-orientable and energy-distinguishing tensorial geometry. Physically most important are the construction of freely falling non-rotating laboratories, the appearance of admissible modified dispersion relations to particular observers, and the identification of a mechanism that explains why massive particles that are faster than some massless particles can radiate off energy until they are slower than all massless particles in any hyperbolic, time-orientable and energy-distinguishing geometry. In the third part of the thesis, we explore how tensorial spacetime geometries fare when one wants to quantize particles and fields on them. This study is motivated, in part, in order to provide the tools to calculate the rate at which superluminal particles radiate off energy to become infraluminal, as explained above. Remarkably, it is again the three geometric conditions of hyperbolicity, time-orientability and energy-distinguishability that allow the quantization of general linear electrodynamics on an area metric spacetime and the quantization of massive point particles obeying any admissible dispersion relation. We explore the issue of field equations of all possible derivative order in rather systematic fashion, and prove a practically most useful theorem that determines Dirac algebras allowing the reduction of derivative orders. The final part of the thesis presents the sketch of a truly remarkable result that was obtained building on the work of the present thesis. Particularly based on the subtle duality maps between momenta and velocities in general tensorial spacetimes, it could be shown that gravitational dynamics for hyperbolic, time-orientable and energy distinguishable geometries need not be postulated, but the formidable physical problem of their construction can be reduced to a mere mathematical task: the solution of a system of homogeneous linear partial differential equations. This far-reaching physical result on modified gravity theories is a direct, but difficult to derive, outcome of the findings in the present thesis. Throughout the thesis, the abstract theory is illustrated through instructive examples. N2 - Welche Tensorfelder G auf einer glatten Mannigfaltigkeit M können eine Raumzeit-Geometrie beschreiben? Im ersten Teil dieser Dissertation wird es gezeigt, dass nur stark eingeschränkte Klassen von Tensorfeldern eine Raumzeit-Geometrie darstellen können, nämlich Tensorfelder, die eine prädiktive, interpretierbare und quantisierbare Dynamik für Materiefelder ermöglichen. Die offensichtliche Abhängigkeit dieser Charakterisierung erlaubter tensorieller Raumzeiten von einer spezifischen Materiefelder-Dynamik ist keine Schwäche der Theorie, sondern ist letztlich genau das Prinzip, das die üblicherweise betrachteten Lorentzschen Mannigfaltigkeiten auszeichnet: diese stellen die metrische Geometrie dar, welche die Maxwellsche Elektrodynamik prädiktiv, interpretierbar und quantisierbar macht. Materiefeld-Dynamiken, welche die kausale Struktur von Maxwell-Elektrodynamik nicht respektieren, zwingen uns, eine andere Geometrie auszuwählen, auf der die Materiefelder-Dynamik aber immer noch prädiktiv, interpretierbar und quantisierbar sein muss. Diesen drei Voraussetzungen an die Materie entsprechen drei algebraische Voraussetzungen an das total symmetrische kontravariante Tensorfeld P, welches das Prinzipalpolynom der Materiefeldgleichungen (ausgedrückt durch das grundlegende Tensorfeld G) bestimmt: das Tensorfeld P muss hyperbolisch, zeitorientierbar und energie-differenzierend sein. Diese drei notwendigen Bedingungen an die Geometrie genügen, um alle aus der Lorentzschen Geometrie bekannten kinematischen Konstruktionen zu realisieren. Dies zeigen wir im ersten Teil der vorliegenden Arbeit unter Verwendung eines teilweise recht subtilen Wechselspiels zwischen konvexer Analysis, der Theorie partieller Differentialgleichungen und reeller algebraischer Geometrie. Im zweiten Teil dieser Dissertation erforschen wir allgemeine Eigenschaften aller solcher hyperbolischen, zeit-orientierbaren und energie-differenzierenden Geometrien. Physikalisch wichtig sind der Aufbau von frei fallenden und nicht rotierenden Laboratorien, das Auftreten modifizierter Energie-Impuls-Beziehungen und die Identifizierung eines Mechanismus, der erklärt, warum massive Teilchen, die sich schneller als einige masselosse Teilchen bewegen, Energie abstrahlen können, aber nur bis sie sich langsamer als alle masselossen Teilchen bewegen. Im dritten Teil der Dissertation ergründen wir die Quantisierung von Teilchen und Feldern auf tensoriellen Raumzeit-Geometrien, die die obigen physikalischen Bedingungen erfüllen. Eine wichtige Motivation dieser Untersuchung ist es, Techniken zur Berechnung der Zerfallsrate von Teilchen zu berechnen, die sich schneller als langsame masselose Teilchen bewegen. Wir finden, dass es wiederum die drei zuvor im klassischen Kontext identifizierten Voraussetzungen (der Hyperbolizität, Zeit-Orientierbarkeit und Energie-Differenzierbarkeit) sind, welche die Quantisierung allgemeiner linearer Elektrodynamik auf einer flächenmetrischen Raumzeit und die Quantizierung massiver Teilchen, die eine physikalische Energie-Impuls-Beziehung respektieren, erlauben. Wir erkunden auch systematisch, wie man Feldgleichungen aller Ableitungsordnungen generieren kann und beweisen einen Satz, der verallgemeinerte Dirac-Algebren bestimmt und die damit Reduzierung des Ableitungsgrades einer physikalischen Materiefeldgleichung ermöglicht. Der letzte Teil der vorliegenden Schrift skizziert ein bemerkenswertes Ergebnis, das mit den in dieser Dissertation dargestellten Techniken erzielt wurde. Insbesondere aufgrund der hier identifizierten dualen Abbildungen zwischen Teilchenimpulsen und -geschwindigkeiten auf allgemeinen tensoriellen Raumzeiten war es möglich zu zeigen, dass man die Gravitationsdynamik für hyperbolische, zeit-orientierbare und energie-differenzierende Geometrien nicht postulieren muss, sondern dass sich das Problem ihrer Konstruktion auf eine rein mathematische Aufgabe reduziert: die Lösung eines homogenen linearen Differentialgleichungssystems. Dieses weitreichende Ergebnis über modifizierte Gravitationstheorien ist eine direkte (aber schwer herzuleitende) Folgerung der Forschungsergebnisse dieser Dissertation. Die abstrakte Theorie dieser Doktorarbeit wird durch mehrere instruktive Beispiele illustriert. KW - refined spacetime geometries KW - modified dispersion relations KW - modified gravitational dynamics KW - Finsler geometry KW - quantization of field theories Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61869 ER - TY - THES A1 - Gutjahr, Petra T1 - Conformations of semiflexible polymers and filaments T1 - Konformationen von semiflexiblen Polymeren und Filamenten N2 - The biological function and the technological applications of semiflexible polymers, such as DNA, actin filaments and carbon nanotubes, strongly depend on their rigidity. Semiflexible polymers are characterized by their persistence length, the definition of which is the subject of the first part of this thesis. Attractive interactions, that arise e.g.~in the adsorption, the condensation and the bundling of filaments, can change the conformation of a semiflexible polymer. The conformation depends on the relative magnitude of the material parameters and can be influenced by them in a systematic manner. In particular, the morphologies of semiflexible polymer rings, such as circular nanotubes or DNA, which are adsorbed onto substrates with three types of structures, are studied: (i) A topographical channel, (ii) a chemically modified stripe and (iii) a periodic pattern of topographical steps. The results are compared with the condensation of rings by attractive interactions. Furthermore, the bundling of two individual actin filaments, whose ends are anchored, is analyzed. This system geometry is shown to provide a systematic and quantitative method to extract the magnitude of the attraction between the filaments from experimentally observable conformations of the filaments. N2 - Die biologische Funktion und die technologischen Anwendungen semiflexibler Polymere, wie DNA, Aktinfilamente und Nanoröhren aus Kohlenstoff, werden wesentlich von deren Biegesteifigkeit bestimmt. Semiflexible Polymere werden charakterisiert durch ihre Persistenzlänge, mit deren Definition sich der erste Teil dieser Arbeit befasst. Anziehende Wechselwirkungen, wie sie z.B. bei der Adsorption, der Kondensation und der Bündelung von Filamenten auftreten, können die Konformation eines semiflexiblen Polymers verändern. Die Konformation ist dabei abhängig von der relativen Größe der Materialparameter und kann durch diese gezielt beeinflusst werden. Im Einzelnen werden hier die Morphologien semiflexibler Polymerringe, wie z.B. DNA oder ringförmiger Nanoröhren, untersucht, die auf drei verschieden strukturierten Substraten adsorbieren: (i) Ein topographischer Kanal, (ii) ein chemisch modifizierter Streifen und (iii) ein periodisches Muster topographischer Oberflächenstufen. Die Ergebnisse werden mit der Kondensation von Ringen durch anziehende Wechselwirkungen verglichen. Des Weiteren wird die Bündelung zweier Aktinfilamente, deren Enden verankert sind, untersucht. Diese Systemgeometrie liefert eine systematische Methode, um die Stärke der Anziehung zwischen den Filamenten aus experimentell beobachtbaren Konformationen zu berechnen. KW - Polymere KW - Filamente KW - Persistenzlänge KW - Adsorption KW - Filament-Bündel KW - polymers KW - filaments KW - persistence length KW - adsorption KW - filament bundles Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15918 ER - TY - THES A1 - Baczyński, Krzysztof Konrad T1 - Buckling instabilities of semiflexible filaments in biological systems T1 - Knickinstabilitäten semiflexibler Filamente in biologischen Systemen N2 - In dieser Arbeit werden Knickinstabilitäten von Filamenten in biologischen Systemen untersucht. Das Zytoskelett von Zellen ist aus solchen Filamenten aufgebaut. Sie sind für die mechanische Stabilität der Zelle verantwortlich und spielen eine große Rolle bei intrazellulären Transportprozessen durch molekulare Motoren, die verschiedene Lasten wie beispielsweise Organellen entlang der Filamente des Zytoskeletts transportieren. Filamente sind semiflexible Polymere, deren Biegeenergie ähnlich groß ist wie die thermische Energie, so dass sie auch als elastische Balken auf der Nanoskala gesehen werden können, die signifikante thermische Fluktuationen zeigen. Wie ein makroskopischer elastischer Balken können auch Filamente eine mechanische Knickinstabilität unter Kompression zeigen. Im ersten Teil dieser Arbeit wird untersucht, wie diese Instabilität durch thermische Fluktuationen der Filamente beeinflusst wird. In Zellen können Kompressionskräfte durch molekulare Motoren erzeugt werden. Das geschieht zum Beispiel während der Zellteilung in der mitotischen Spindel. Im zweiten Teil der Arbeit untersuchen wir, wie die stochastische Natur einer von Motoren generierten Kraft die Knickinstabilität von Filamenten beeinflusst. Zunächst stellen wir kurz das Problem von Knickinstabilitäten auf der makroskopischen Skala dar und führen ein Modell für das Knicken von Filamenten oder elastischen Stäben in zwei Raumdimensionen und in Anwesenheit thermischer Fluktuationen ein. Wir präsentieren eine analytische Lösung für Knickinstabilitäten in Anwesenheit thermischer Fluktuationen, die auf einer Renormierungsgruppenrechnung im Rahmen des nichtlinearen Sigma-Models basiert. Wir integrieren die kurzwelligen Fluktuationen aus, um eine effektive Theorie für die langwelligen Moden zu erhalten, die die Knickinstabilität bestimmen. Wir berechnen die Änderung der kritischen Kraft für die Knickinstabilität und zeigen, dass die thermischen Fluktuationen in zwei Raumdimensionen zu einer Zunahme der kritischen Kraft führen. Außerdem zeigen wir, dass thermische Fluktuationen im geknickten Zustand zu einer Zunahme der mittleren projizierten Länge des Filaments in Richtung der wirkenden Kraft führen. Als Funktion der Konturlänge des Filaments besitzt die mittlere projizierte Länge eine Spitze an der Knickinstabilität, die durch thermische Fluktuationen abgerundet wird. Unser Hauptresultat ist die Beobachtung, dass ein geknicktes Filament unter dem Einfluss thermischer Fluktuationen gestreckt wird, d.h. dass seine mittlere projizierte Länge in Richtung der Kompressionskraft auf Grund der thermischen Fluktuationen zunimmt. Unsere analytischen Resultate werden durch Monte-Carlo Simulationen der Knickinstabilität semiflexibler Filamente in zwei Raumdimensionen bestätigt. Wir führen auch Monte-Carlo Simulationen in höheren Raumdimensionen durch und zeigen, dass die Zunahme der projizierten Länge unter dem Einfluss thermischer Fluktuationen weniger ausgeprägt ist und stark von der Wahl der Randbedingungen abhängt. Im zweiten Teil der Arbeit formulieren wir ein Modell für die Knickinstabilität semiflexibler Filamente unter dem Einfluss molekularer Motoren. Wir untersuchen ein System, in dem sich eine Gruppe von Motoren entlang eines fixierten Filaments bewegt, und dabei ein zweites Filament als Last trägt. Das Last-Filament wird gegen eine Wand gedrückt und knickt. Während des Knickvorgangs können die Motoren, die die Kraft auf das Filament generieren, stochastisch von dem Filament ab- und an das Filament anbinden. Wir formulieren ein stochastisches Model für dieses System und berechnen die “mean first passage time“, d.h. die mittlere Zeit für den Übergang von einem Zustand, in dem alle Motoren gebundenen sind zu einem Zustand, in dem alle Motoren abgebunden sind. Dieser Übergang entspricht auch einem Übergang aus dem gebogenen zurück in einen ungebogenen Zustand des Last-Filaments. Unser Resultat zeigt, dass für genügend kurze Mikrotubuli die Bewegung der Motoren von der durch das Last-Filament generierten Kraft beeinflusst wird. Diese Ergebnisse können in zukünftigen Experimenten überprüft werden. N2 - We study buckling instabilities of filaments in biological systems. Filaments in a cell are the building blocks of the cytoskeleton. They are responsible for the mechanical stability of cells and play an important role in intracellular transport by molecular motors, which transport cargo such as organelles along cytoskeletal filaments. Filaments of the cytoskeleton are semiflexible polymers, i.e., their bending energy is comparable to the thermal energy such that they can be viewed as elastic rods on the nanometer scale, which exhibit pronounced thermal fluctuations. Like macroscopic elastic rods, filaments can undergo a mechanical buckling instability under a compressive load. In the first part of the thesis, we study how this buckling instability is affected by the pronounced thermal fluctuations of the filaments. In cells, compressive loads on filaments can be generated by molecular motors. This happens, for example, during cell division in the mitotic spindle. In the second part of the thesis, we investigate how the stochastic nature of such motor-generated forces influences the buckling behavior of filaments. In chapter 2 we review briefly the buckling instability problem of rods on the macroscopic scale and introduce an analytical model for buckling of filaments or elastic rods in two spatial dimensions in the presence of thermal fluctuations. We present an analytical treatment of the buckling instability in the presence of thermal fluctuations based on a renormalization-like procedure in terms of the non-linear sigma model where we integrate out short-wavelength fluctuations in order to obtain an effective theory for the mode of the longest wavelength governing the buckling instability. We calculate the resulting shift of the critical force by fluctuation effects and find that, in two spatial dimensions, thermal fluctuations increase this force. Furthermore, in the buckled state, thermal fluctuations lead to an increase in the mean projected length of the filament in the force direction. As a function of the contour length, the mean projected length exhibits a cusp at the buckling instability, which becomes rounded by thermal fluctuations. Our main result is the observation that a buckled filament is stretched by thermal fluctuations, i.e., its mean projected length in the direction of the applied force increases by thermal fluctuations. Our analytical results are confirmed by Monte Carlo simulations for buckling of semiflexible filaments in two spatial dimensions. We also perform Monte Carlo simulations in higher spatial dimensions and show that the increase in projected length by thermal fluctuations is less pronounced than in two dimensions and strongly depends on the choice of the boundary conditions. In the second part of this work, we present a model for buckling of semiflexible filaments under the action of molecular motors. We investigate a system in which a group of motors moves along a clamped filament carrying a second filament as a cargo. The cargo-filament is pushed against the wall and eventually buckles. The force-generating motors can stochastically unbind and rebind to the filament during the buckling process. We formulate a stochastic model of this system and calculate the mean first passage time for the unbinding of all linking motors which corresponds to the transition back to the unbuckled state of the cargo filament in a mean-field model. Our results show that for sufficiently short microtubules the movement of kinesin-I-motors is affected by the load force generated by the cargo filament. Our predictions could be tested in future experiments. KW - Polymere KW - Filament KW - Elastizität KW - Knickinstabilität KW - molekulare Motoren KW - Polymers KW - filaments KW - elasticity KW - buckling KW - molecular motors Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-37927 ER - TY - THES A1 - Scholz, Markus Reiner T1 - Spin polarization, circular dichroism, and robustness of topological surface states T1 - Spinpolarisation, Zirkulardichroismus und Robustheit Topologischer Oberflächenzustände BT - a photoemission study BT - eine Photoemissionsstudie N2 - Dreidimensionale topologische Isolatoren sind ein neues Materialsystem, welches dadurch charakterisiert ist, dass es in seinem Inneren isolierend an der Ober äche jedoch leitend ist. Ursächlich für die Leitfähigkeit an der Ober äche sind sogenannte topologische Ober- ächenzustände, welche das Valenzband des Inneren mit dem Leitungsband des Inneren verbinden. An der Ober äche ist also die Bandlücke, welche die isolierende Eigenschaft verursacht, geschlossen. Die vorliegende Arbeit untersucht diese Ober ächenzustände mittels spin- und winkelauf- gelöster Photoemissionsspektroskopie. Es wird gezeigt, dass in den Materialien Bi2Se3 und Bi2Te3, in übereinstimmung mit der Literatur, die entscheidenden Charakteristika eines topologischen Ober ächenzustands vorzu nden sind: Die Ober ächenzustände dieser Sys- teme durchqueren die Bandlücke in ungerader Anzahl, sie sind nicht entartet und weisen folgerichtig eine hohe Spinpolarisation auf. Weiterhin wird durch Aufdampfen diverser Adsorbate gezeigt, dass der Ober ächenzustän- de von Bi2Se3 und Bi2Te3, wie erwartet, extrem robust ist. Ober ächenzustände topologisch trivialer Systeme erfüllen diese Eigenschaft nicht; bereits kleine Verunreinigungen kön- nen diese Zustände zerstören, bzw. die Ober äche isolierend machen. Die topologischen Ober ächenzustände können in der vorliegenden Arbeit noch bis zur Detektionsgrenze der experimentellen Messmethode nachgewiesen werden und die Ober äche bleibt Leitfähig. Unter den Adsorbaten be ndet sich auch Eisen, ein bekanntermaßen magnetisches Materi- al. Eine der Grundvoraussetzungen für topologische Isolatoren ist die Zeitumkehrsymme- trie, die Elektronen, welche den topologischen Ober ächenzustand besetzen, vorschreibt, dass sie eine bestimmte Spinrichtung haben müssen, wenn sie sich beispielsweise nach links bewegen und den entgegengesetzten Spin wenn sie sich nach rechts bewegen. In magnetischen Materialien ist die Zeitumkehrsymmetrie jedoch explizit gebrochen und die gezeigte Robustheit des Ober ächenzustands gegen magnetische Materialien daher uner- wartet. Die Zeitumkehrsymmetrie sorgt auch dafür, dass eine Streuung der Elektronen um 180°, beispielsweise an einem Gitterdefekt oder an einem Phonon strikt verboten ist. Bei einem solchen Streuprozess bleibt die Spinrichtung erhalten, da aber in der Gegenrichtung nur Zustände mit entgegengesetztem Spin vorhanden sind kann das Elektron nicht in diese Richtung gestreut werden. Dieses Prinzip wird anhand der Lebensdauer der durch Pho- toemission angeregten Zustände untersucht. Hierbei wird gezeigt, dass die Kopplung der Elektronen des Ober ächenzustands von Bi2Te3 an Phononen unerwartet hoch ist und dass sich eine Anisotropie in der Bandstruktur des Selbigen auch in den Lebensdauern der ange- regten Zustände widerspiegelt. Weiterhin wird gezeigt, dass sich die Ein üsse von magne- tischen und nicht-magnetischen Verunreinigungen auf die Lebensdauern stark voneinander unterscheiden. Im letzten Teil der vorliegenden Arbeit wird untersucht, ob eine Asymmetrie in der Inten- sitätsverteilung der winkelaufgelösten Photoemissionsspektren, bei Anregung mit zirku- lar polarisiertem Licht, in Bi2Te3 Rückschlüsse auf die Spinpolarisation der Elektronen erlaubt. Bei Variation der Energie des eingestrahlten Lichts wird ein Vorzeichenwechsel der Asymmetrie beobachtet. Daraus lässt sich schlussfolgern, dass die Asymmetrie keine Rückschlüsse auf die Spinpolarisation erlaubt. N2 - This thesis is focussed on the electronic properties of the new material class named topological insulators. Spin and angle resolved photoelectron spectroscopy have been applied to reveal several unique properties of the surface state of these materials. The first part of this thesis introduces the methodical background of these quite established experimental techniques. In the following chapter, the theoretical concept of topological insulators is introduced. Starting from the prominent example of the quantum Hall effect, the application of topological invariants to classify material systems is illuminated. It is explained how, in presence of time reversal symmetry, which is broken in the quantum Hall phase, strong spin orbit coupling can drive a system into a topologically non trivial phase. The prediction of the spin quantum Hall effect in two dimensional insulators an the generalization to the three dimensional case of topological insulators is reviewed together with the first experimental realization of a three dimensional topological insulator in the Bi1-xSbx alloys given in the literature. The experimental part starts with the introduction of the Bi2X3 (X=Se, Te) family of materials. Recent theoretical predictions and experimental findings on the bulk and surface electronic structure of these materials are introduced in close discussion to our own experimental results. Furthermore, it is revealed, that the topological surface state of Bi2Te3 shares its orbital symmetry with the bulk valence band and the observation of a temperature induced shift of the chemical potential is to a high probability unmasked as a doping effect due to residual gas adsorption. The surface state of Bi2Te3 is found to be highly spin polarized with a polarization value of about 70% in a macroscopic area, while in Bi2Se3 the polarization appears reduced, not exceeding 50%. We, however, argue that the polarization is most likely only extrinsically limited in terms of the finite angular resolution and the lacking detectability of the out of plane component of the electron spin. A further argument is based on the reduced surface quality of the single crystals after cleavage and, for Bi2Se3 a sensitivity of the electronic structure to photon exposure. We probe the robustness of the topological surface state in Bi2X3 against surface impurities in Chapter 5. This robustness is provided through the protection by the time reversal symmetry. Silver, deposited on the (111) surface of Bi2Se3 leads to a strong electron doping but the surface state is observed up to a deposited Ag mass equivalent to one atomic monolayer. The opposite sign of doping, i.e., hole-like, is observed by exposing oxygen to Bi2Te3. But while the n-type shift of Ag on Bi2Se3 appears to be more or less rigid, O2 is lifting the Dirac point of the topological surface state in Bi2Te3 out of the valence band minimum at $\Gamma$. After increasing the oxygen dose further, it is possible to shift the Dirac point to the Fermi level, while the valence band stays well beyond. The effect is found reversible, by warming up the samples which is interpreted in terms of physisorption of O2. For magnetic impurities, i.e., Fe, we find a similar behavior as for the case of Ag in both Bi2Se3 and Bi2Te3. However, in that case the robustness is unexpected, since magnetic impurities are capable to break time reversal symmetry which should introduce a gap in the surface state at the Dirac point which in turn removes the protection. We argue, that the fact that the surface state shows no gap must be attributed to a missing magnetization of the Fe overlayer. In Bi2Te3 we are able to observe the surface state for deposited iron mass equivalents in the monolayer regime. Furthermore, we gain control over the sign of doping through the sample temperature during deposition. Chapter6 is devoted to the lifetime broadening of the photoemission signal from the topological surface states of Bi2Se3 and Bi2Te3. It is revealed that the hexagonal warping of the surface state in Bi2Te3 introduces an anisotropy for electrons traveling along the two distinct high symmetry directions of the surface Brillouin zone, i.e., $\Gamma$K and $\Gamma$M. We show that the phonon coupling strength to the surface electrons in Bi2Te3 is in nice agreement with the theoretical prediction but, nevertheless, higher than one may expect. We argue that the electron-phonon coupling is one of the main contributions to the decay of photoholes but the relatively small size of the Fermi surface limits the number of phonon modes that may scatter off electrons. This effect is manifested in the energy dependence of the imaginary part of the electron self energy of the surface state which shows a decay to higher binding energies in contrast to the monotonic increase proportional to E$^2$ in the Fermi liquid theory due to electron-electron interaction. Furthermore, the effect of the surface impurities of Chapter 5 on the quasiparticle life- times is investigated. We find that Fe impurities have a much stronger influence on the lifetimes as compared to Ag. Moreover, we find that the influence is stronger independently of the sign of the doping. We argue that this observation suggests a minor contribution of the warping on increased scattering rates in contrast to current belief. This is additionally confirmed by the observation that the scattering rates increase further with increasing silver amount while the doping stays constant and by the fact that clean Bi2Se3 and Bi2Te3 show very similar scattering rates regardless of the much stronger warping in Bi2Te3. In the last chapter we report on a strong circular dichroism in the angle distribution of the photoemission signal of the surface state of Bi2Te3. We show that the color pattern obtained by calculating the difference between photoemission intensities measured with opposite photon helicity reflects the pattern expected for the spin polarization. However, we find a strong influence on strength and even sign of the effect when varying the photon energy. The sign change is qualitatively confirmed by means of one-step photoemission calculations conducted by our collaborators from the LMU München, while the calculated spin polarization is found to be independent of the excitation energy. Experiment and theory together unambiguously uncover the dichroism in these systems as a final state effect and the question in the title of the chapter has to be negated: Circular dichroism in the angle distribution is not a new spin sensitive technique. KW - topological insulators KW - angle resolved photoelectron spectroscopy KW - spin resolved photoelectron spectroscopy KW - Bi2Se3 KW - Bi2Te3 KW - quasiparticle interactions KW - circular dichroism KW - spin-orbit coupling KW - time reversal symmetry KW - surface states KW - Spinpolarisation KW - Zirkulardichroismus KW - topologische Isolatoren KW - Oberflächenzustände KW - winkelaufgelöste Photoelektronenspektroskopie KW - spinaufgelöste Photoelektronenspektroskopie KW - Magnetismus KW - Bi2Te3 KW - Bi2Se3 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96686 ER - TY - THES A1 - Varykhalov, Andrei T1 - Quantum-size effects in the electronic structure of novel self-organized systems with reduced dimensionality T1 - Quantisierungseffekte in der elektronischen Struktur von neuen selbstorganisierten Systemen mit reduzierter Dimensionalität N2 - The Thesis is focused on the properties of self-organized nanostructures. Atomic and electronic properties of different systems have been investigated using methods of electron diffraction, scanning tunneling microscopy and photoelectron spectroscopy. Implementation of the STM technique (including design, construction, and tuning of the UHV experimental set-up) has been done in the framework of present work. This time-consuming work is reported to greater detail in the experimental part of this Thesis. The scientific part starts from the study of quantum-size effects in the electronic structure of a two-dimensional Ag film on the supporting substrate Ni(111). Distinct quantum well states in the sp-band of Ag were observed in photoelectron spectra. Analysis of thickness- and angle-dependent photoemission supplies novel information on the properties of the interface. For the first time the Ni(111) relative band gap was indirectly probed in the ground-state through the electronic structure of quantum well states in the adlayer. This is particularly important for Ni where valence electrons are strongly correlated. Comparison of the experiment with calculations performed in the formalism of the extended phase accumulation model gives the substrate gap which is fully consistent with the one obtained by ab-initio LDA calculations. It is, however, in controversy to the band structure of Ni measured directly by photoemission. These results lend credit to the simplest view of photoemission from Ni, assigning early observed contradictions between theory and experiments to electron correlation effects in the final state of photoemission. Further, nanosystems of lower dimensionality have been studied. Stepped surfaces W(331) and W(551) were used as one-dimensional model systems and as templates for self-organization of Au nanoclusters. Photon energy dependent photoemission revealed a surface resonance which was never observed before on W(110) which is the base plane of the terrace microsurfaces. The dispersion E(k) of this state measured on stepped W(331) and W(551) with angle-resolved photoelectron spectroscopy is modified by a strong umklapp effect. It appears as two parabolas shifted symmetrically relative to the microsurface normal by half of the Brillouin zone of the step superlattice. The reported results are very important for understanding of the electronic properties of low-dimensional nanostructures. It was also established that W(331) and W(551) can serve as templates for self-organization of metallic nanostructures. A combined study of electronic and atomic properties of sub-monolayer amounts of gold deposited on these templates have shown that if the substrate is slightly pre-oxidized and the temperature is elevated, then Au can alloy with the first monolayer of W. As a result, a nanostructure of uniform clusters of a surface alloy is produced all over the steps. Such clusters feature a novel sp-band in the vicinity of the Fermi level, which appears split into constant energy levels due to effects of lateral quantization. The last and main part of this work is devoted to large-scale reconstructions on surfaces and nanostructures self-assembled on top. The two-dimensional surface carbide W(110)/C-R(15x3) has been extensively investigated. Photoemission studies of quantum size effects in the electronic structure of this reconstruction, combined with an investigation of its surface geometry, lead to an advanced structural model of the carbide overlayer. It was discovered that W(110)/C-R(15x3) can control self-organization of adlayers into nanostructures with extremely different electronic and structural properties. Thus, it was established that at elevated temperature the R(15x3) superstructure controls the self-assembly of sub-monolayer amounts of Au into nm-wide nanostripes. Based on the results of core level photoemission, the R(15x3)-induced surface alloying which takes place between Au and W can be claimed as driving force of self-organization. The observed stripes exhibit a characteristic one-dimensional electronic structure with laterally quantized d-bands. Obviously, these are very important for applications, since dimensions of electronic devices have already stepped into the nm-range, where quantum-size phenomena must undoubtedly be considered. Moreover, formation of perfectly uniform molecular clusters of C60 was demonstrated and described in terms of the van der Waals formalism. It is the first experimental observation of two-dimensional fullerene nanoclusters with "magic numbers". Calculations of the cluster potentials using the static approach have revealed characteristic minima in the interaction energy. They are achieved for 4 and 7 molecules per cluster. The obtained "magic numbers" and the corresponding cluster structures are fully consistent with the results of the STM measurements. N2 - Die aktuelle Doktorarbeit ist auf die Eigenschaften von selbst-organisierten Nanostrukturen fokussiert. Die strukturellen und elektronischen Eigenschaften von verschiedenen Systemen wurden mit den Methoden Elektronenbeugung, Rastertunnelmikroskopie und Photoelektronenspektroskopie untersucht. Insbesondere wurde die fuer die Rastertunnelmikroskopie in situ praeparierter Proben eingesetzte Apparatur im Rahmen dieser Arbeit konstruiert und aufgebaut. Einzelheiten hierzu sind im experimentellen Kapitel zu finden. Der wissenschftliche Teil beginnt mit Untersuchungen von Quantentrogeffekten in der elektronischen Struktur einer Ag-Schicht auf Ni(111)-Substrat. Charakteristische Quantentrogzustaende im Ag-sp-Band wurden in Photoelektronenspektren beobachtet. Die Analyse von schichtdicken- und winkelabhaengiger Photoemission hat neue und wesentliche Informationen ueber die Eigenschaften des Ag/Ni-Systems geliefert. Insbesondere konnte zum ersten Mal eine relative Bandluecke im Ni-Substrat durch das Verhalten der Quantentrogzustaende indirekt vermessen werden. Das ist fuer Ni besonders wichtig, weil es sich bei Ni um ein stark korreliertes Elektronensystem handelt. Die Ergebnisse wurden mit Rechnungen auf der Basis des erweiterten Phasenmodelles verglichen. Der Vergleich ergibt eine Bandluecke, die sehr gut mit ab-initio-Rechnungen auf Basis der lokalen Elektronendichte-Naehrung uebereinstimmen. Dennoch widersprechen die Daten der Ni-Bandstruktur, die direkt mit Photoemission gemessen wird. Diese Kontroverse zeigt deutlich, dass der Unterschied zwischen Theorie und Experiment Korrelationeffekten im Endzustand der Photoemission zugeordnet werden kann. Des weiteren wurden Nanosysteme von noch niedrigerer Dimensionalitaet untersucht. Gestufte Oberflaechen W(331) und W(551) wurden als eindimensionale Modellsysteme fuer die Selbstorganisation von Au-Nanoclustern benutzt. Photonenenergieabhaengige Photoemission hat eine neue Oberflaechen-resonanz aufgedeckt, die auf der Basisebene der Terrassen dieser Systeme auftritt. Die Dispersion E(k) von diesem Zustand, die mit winkelaufgeloester Photoemission vermessen wurde, zeigt deutlich die Einwirkung von Umklapp-Effekten. Diese zeigen sich als zwei Parabeln, die relativ zu der Terrassennormale symmetrisch um die Haelfte der Oberflaechen-Brillouinzone verschoben sind. Die erzielten Ergebnisse sind sehr wichtig fuer das Verstaendnis der elektronischen Eigenschaften von eindimensionalen Nanostrukturen. Ausserdem wurde gezeigt, dass W(331) und W(551) als Vorlage fuer selbstorganisierte metallische Nanostrukturen dienen koennen. Eine kombinierte Untersuchung von strukturellen und elektronischen Eigenschaften von unter-monolagen Mengen von Au auf diesen Substraten wurde durchgefuehrt. Es hat sich gezeigt, dass Au mit dem Substrat an der Oberflaeche legieren kann, wenn die Oberflaeche ein wenig oxidiert und die Temperatur erhoert ist. Als Folge formiert sich auf den Stufen eine Nanostruktur von gleichen (aber nicht regelmaessig verteilten) Nanoclustern aus dieser Au-W Legierung. Diese Oberflaechenlegierung bildet ein neuartiges sp-Band in der Naehe der Fermi-Kante. Zudem spaltet dieser neue elektronische Zustand in konstante Energieniveaus auf. Das beobachtete Phaenomen wird als laterale Quantisierung interpretiert. Das letzte Kapitel dieser Doktorarbeit bildet auch den Hauptteil. Es handelt von Selbstorganisierungsphaenomenen auf einer Oberflaechenrekonstruktion und den Eigenschaften von so hergestellten Nanostrukturen. Das zweidimensionale Oberflaechen-Karbid W(110)/C-R(15x3) wurde intensiv untersucht. Beobachtete Quantentrogeffekte in der Photoemission in Kombination mit den Ergebnissen der Rastertunnelmikroskopuntersuchungen fuehren zu einem verbesserten Strukturmodell fuer das Oberflaechenkarbid. Es wurde auch gezeigt, dass W(110)/C-R(15x3) die Selbstorganisierung von Nanostrukturen mit sehr verschiedenen elektronischen und strukturellen Eigenschaften steuern kann. Es wurde gefunden, dass bei erhoehter Temperatur die R(15x3)-Ueberstruktur die Bildung von Nanostreifen aus unter-monolagiger Au Bedeckung, von denen jede 1 nm breit ist, kontrolliert. Die hergestellten Nanostreifen besitzen eine charakteristische eindimensionale elektronische Struktur mit lateral quantisierten d-Baendern. Basierend auf der Photoemission von Rumpfniveaus wird eine Kohlenstoff-induzierte Oberflaechenlegierung zwischen Au und W als Grund fuer die beobachtete Organisierung vorgeschlagen. Solche Phaenomene sind sehr wichtig fuer Anwendungen, seit die Mikroelektronik in den nm-Massstab eingetreten ist, in welchem mit Quantentrogeffekten zu rechnen ist. Zusaetzlich wurde die Bildung von perfekt uniformen molekularen Nanoclustern von C60 auf W(110)/C-R(15x3) demonstriert. Dieses Phaenomen kann im van-der-Waals Formalismus beschrieben werden. Die berichteten Ergebnisse sind eine erstmalige experimentelle Beobachtung von zweidimensionalen Fulleren-Nanoclustern mit "magischen Zahlen". Berechnungen der Clusterpotentiale in der statischen Naeherung im Girifalco-Modell zeigen Minima der Wechselwirkungsenergie fuer Cluster aus 4 und 7 C60-Molekuelen. Diese "magischen Zahlen" sowie die entsprechenden Clusterkonfigurationen sind vollkommen konsistent mit den Ergebnissen des STM-Experiments. KW - Nanostruktur KW - Selbstorganisation KW - Quantenwell KW - Quantendraht KW - Elektronische Eigenschaft KW - Oberflächenphysik KW - Eindimensionaler Festkörper KW - 1D KW - 2D KW - reduzierte Dimensionalität KW - elektronische Struktur KW - gestufte Oberfläche KW - Elektronen KW - 1D KW - 2D KW - reduced dimensionality KW - electronic structure KW - stepped surface Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5784 ER - TY - THES A1 - Krivenkov, Maxim T1 - Spin textures and electron scattering in nanopatterned monolayer graphene N2 - The current thesis is focused on the properties of graphene supported by metallic substrates and specifically on the behaviour of electrons in such systems. Methods of scanning tunneling microscopy, electron diffraction and photoemission spectroscopy were applied to study the structural and electronic properties of graphene. The purpose of the first part of this work is to introduce the most relevant aspects of graphene physics and the methodical background of experimental techniques used in the current thesis. The scientific part of this work starts with the extensive study by means of scanning tunneling microscopy of the nanostructures that appear in Au intercalated graphene on Ni(111). This study was aimed to explore the possible structural explanations of the Rashba-type spin splitting of ~100 meV experimentally observed in this system — much larger than predicted by theory. It was demonstrated that gold can be intercalated under graphene not only as a dense monolayer, but also in the form of well-periodic arrays of nanoclusters, a structure previously not reported. Such nanocluster arrays are able to decouple graphene from the strongly interacting Ni substrate and render it quasi-free-standing, as demonstrated by our DFT study. At the same time calculations confirm strong enhancement of the proximity-induced SOI in graphene supported by such nanoclusters in comparison to monolayer gold. This effect, attributed to the reduced graphene-Au distance in the case of clusters, provides a large Rashba-type spin splitting of ~60 meV. The obtained results not only provide a possible mechanism of SOI enhancement in this particular system, but they can be also generalized for graphene on other strongly interacting substrates intercalated by nanostructures of heavy noble d metals. Even more intriguing is the proximity of graphene to heavy sp-metals that were predicted to induce an intrinsic SOI and realize a spin Hall effect in graphene. Bismuth is the heaviest stable sp-metal and its compounds demonstrate a plethora of exciting physical phenomena. This was the motivation behind the next part of the current thesis, where structural and electronic properties of a previously unreported phase of Bi-intercalated graphene on Ir(111) were studied by means of scanning tunneling microscopy, spin- and angle-resolved photoemission spectroscopy and electron diffraction. Photoemission experiments revealed a remarkable, nearly ideal graphene band structure with strongly suppressed signatures of interaction between graphene and the Ir(111) substrate, moreover, the characteristic moiré pattern observed in graphene on Ir(111) by electron diffraction and scanning tunneling microscopy was strongly suppressed after intercalation. The whole set of experimental data evidences that Bi forms a dense intercalated layer that efficiently decouples graphene from the substrate. The interaction manifests itself only in the n-type charge doping (~0.4 eV) and a relatively small band gap at the Dirac point (~190 meV). The origin of this minor band gap is quite intriguing and in this work it was possible to exclude a wide range of mechanisms that could be responsible for it, such as induced intrinsic spin-orbit interaction, hybridization with the substrate states and corrugation of the graphene lattice. The main origin of the band gap was attributed to the A-B symmetry breaking and this conclusion found support in the careful analysis of the interference effects in photoemission that provided the band gap estimate of ~140 meV. While the previous chapters were focused on adjusting the properties of graphene by proximity to heavy metals, graphene on its own is a great object to study various physical effects at crystal surfaces. The final part of this work is devoted to a study of surface scattering resonances by means of photoemission spectroscopy, where this effect manifests itself as a distinct modulation of photoemission intensity. Though scattering resonances were widely studied in the past by means of electron diffraction, studies about their observation in photoemission experiments started to appear only recently and they are very scarce. For a comprehensive study of scattering resonances graphene was selected as a versatile model system with adjustable properties. After the theoretical and historical introduction to the topic of scattering resonances follows a detailed description of the unusual features observed in the photoemission spectra obtained in this work and finally the equivalence between these features and scattering resonances is proven. The obtained photoemission results are in a good qualitative agreement with the existing theory, as verified by our calculations in the framework of the interference model. This simple model gives a suitable explanation for the general experimental observations. The possibilities of engineering the scattering resonances were also explored. A systematic study of graphene on a wide range of substrates revealed that the energy position of the resonances is in a direct relation to the magnitude of charge transfer between graphene and the substrate. Moreover, it was demonstrated that the scattering resonances in graphene on Ir(111) can be suppressed by nanopatterning either by a superlattice of Ir nanoclusters or by atomic hydrogen. These effects were attributed to strong local variations of tork function and/or destruction of long-range order of thephene lattice. The tunability of scattering resonances can be applied for optoelectronic devices based on graphene. Moreover, the results of this study expand the general understanding of the phenomenon of scattering resonances and are applicable to many other materials besides graphene. N2 - Die vorliegende Arbeit beschäftigt sich mit den Eigenschaften von Graphen auf metallischen Substraten und speziell mit dem Verhalten von Elektronen in solchen Systemen. Der wissenschaftliche Teil dieser Arbeit beginnt mit der umfassenden Untersuchung von Nanostrukturen, die in Au-interkaliertem Graphen auf Ni(111) auftreten, mittels Rastertunnelmikroskopie (RTM). Diese Studie zielte darauf ab, die möglichen strukturellen Erklärungen der experimentell in diesem System beobachteten Rashba- Spin-Aufspaltung von ~100 meV zu untersuchen — die viel größer als theoretisch vorhergesagt ist. Es wurde gezeigt, dass Gold unter Graphen nicht nur als dichte Monolage interkaliert werden kann, sondern auch in Form von exakt periodischen Anordnungen von Nanoclustern, einer Struktur, die bisher nicht beschrieben wurde. Solche Nanocluster-Arrays können Graphen von dem stark wechselwirkenden Ni-Substrat entkoppeln und es quasi freistehend machen, wie unsere Dichtefunktionaltheorie-Studie zeigt. Gleichzeitig bestätigen die Dichtefunktionaltheorie-Rechnungen eine starke Erhöhung der durch Proximity induzierten Spin-Bahn-Wechselwirkung (SBW) in Graphen durch solche Nanocluster im Vergleich zu einer homogenen Gold-Monolage. Dieser Effekt, der im Falle von Clustern auf den verringerten Graphen-Au-Abstand zurückgeführt wird, liefert eine große Spinaufspaltung vom Rashba-Typ von ~60 meV. Die erhaltenen Ergebnisse liefern nicht nur einen möglichen Mechanismus zur Erhöhung der SBW in diesem speziellen System, sondern können auch auf Graphen auf anderen stark wechselwirkenden Substraten verallgemeinert werden, die mit Nanostrukturen von schweren Edelmetallen interkaliert sind. Noch faszinierender ist die Nähe von Graphen zu schweren sp-Metallen, von denen vorhergesagt wurde, dass sie eine intrinsische SBW induzieren und einen Spin-Hall-Effekt in Graphen realisieren. Wismut ist das schwerste stabile sp-Metall und seine Verbindungen zeigen eine Vielzahl aufregender physikalischer Phänomene. Dies war die Motivation für den nächsten Teil der vorliegenden Arbeit, in dem strukturelle und elektronische Eigenschaften einer bisher nicht beschriebenen Phase von Bismuth-interkaliertem Graphen auf Ir(111) untersucht werden. Experimente ergaben eine nahezu ideale Graphenbandstruktur mit stark unterdrückten Wechselwirkungssignaturen zwischen Graphen und dem Ir(111)-Substrat. Die gesamten experimentellen Daten belegen, dass Bi eine dichte interkalierte Schicht bildet, die Graphen effizient vom Substrat entkoppelt. Die Wechselwirkung manifestiert sich nur in der Ladungsdotierung vom n-Typ (~0,4 eV) und einer Bandlücke am Dirac-Punkt (~190 meV). Den Ursprung dieser Bandlücke zu ermitteln ist sehr komplex, und in dieser Arbeit konnte eine Vielzahl von Mechanismen ausgeschlossen werden, die dafür verantwortlich sein könnten, wie etwa induzierte intrinsische SBW, Hybridisierung mit den Substratzuständen und Riffelung des Graphen-Gitters. Der Hauptursprung der Bandlücke wurde einem Bruch der A-B -Symmetrie zugeschrieben, und diese Schlussfolgerung stützte sich auf eine eingehende Analyse der Interferenzeffekte bei der Photoemission, die eine Abschätzung der Bandlücke von ~140 meV lieferte. Während sich die vorherigen Kapitel auf die Anpassung der Eigenschaften von Graphen durch die Nähe zu Schwermetallen konzentrierten, ist Graphen allein ein großartiges Objekt, um verschiedene physikalische Effekte an Kristalloberflächen zu untersuchen. Der letzte Teil dieser Arbeit befasst sich mit der Photoemissionsspektroskopie Untersuchung von Oberflächenstreuresonanzen, deren Effekt sich in einer deutlichen Modulation der Photoemissionsintensität manifestiert. Obwohl Streuresonanzen in der Vergangenheit häufig mittels Elektronenbeugung untersucht wurden, erschienen einige wenige Studien über ihre Beobachtung in Photoemissionsexperimenten erst vor kurzem. Für eine umfassende Untersuchung der Streuresonanzen wurde Graphen als vielseitiges Modellsystem mit einstellbaren Eigenschaften ausgewählt. Das Kapitel beginnt mit einer historischen Einführung in das Thema Streuresonanzen, gefolgt von der Beschreibung der ungewöhnlichen Photoemissionsspektralmerkmale, die in dieser Arbeit erhalten wurden. Schließlich wird die Äquivalenz zwischen diesen Merkmalen und Streuresonanzen bewiesen. Die erhaltenen Photoemissionsergebnisse stimmen qualitativ gut mit der bestehenden Theorie überein, wie unsere Berechnungen im Rahmen des Interferenzmodells belegen. Dieses einfache Modell liefert eine geeignete Erklärung für die Gesamtheit der experimentellen Beobachtungen. Möglichkeiten, die Streuresonanzen zu modifizieren wurden ebenfalls untersucht. Eine systematische Untersuchung von Graphen auf einer Vielzahl von Substraten ergab, dass die Energieposition der Resonanzen in direktem Zusammenhang mit der Größe des Ladungstransfers zwischen Graphen und Substrat steht. Darüber hinaus wurde gezeigt, dass die Streuresonanzen in Graphen auf Ir(111) durch Nanostrukturierung entweder durch ein Übergitter von Ir-Nanoclustern oder durch atomaren Wasserstoff unterdrückt werden können. Diese Effekte wurden auf starke lokale Variationen der Austrittsarbeit und/oder die Zerstörung der langreichweitigen Ordnung des Graphengitters zurückgeführt. Die Abstimmbarkeit von Streuresonanzen kann für optoelektronische Bauelemente auf der Basis von Graphen verwendet werden. Darüber hinaus erweitern die Ergebnisse dieser Studie das allgemeine Verständnis des Phänomens der Streuresonanzen und sind neben Graphen auch auf viele andere Materialien anwendbar. T2 - Spin-Texturen und Elektronenstreuung in nanostrukturiertem Monolage-Graphen KW - graphene KW - spin texture KW - scattering resonances KW - Rashba effect KW - bismuth KW - Rashba-Effekt KW - Wismut KW - Graphen KW - Streuresonanzen KW - Spin Textur Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487017 ER -