TY - THES A1 - Löffler, Frank T1 - Numerical simulations of neutron star - black hole mergers T1 - Computersimulationen von Zusammenstößen eines schwarzen Lochs und eines Neutronensterns N2 - Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts. N2 - Zusammenstöße eines schwarzen Lochs und eines Neutronensterns, im Folgenden "gemischte Zusammenstöße" genannt, sind aus wenigstens zwei Gründen interessant. Erstens wird erwartet, dass dabei große Mengen Energie als Gravitationswellen freigesetzt werden und diese mit neuen Detektoren gemessen werden können. Die Form dieser Wellen verrät viel über die Beschaffenheit eines solchen Systems und stellt neben elektromagnetischen Wellen eine wichtige Informationsquelle dar. Zweitens sind Zusammenstöße von kompakten Objekten wie Neutronensternen und schwarze Löchern sehr wahrscheinlich die Ursache sogenannter kurzer Gammastrahlungsblitze. Deren genauer Mechanismus für die Umwandlung der gewaltigen Energiemengen, die bei diesen Blitzen ausgesandt werden, ist jedoch bisher unbekannt. Computersimulationen von Zusammenstößen eines gemischten Systems wurden bisher oft unter Benutzung der Newtonschen Gravitationstheorie, bzw. Korrekturen dazu, durchgeführt. In der Nähe so kompakte Objekte wie schwarzer Löcher oder Neutronensterne ist jedoch die Gravitationswirkung so stark, dass Näherungen wie die erwähnten Korrekturen der Newtonschen Gravitationstheorie zu ungenau sind. Eine Benutzung der allgemeinen Relativitätstheorie ist daher für dieses Problem unumgänglich. Die Probleme allgemein-relativistischer Simulationen sind vielfältig. Jedoch wurden Binärsysteme zweier schwarzer Löcher und zweier Neutronensterne schon eingehend untersucht, und so viele Probleme, die auch Simulationen gemischter Systeme betreffen, gelöst. Eins der bisher ausstehenden Probleme war die Behandlung der Hydrodynamik an Ausschneiderändern; Rändern zu Gebieten, die in der Zeitentwicklung der Simulation ignoriert werden. Solche Ränder werden zum Beispiel innerhalb eines schwarzen Lochs benutzt, um Instabilitäten des Programms in der Nähe der Singularität zu vermeiden. Methoden, solche Ränder zu behandeln wurden in der Arbeit entwickelt, getestet und gezeigt, dass sie verlässlich arbeiten. Ein wichtiger Test für diese Methoden, der gleichzeitig der Gewinnung neuer Erkenntnisse diente, war deren Anwendung auf Simulationen von zu schwarzen Löchern kollabierenden, rotierenden Sternen. Der Erfolg, diese Simulationen ohne Probleme mit den erwähnten Methoden durchzuführen, war ein wichtiger Schritt zu Simulationen gemischter Binärsysteme. Für Computersimulationen sind Anfangsdaten notwendig, die das gewünschte Problem beschreiben. Die Erstellung solcher Anfangsdaten ist jedoch unter Benutzung der allgemeinen Relativitätstheorie ausser in Spezialfällen sehr komplex. Wir zeigen, wie man einen schon vorhandenen Algorithmus für Anfangsdaten für zwei schwarze Löcher ändern kann, um Anfangsdaten für ein gemischtes Binärsystem zu erhalten. Diese Anfangsdaten wurden für Simulationen eines gemischten Binärsystems benutzt. Während dieser Simulationen traten mehrere Probleme auf. Zwei dieser Probleme waren numerische Instabilitäten unterschiedlicher Herkunft. Beide konnten jedoch mit angepasst starker Dissipation (der künstliche Entnahme von hochfrequenter Energie aus dem System) unterdrückt werden. Ein weiteres Problem war die erwartete Bewegung des schwarzen Lochs in Richtung des Neutronensterns. Da ein Teil des Simulationsgebietes innerhalb des schwarzen Lochs ausgeschnitten wird und das verwendete Programm bewegte Ausschneidegebiete nicht behandeln kann, darf sich das schwarze Loch jedoch auf dem Gitter kaum bewegen. Wir haben dieses Problem durch eine an das Problem angepasste Eichbedingung gelöst, die auf Bewegungen des scheinbaren Horizons reagiert und die Position des schwarzen Lochs auf diese Weise nahezu konstant hält. Die Methoden und Simulationen dieser Arbeit sind nur der Anfangspunkt einer ausführlichen Studie von Binärsystemen eines schwarzen Lochs und eines Neutronensterns. Bessere Methoden, Modelle und Simulationen mit höherer Auflösung und besser an das System angepassten Koordinaten werden Mittelpunkt zukünftiger Arbeit sein. Es wird erwartet, dass solche detailierten Studien Erkenntnisse über die abgestrahlten Gravitationswellen liefern, die gerade in Hinblick auf die neuen Gravitationswellendetektoren wichtig sind. Weiterhin könnten diese Simulationen dabei helfen, die Prozesse, die kurze Gammastrahlungsblitze hervorrufen, und über die im Moment kaum etwas bekannt ist, aufzuklären. KW - Relativistische Astrophysik KW - Neutronensterne KW - schwarze Löcher KW - neutron stars KW - black holes Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7743 ER - TY - THES A1 - Gruner, David T1 - New frontiers in gyrochronology T1 - Neue Horizonte in Gyrochronologie BT - exploring the evolution of stellar rotation in open clusters and wide binaries BT - eine Untersuchung der Entwicklung von Sternrotation in offenen Sternhaufen und weiten Doppelsternsystemen N2 - Late-type stars are by far the most frequent stars in the universe and of fundamental interest to various fields of astronomy – most notably to Galactic archaeology and exoplanet research. However, such stars barely change during their main sequence lifetime; their temperature, luminosity, or chemical composition evolve only very slowly over the course of billions of years. As such, it is difficult to obtain the age of such a star, especially when it is isolated and no other indications (like cluster association) can be used. Gyrochronology offers a way to overcome this problem. Stars, just like all other objects in the universe, rotate and the rate at which stars rotate impacts many aspects of their appearance and evolution. Gyrochronology leverages the observed rotation rate of a late-type main sequence star and its systematic evolution to estimate their ages. Unlike the above-mentioned parameters, the rotation rate of a main sequence star changes drastically throughout its main sequence lifetime; stars spin down. The youngest stars rotate every few hours, whereas much older stars rotate only about once a month, or – in the case of some late M-stars – once in a hundred days. Given that this spindown is systematic (with an additional mass dependence), it gave rise to the idea of using the observed rotation rate of a star (and its mass or a suitable proxy thereof) to estimate a star’s age. This has been explored widely in young stellar open clusters but remains essentially unconstrained for stars older than the sun, and K and M stars older than 1 Gyr. This thesis focuses on the continued exploration of the spindown behavior to assess, whether gyrochronology remains applicable for stars of old ages, whether it is universal for late-type main sequence stars (including field stars), and to provide calibration mileposts for spindown models. To accomplish this, I have analyzed data from Kepler space telescope for the open clusters Ruprecht 147 (2.7 Gyr old) and M 67 (4 Gyr). Time series photometry data (light curves) were obtained for both clusters during Kepler’s K2 mission. However, due to technical limitations and telescope malfunctions, extracting usable data from the K2 mission to identify (especially long) rotation periods requires extensive data preparation. For Ruprecht 147, I have compiled a list of about 300 cluster members from the literature and adopted preprocessed light curves from the Kepler archive where available. They have been cleaned of the gravest of data artifacts but still contained systematics. After correcting them for said artifacts, I was able to identify rotation periods in 31 of them. For M 67 more effort was taken. My work on Ruprecht 147 has shown the limitations imposed by the preselection of Kepler targets. Therefore, I adopted the time series full frame image directly and performed photometry on a much higher spatial resolution to be able to obtain data for as many stars as possible. This also means that I had to deal with the ubiquitous artifacts in Kepler data. For that, I devised a method that correlates the artificial flux variations with the ongoing drift of the telescope pointing in order to remove it. This process was a large success and I was able to create light curves whose quality match and even exceede those that were created by the Kepler mission – all while operating on higher spatial resolution and processing fainter stars. Ultimately, I was able to identify signs of periodic variability in the (created) light curves for 31 and 47 stars in Ruprecht 147 and M 67, respectively. My data connect well to bluer stars of cluster of the same age and extend for the first time to stars redder than early-K and older than 1 Gyr. The cluster data show a clear flattening in the distribution of Ruprecht 147 and even a downturn for M 67, resulting in a somewhat sinusoidal shape. With that, I have shown that the systematic spindown of stars continues at least until 4 Gyr and stars continue to live on a single surface in age-rotation periods-mass space which allows gyrochronology to be used at least up to that age. However, the shape of the spindown – as exemplified by the newly discovered sinusoidal shape of the cluster sequence – deviates strongly from the expectations. I then compiled an extensive sample of rotation data in open clusters – very much including my own work – and used the resulting cluster skeleton (with each cluster forming a rip in color-rotation period-mass space) to investigate if field stars follow the same spindown as cluster stars. For the field stars, I used wide binaries, which – with their shared origin and coevality – are in a sense the smallest possible open clusters. I devised an empirical method to evaluate the consistency between the rotation rates of the wide binary components and found that the vast majority of them are in fact consistent with what is observed in open clusters. This leads me to conclude that gyrochronology – calibrated on open clusters – can be applied to determine the ages of field stars. N2 - Sterne mit späten Spektraltypen sind mit Abstand die Häufigsten im Universum und von großem Interesse für verschiedene Bereiche der Astronomie. Dabei sind insbesondere galaktische Archäologie und die Erforschung von Exoplanten zu nennen. Das Problem ist jedoch, dass sich diese Sterne nur sehr langsam entwickeln; ihre Temperatur, Helligkeit und chemische Zusammensetzung ändern kaum während ihrer langen Hauptreihenphase. Daher ist es schwierig für solche Sterne ein Alter zu bestimmen – vorallem wenn sie isoliert sind und es keine anderne Indikatoren (z.B. die Zugehörigkeit zu einem Sternhaufen) gibt. Eine Möglichkeit dieses Problem zu umgehen ist Gyrochronologie. Sterne, wie alle anderen Objekte im Universum, rotieren und die Rate, mit der sie rotieren, beeinflusst viele Aspekte ihrer Evolution. Gyrochronologie nutzt die beobachtete Rotation und ihre Änderung mit der Zeit als ein Mittel zur Altersbestimmung. Anders als zuvor genannte Parameter ändert sich die Rate, mit der Sterne rotieren, deutlich im Laufe ihrer Hauptreihenentwicklung. Sie verlangsamt sich. Junge Sterne rotieren in wenigen Stunden einmal um sich selbst – ältere brauchen dafür schon einen Monat oder gar bis zu über hundert Tage. Die Tatsache, dass das Abbremsen systematischen Gesetzmäßigkeiten unterliegt, gebar die Idee dies zu nutzen um das Alter eines Sternes zu bestimmen. Das Verhalten junger Sterne wurde ausführlich erfoscht, jedoch für die meisten Sterne älter als 1 Gyr nicht bekannt, wie sich die Rotationsraten entwickeln. Diese Arbeit fokussiert sich auf die fortgesetzte Erforschung des Abbremsens; insbesondere ob Gyrochronologie auch für ältere Sterne nutzbar ist, ob es universell für alle Sterne (inklusive Feldsterne) ist und darauf weitere Kalibrationspunkte für Abbrems-Modelle bereitzustellen. Dafür habe ich, basierend auf photometrischen Zeitserien (Lichtkurven) von Keplers K2 Programm, die offenen Sternhaufen Ruprecht 147 (2.7 Gyr alt) and M 67 (4 Gyr) untersucht. Es sind jedoch umfangreiche Schritte in der Datenverarbeitung notwendig um Fehlfunktionen und technischen Limitationen des Teleskops zu begegnen. Für Ruprecht 147 habe ich aus Literaturdaten eine Liste von 300 Haufen-zugehörigen Sternen erstellt und mit fertigreduzierte Lichtkurven aus dem Kepler Archiv kombiniert. Die gröbsten Datensystematiken wurden in diesen bereinigt, denoch sind problematische Artefakte weiterhin vorhanden. Die Arbeit an Ruprecht 147 hat die Limitationen von archivierten Kepler Daten gezeigt. Daher wurde für M 67 mehr Aufwand betrieben. Direkt basierend auf den photometrischen Auffnahmen habe ich eigene Lichtkurven erzeugt, was eine deutlich höhere räumliche Auflösung erlaubt hat. Das hieß jedoch auch, dass ich mich mit all Systematiken in Kepler Daten befassen musste. Dafür habe ich eine Methodik konzipiert, die die künstlichen Variation im aufgezeichneten Fluss mit der Position eines Sterns auf dem Detektor korreliert und daraus eine Korrektur bestimmt. Dieser Prozess war so erfolgreich, dass ich Lichtkurven kreiert habe, die in ihrer Qualität an die archivierten Daten heran kommen oder sie gar übersteigen. Nach entsprechender Korrektur der Artefakte konnte ich Rotationsperioden für 31 (in Ruprecht 147) und 47 (in M 67) Sterne identifizieren. Genau wie zuvor in jüngeren Sternhaufen gesehen, folgen auch die äelteren Sternhaufen einer klaren Sequenz im Farb-Rotations-Raum. Meine Daten schließen direkt an Ergebnisse gleichaltriger Haufen an und erweitern diese zum ersten Mal zu Sternen älter als 1 Gyr und röter als frühe K-Sterne. Meine Ergebnisse zeigen eine deutliche Abweichung von der erwarteten Entwicklung, verkörpert durch eine klare Abflachung der Sequenz für Ruprecht 147, die für M 67 eine sinusförmige Struktur annimmt. Dennoch konnte ich damit zeigen, dass sich das systematische Abbremsen der Rotation von Sterne auch bis 4 Gyr fortsetzt und Sterne sich weiterhin auf eine wohldefinierten Ebene im Farb-Rotations-Alters-Raum befinden. Das heißt auch, Gyrochronologie kann mindestens für bis zu 4 Gyr alte Sterne genutzt werden. Basierend auf meinen eigenen Ergebnissen und Literaturdaten für jüngere Sternhaufen habe ich einen Vergleich mit Feldsternen durchgeführt. Die Feldsterne für diesen Vergleich entstammen weiten Doppelsternsystemen. Deren gemeinsamer Ursprung erlaubt eine Evaluierung der inneren Konsistenz beider Sterne. Mein Vergleich hat gezeigt, dass Doppelsternsysteme mit sich selbst aber auch mit den Sternhaufen konsistent sind. Ich habe damit erstmalig gezeigt, dass sich die Rotation von Feldsternen und Haufensternen gleich entwickelt. In Konsequenz bedeutet dies auch, dass Gyrochronologie angewandt werden kann, um das Alter von Feldsternen zu bestimmen. KW - Gyrochronologie KW - gyrochronology KW - spindown KW - rotation KW - Rotation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615268 ER - TY - CHAP A1 - Votruba, V. A1 - Feldmeier, Achim A1 - Kubát, Jiří A1 - Rätzel, D. T1 - Multicomponent stellar wind of hot stars N2 - We developed a time-dependent multicomponent hydrodynamical code for simulation of the stellar wind from hot stars and applied it to stars with high and low density winds. Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-17677 ER - TY - JOUR A1 - Mientus, Lukas A1 - Hume, Anne A1 - Wulff, Peter A1 - Meiners, Antoinette A1 - Borowski, Andreas T1 - Modelling STEM teachers’ pedagogical content knowledge in the framework of the refined consensus model BT - A systematic literature review JF - Education Sciences : open access journal N2 - Science education researchers have developed a refined understanding of the structure of science teachers’ pedagogical content knowledge (PCK), but how to develop applicable and situation-adequate PCK remains largely unclear. A potential problem lies in the diverse conceptualisations of the PCK used in PCK research. This study sought to systematize existing science education research on PCK through the lens of the recently proposed refined consensus model (RCM) of PCK. In this review, the studies’ approaches to investigating PCK and selected findings were characterised and synthesised as an overview comparing research before and after the publication of the RCM. We found that the studies largely employed a qualitative case-study methodology that included specific PCK models and tools. However, in recent years, the studies focused increasingly on quantitative aspects. Furthermore, results of the reviewed studies can mostly be integrated into the RCM. We argue that the RCM can function as a meaningful theoretical lens for conceptualizing links between teaching practice and PCK development by proposing pedagogical reasoning as a mechanism and/or explanation for PCK development in the context of teaching practice. KW - pedagogical content knowledge (PCK) KW - refined consensus model (RCM) KW - pedagogical reasoning KW - teaching practice KW - science teaching KW - literature review Y1 - 2022 U6 - https://doi.org/10.3390/educsci12060385 SN - 2227-7102 VL - 12 SP - 1 EP - 25 PB - MDPI CY - Basel, Schweiz ET - 6 ER - TY - THES A1 - Robinson, Alexander T1 - Modeling the Greenland Ice Sheet response to climate change in the past and future T1 - Modellierung der Reaktion des Grönländischen Inlandeises auf den vergangenen und zukünftigen Klimawandel N2 - The Greenland Ice Sheet (GIS) contains enough water volume to raise global sea level by over 7 meters. It is a relic of past glacial climates that could be strongly affected by a warming world. Several studies have been performed to investigate the sensitivity of the ice sheet to changes in climate, but large uncertainties in its long-term response still exist. In this thesis, a new approach has been developed and applied to modeling the GIS response to climate change. The advantages compared to previous approaches are (i) that it can be applied over a wide range of climatic scenarios (both in the deep past and the future), (ii) that it includes the relevant feedback processes between the climate and the ice sheet and (iii) that it is highly computationally efficient, allowing simulations over very long timescales. The new regional energy-moisture balance model (REMBO) has been developed to model the climate and surface mass balance over Greenland and it represents an improvement compared to conventional approaches in modeling present-day conditions. Furthermore, the evolution of the GIS has been simulated over the last glacial cycle using an ensemble of model versions. The model performance has been validated against field observations of the present-day climate and surface mass balance, as well as paleo information from ice cores. The GIS contribution to sea level rise during the last interglacial is estimated to be between 0.5-4.1 m, consistent with previous estimates. The ensemble of model versions has been constrained to those that are consistent with the data, and a range of valid parameter values has been defined, allowing quantification of the uncertainty and sensitivity of the modeling approach. Using the constrained model ensemble, the sensitivity of the GIS to long-term climate change was investigated. It was found that the GIS exhibits hysteresis behavior (i.e., it is multi-stable under certain conditions), and that a temperature threshold exists above which the ice sheet transitions to an essentially ice-free state. The threshold in the global temperature is estimated to be in the range of 1.3-2.3°C above preindustrial conditions, significantly lower than previously believed. The timescale of total melt scales non-linearly with the overshoot above the temperature threshold, such that a 2°C anomaly causes the ice sheet to melt in ca. 50,000 years, but an anomaly of 6°C will melt the ice sheet in less than 4,000 years. The meltback of the ice sheet was found to become irreversible after a fraction of the ice sheet is already lost – but this level of irreversibility also depends on the temperature anomaly. N2 - Das grönländische Inlandeis (GIS) besteht aus einem Wasservolumen das ausreicht, um den globalen Meeresspiegel um 7 Meter ansteigen zu lassen. Es ist ein Relikt der vergangenen Eiszeit, das in einer zunehmend wärmer werdenden Welt stark in Mitleidenschaft gezogen werden könnte. In der vorliegenden Dissertation ist ein neues Verfahren zur Modellierung des Antwortverhaltens des Inlandeises auf Klimaänderungen entwickelt und angewendet worden. Die Vorteile des neuen Verfahrens im Vergleich zu den bisherigen Verfahren sind, (i) dass es über einen groen Bereich von Klimaszenarien (sowohl für die ferne Vergangenheit als auch für die Zukunft) anwendbar ist, (ii) dass es die wesentlichen Rückkopplungsprozesse zwischen Klima und Inlandeis enthält und (iii) dass es wegen seiner guten Rechenzeiteffizienz Simulationen über sehr lange Zeitskalen erlaubt. Das neue Modell (REMBO) ist für die Modellierung des Klimas und der Massenbilanz an der grönländischen Oberfläche entwickelt worden und stellt ein verbessertes Verfahren im Vergleich zu den bisherigen dar. Die Entwicklung von GIS über den letzten glazialen Zyklus ist mittels eines Ensembles von verschiedenen Modellversionen simuliert worden. Anschließend ist die Tauglichkeit der Modellversionen durch Vergleich mit Beobachtungsdaten des gegenwärtigen Klimas und der Oberflächenmassenbilanz, sowie mit paleoklimatischen Rekonstruktionen von Eisbohrkernen verifiziert worden. Der Anteil von GIS am Meeresspiegelanstieg während des letzten Interglazials ist im Bereich von 0.5 bis 4.1 m berechnet worden, was konsistent mit bisherigen Schätzungen ist. Von den Ensemblesimulationen sind diejenigen ausgewählt worden, deren Ergebnisse gut mit den Daten übereinstimmen. Durch die Auswahl von geeigneten Modellversionen sind gleichzeitig die Unsicherheiten der Parameterwerte begrenzt worden, so dass sich nun mit dem neuen Verfahren die Sensitivität von GIS auf Klimaänderungen bestimmen lässt. Mit den ausgewählten Modellversionen ist die Sensitivität von GIS auf langfristige Klimaänderungen untersucht worden. Es zeigt sich, dass das GIS ein Hystereseverhalten besitzt (d.h., eine Multistabilität für gewisse Klimazustände) und dass ein Temperaturschwellwert existiert. Bei Überschreiten des Schwellwertes bleibt das GIS nicht erhalten und wird langsam eisfrei werden. Der Temperaturschwellwert der globalen Mitteltemperatur relativ zur vorindustriellen Mitteltemperatur ist im Bereich 1.3-2.3°C ermittelt worden und liegt damit deutlich niedriger als bisher angenommen. Die Zeitdauer bis zum völligen Abschmelzen zeigt ein nichtlineares Verhalten hinsichtlich einer Erwärmung über den ermittelten Schwellwert. Eine Erwärmung von 2°C relativ zur vorindustriellen Zeit führt zu einem Abschmelzen nach 50.000 Jahren, aber eine Erwärmung um 6°C lässt das Inlandeis bereits nach 4.000 Jahren abschmelzen. Ein weiteres Ergebnis ist, dass der Abschmelzvorgang irreversibel werden kann, nachdem ein gewisser Anteil des Inlandeises abgeschmolzen ist – jedoch ist die Irreversibilität eines Abschmelzvorganges auch von der Temperaturanomalie abhängig. KW - Grönland KW - Inlandeis KW - Klimawandel KW - Stabilität KW - Hysterese KW - Greenland KW - ice sheet KW - climate change KW - stability KW - hysteresis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50430 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Littmann, Daniela-Christin T1 - Large eddy simulations of the Arctic boundary layer around the MOSAiC drift track T1 - Large-Eddy-Simulationen der arktischen Grenzschicht um die MOSAiC-Driftroute N2 - The icosahedral non-hydrostatic large eddy model (ICON-LEM) was applied around the drift track of the Multidisciplinary Observatory Study of the Arctic (MOSAiC) in 2019 and 2020. The model was set up with horizontal grid-scales between 100m and 800m on areas with radii of 17.5km and 140 km. At its lateral boundaries, the model was driven by analysis data from the German Weather Service (DWD), downscaled by ICON in limited area mode (ICON-LAM) with horizontal grid-scale of 3 km. The aim of this thesis was the investigation of the atmospheric boundary layer near the surface in the central Arctic during polar winter with a high-resolution mesoscale model. The default settings in ICON-LEM prevent the model from representing the exchange processes in the Arctic boundary layer in accordance to the MOSAiC observations. The implemented sea-ice scheme in ICON does not include a snow layer on sea-ice, which causes a too slow response of the sea-ice surface temperature to atmospheric changes. To allow the sea-ice surface to respond faster to changes in the atmosphere, the implemented sea-ice parameterization in ICON was extended with an adapted heat capacity term. The adapted sea-ice parameterization resulted in better agreement with the MOSAiC observations. However, the sea-ice surface temperature in the model is generally lower than observed due to biases in the downwelling long-wave radiation and the lack of complex surface structures, like leads. The large eddy resolving turbulence closure yielded a better representation of the lower boundary layer under strongly stable stratification than the non-eddy-resolving turbulence closure. Furthermore, the integration of leads into the sea-ice surface reduced the overestimation of the sensible heat flux for different weather conditions. The results of this work help to better understand boundary layer processes in the central Arctic during the polar night. High-resolving mesoscale simulations are able to represent temporally and spatially small interactions and help to further develop parameterizations also for the application in regional and global models. N2 - Das icosahedral non-hydrostatische large eddy model (ICON-LEM) wurde entlang des Driftweges des Multidisciplinary Observatory Study of the Arctic (MOSAiC) in 2019 und 20 angewendet. Das Modell nutzte horizontale Gitterauflösungen zwischen 100m und 800m auf Gebieten mit Durchmessern von 17.5km und 140 km. An den seitlichen Rändern wurde das Modell mit Analysedaten des Deutschen Wetterdienstes (DWD) angetrieben, welche mit ICON im limited area mode (ICON-LAM) mit einer horizontalen Auflösung von 3km herunterskaliert wurden. Ziel dieser Arbeit war es, die flache atmosphärische Grenzschicht in der zentralen Arktis während des polaren Winters mit einem hochauflösenden mesoskaligen Modell zu untersuchen. Die standardmäßigen Einstellungen in ICON-LEM machen es dem Modell unmöglich, die wechselwirkenden Austauschprozesse in der arktischen Grenzschicht gemäß der MOSAiC Beobachtungen abzubilden. Das implementierte Meereis-Schema in ICON beinhaltet keine Schneeschicht auf dem Meereis, was eine zu große Verzögerung der Meereisoberflächentemperatur auf atmosphärische Veränderungen bewirkt. Um die Meereisfläche schneller auf Änderungen in der Atmosphäre reagieren lassen zu können, wurde die bestehende Meereisparameterisierung in ICON um einen angepasstenWärmekapazitätsterm erweitert. Die angepasste Meereis-Parameterisierung stimmte besser mit den MOSAiC Beobachtungen überein. Allerdings ist die Meereisoberflächentemperatur im Modell aufgrund der fehlerbehafteten einfallenden, langwelligen Strahlung und dem Fehlen komplexer Oberflächenstrukturen im Meereis generell niedriger als beobachtet. Die groß-wirbellige Turbulenz-Schliessung wird der Darstellung der unteren Grenschicht während starker stabiler Schichtung besser gerecht als die Nicht-Wirbel-auflösende Turbulenz-Schließung. Desweiteren reduzierte die Integration der Risse in der Meereisoberfläche die Abweichung der sensiblen Wärme für verschiedene Wetterzustände. Die Ergebnisse dieser Arbeit helfen die Grenzschicht-Prozesse in der zentralen Arktis während der polaren Nacht besser zu verstehen. Hochauflösende mesoskalige Simulationen ermöglichen die Repräsentation zeitlicher und räumlicher klein-skaliger Wechselwirkungen und bestehende Parametrisierungen auch für regionale und globale Modelle weiterzuentwickeln. KW - Arctic KW - atmosphere KW - atmospheric science KW - high resolution KW - boundary layer KW - stable stratification KW - heat flux KW - heat capacity KW - Arktis KW - Atmosphäre KW - Atmosphärenforschung KW - hohe Auflösung KW - Grenzschicht KW - stabile Schichtung KW - Wärmefluss KW - Wärmekapazität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624374 ER - TY - JOUR A1 - Wulff, Peter A1 - Mientus, Lukas A1 - Nowak, Anna A1 - Borowski, Andreas T1 - KI-basierte Auswertung von schriftlichen Unterrichtsreflexionen im Fach Physik und automatisierte Rückmeldung JF - PSI-Potsdam: Ergebnisbericht zu den Aktivitäten im Rahmen der Qualitätsoffensive Lehrerbildung (2019-2023) (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 3) N2 - Für die Entwicklung professioneller Handlungskompetenzen angehender Lehrkräfte stellt die Unterrichtsreflexion ein wichtiges Instrument dar, um Theoriewissen und Praxiserfahrungen in Beziehung zu setzen. Die Auswertung von Unterrichtsreflexionen und eine entsprechende Rückmeldung stellt Forschende und Dozierende allerdings vor praktische wie theoretische Herausforderungen. Im Kontext der Forschung zu Künstlicher Intelligenz (KI) entwickelte Methoden bieten hier neue Potenziale. Der Beitrag stellt überblicksartig zwei Teilstudien vor, die mit Hilfe von KI-Methoden wie dem maschinellen Lernen untersuchen, inwieweit eine Auswertung von Unterrichtsreflexionen angehender Physiklehrkräfte auf Basis eines theoretisch abgeleiteten Reflexionsmodells und die automatisierte Rückmeldung hierzu möglich sind. Dabei wurden unterschiedliche Ansätze des maschinellen Lernens verwendet, um modellbasierte Klassifikation und Exploration von Themen in Unterrichtsreflexionen umzusetzen. Die Genauigkeit der Ergebnisse wurde vor allem durch sog. Große Sprachmodelle gesteigert, die auch den Transfer auf andere Standorte und Fächer ermöglichen. Für die fachdidaktische Forschung bedeuten sie jedoch wiederum neue Herausforderungen, wie etwa systematische Verzerrungen und Intransparenz von Entscheidungen. Dennoch empfehlen wir, die Potenziale der KI-basierten Methoden gründlicher zu erforschen und konsequent in der Praxis (etwa in Form von Webanwendungen) zu implementieren. N2 - For the development of professional competencies in pre-service teachers, reflection on teaching experiences is proposed as an important tool to link theoretical knowledge and practice. However, evaluating reflections and providing appropriate feedback poses challenges of both theoretical and practical nature to researchers and educators. Methods associated with artificial intelligence research offer new potentials to discover patterns in complex datasets like reflections, as well as to evaluate these automatically and create feedback. In this article, we provide an overview of two sub-studies that investigate, using artificial intelligence methods such as machine learning, to what extent an evaluation of reflections of pre-service physics teachers based on a theoretically derived reflection model and automated feedback are possible. Across the sub-studies, different machine learning approaches were used to implement model-based classification and exploration of topics in reflections. Large language models in particular increase the accuracy of the results and allow for transfer to other locations and disciplines. However, entirely new challenges arise for educational research in relation to large language models, such as systematic biases and lack of transparency in decisions. Despite these uncertainties, we recommend further exploring the potentials of artificial intelligence-based methods and implementing them consistently in practice (for example, in the form of web applications). KW - Künstliche Intelligenz KW - Maschinelles Lernen KW - Natural Language Processing KW - Reflexion KW - Professionalisierung KW - artificial intelligence KW - machine learning KW - natural language processing KW - reflexion KW - professionalization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-616363 SN - 978-3-86956-568-2 SN - 2626-3556 SN - 2626-4722 IS - 3 SP - 103 EP - 115 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Teichmann, Erik A1 - Lewandowski, Heather J. A1 - Alemani, Micol T1 - Investigating students’ views of experimental physics in German laboratory classes JF - Physical Review Physics Education Research N2 - There is a large variety of goals instructors have for laboratory courses, with different courses focusing on different subsets of goals. An often implicit, but crucial, goal is to develop students’ attitudes, views, and expectations about experimental physics to align with practicing experimental physicists. The assessment of laboratory courses upon this one dimension of learning has been intensively studied in U.S. institutions using the Colorado Learning Attitudes about Science Survey for Experimental Physics (E-CLASS). However, there is no such an instrument available to use in Germany, and the influence of laboratory courses on students views about the nature of experimental physics is still unexplored at German-speaking institutions. Motivated by the lack of an assessment tool to investigate this goal in laboratory courses at German-speaking institutions, we present a translated version of the E-CLASS adapted to the context at German-speaking institutions. We call the German version of the E-CLASS, the GE-CLASS. We describe the translation process and the creation of an automated web-based system for instructors to assess their laboratory courses. We also present first results using GE-CLASS obtained at the University of Potsdam. A first comparison between E-CLASS and GE-CLASS results shows clear differences between University of Potsdam and U.S. students’ views and beliefs about experimental physics. Y1 - 2022 U6 - https://doi.org/10.1103/PhysRevPhysEducRes.18.010135 SN - 1554-9178 VL - 18 SP - 010135-1 EP - 010135-17 PB - APS CY - College Park, Maryland, United States ET - 1 ER - TY - THES A1 - Prevot, Michelle Elizabeth T1 - Introduction of a thermo-sensitive non-polar species into polyelectrolyte multilayer capsules for drug delivery T1 - Einbettung unpolarer, temperaturempfindlicher Substanzen in Polyelektrolytkapselsysteme zur Wirkstofffreisetzung N2 - The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest. N2 - Verkapselung ist ein vielseitiges Werkzeug, das zum Schutz und zum Transport von Molekülen ebenso eingesetzt werden kann, wie zur Verbindung von Reaktionspartnern in einem gemeinsamen, von der Umgebung abgeschirmten Raum. Es basiert auf einem einfachen Vorbild der Natur. Pflanzen schützen ihren Samen zum Beispiel durch eine harte, nahezu undurchdringbare Schale (Nüsse) oder durch eine selektiv durchlässige Hülle, wie bei Weizen, der sobald er feucht wird zu keimen beginnt. Die Natur setzt durch den Einsatz des Hülle-Kern Prinzips sehr effizient die Kontrolle über Durchlässigkeit und Anpassung an bestimmte Aufgaben um. Wird das Hülle-Kern-Prinzip zum Schutz oder Transport von Molekülen eingesetzt, so sind die zu verwendenden Kapseln nur wenige Mikrometer groß. Sie werden dann als Mikrokapseln bezeichnet. Zur Erzeugung dieser Mikrokapseln werden verschiedene Methoden verwendet. Der heute übliche Weg geht von einer ca. 5-10 Mikrometer großen Kugel (Kern) aus, die mit einer stabilen und an die gewünschten Eigenschaften angepassten Schicht von wenigen Nanometern versehen wird. Im Anschluss wird der Kern herausgelöst und eine hohle, stabile Kapsel erhalten. Schichten von wenigen Nanometern Dicke können aus Polyelektrolyten durch das Layer-by-Layer-Verfahren (LbL) hergestellt werden. Dieses Verfahren eignet sich auf Grund seiner vielen Anpassungsmöglichkeiten besonders zum Aufbau der Schichten für Mikrokapseln, da sich die Eigenschaften der Beschichtung bereits beim Aufbau der Schicht auf die Bedürfnisse maßschneidern lassen. Diese Arbeit befasst sich mit der Erzeugung von Mikrokapseln, deren Eigenschaften temperaturabhängig sind. Dies wurde auf zwei Wegen erreicht. Zum einen wurden Kapseln aus Polyelektrolyten und Wachs aufgebaut. Bei Temperaturerhöhung schmilzt das Wachs und versiegelt die Kapsel. Zum anderen werden Kapseln mit einem Wärme empfindlichen Polymer gefüllt. Bei Temperaturerhöhung kollabiert das Polymergerüst. Der enthaltene Wirkstoff wird freigesetzt. KW - Mikrokapsel KW - Polyelektrolyt KW - Mehrschichtsysteme KW - Polyelectrolyte KW - Multilayers KW - Capsule Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7785 ER - TY - THES A1 - Münch, Thomas T1 - Interpretation of temperature signals from ice cores T1 - Interpretation von Temperatursignalen aus Eisbohrkernen BT - insights into the spatial and temporal variability of water isotopes in Antarctica BT - Einblicke in die räumliche und zeitliche Variabilität antarktischer Isotopendaten N2 - Earth's climate varies continuously across space and time, but humankind has witnessed only a small snapshot of its entire history, and instrumentally documented it for a mere 200 years. Our knowledge of past climate changes is therefore almost exclusively based on indirect proxy data, i.e. on indicators which are sensitive to changes in climatic variables and stored in environmental archives. Extracting the data from these archives allows retrieval of the information from earlier times. Obtaining accurate proxy information is a key means to test model predictions of the past climate, and only after such validation can the models be used to reliably forecast future changes in our warming world. The polar ice sheets of Greenland and Antarctica are one major climate archive, which record information about local air temperatures by means of the isotopic composition of the water molecules embedded in the ice. However, this temperature proxy is, as any indirect climate data, not a perfect recorder of past climatic variations. Apart from local air temperatures, a multitude of other processes affect the mean and variability of the isotopic data, which hinders their direct interpretation in terms of climate variations. This applies especially to regions with little annual accumulation of snow, such as the Antarctic Plateau. While these areas in principle allow for the extraction of isotope records reaching far back in time, a strong corruption of the temperature signal originally encoded in the isotopic data of the snow is expected. This dissertation uses observational isotope data from Antarctica, focussing especially on the East Antarctic low-accumulation area around the Kohnen Station ice-core drilling site, together with statistical and physical methods, to improve our understanding of the spatial and temporal isotope variability across different scales, and thus to enhance the applicability of the proxy for estimating past temperature variability. The presented results lead to a quantitative explanation of the local-scale (1–500 m) spatial variability in the form of a statistical noise model, and reveal the main source of the temporal variability to be the mixture of a climatic seasonal cycle in temperature and the effect of diffusional smoothing acting on temporally uncorrelated noise. These findings put significant limits on the representativity of single isotope records in terms of local air temperature, and impact the interpretation of apparent cyclicalities in the records. Furthermore, to extend the analyses to larger scales, the timescale-dependency of observed Holocene isotope variability is studied. This offers a deeper understanding of the nature of the variations, and is crucial for unravelling the embedded true temperature variability over a wide range of timescales. N2 - Das Klima der Erde verändert sich stetig sowohl im Raum als auch in der Zeit, jedoch hat die Menschheit nur einen Bruchteil dieser Entwicklung direkt verfolgen können und erst seit 200 Jahren mit instrumentellen Beobachtungen aufgezeichnet. Unser Wissen bezüglich früherer Klimaveränderungen beruht daher fast ausschließlich auf indirekten Proxydaten, also Stellvertreterdaten, welche sensitiv auf Veränderungen in bestimmten Klimavariablen reagieren und in Klimaarchiven abgespeichert werden. Essentiell ist eine hohe Genauigkeit der erhaltenen Proxydaten. Sie erlaubt, Modellvorhersagen früherer Klimazustände quantitativ zu überprüfen und damit die Modelle zu validieren. Erst dann können mit Hilfe der Modelle verlässliche Aussagen über die anthropogen bedingten zukünftigen Klimaveränderungen getroffen werden. Die polaren Eisschilde von Grönland und Antarktika sind eines der wichtigsten Klimaarchive. Über die isotopische Zusammensetzung der im Eis eingelagerten Wassermoleküle zeichnen sie Veränderungen der lokalen Lufttemperatur auf. Jedoch stellen die Daten dieses Temperaturproxys keine perfekte Aufzeichnung früherer Klimaschwankungen dar – was im Übrigen für alle Proxydaten gilt –, da neben der Temperatur eine Fülle anderer Effekte Mittelwert und Varianz der Proxyschwankungen beeinflussen und damit die direkte Interpretation der Daten in Bezug auf klimatische Veränderungen beeinträchtigen. Insbesondere trifft dies auf Gebiete mit geringen jährlichen Schneefallmengen zu, wie z.B. das Polarplateau des antarktischen Kontinents. Diese Gebiete erlauben zwar prinzipiell die Gewinnung von Proxydatensätzen, die weit in die Vergangenheit zurückreichen, allerdings erwartet man im Allgemeinen auch eine starke Beeinträchtigung des ursprünglichen, in der isotopischen Zusammensetzung des Schnees eingeprägten Temperatursignals. Unter Verwendung von Beobachtungsdaten aus der Antarktis – hauptsächlich aus dem Niedrigakkumulationsgebiet von Dronning Maud Land in Ostantarktika, in dem auch die Kohnen-Station liegt –, sowie durch Anwendung statistischer und physikalischer Methoden, trägt diese Dissertation zu einem besseren Verständnis der räumlichen und zeitlichen Variabilität der Isotopendaten über einen weiten Skalenbereich bei. Damit verbessert die vorliegende Arbeit die Anwendbarkeit dieses Temperaturproxys in Bezug auf die Rekonstruktion natürlicher Klimavariabilität. Im Speziellen wird aus den Beobachtungsdaten ein statistisches Modell abgeleitet, welches quantitativ die lokale räumliche (1–500 m-Skala) Variabilität erklärt; des Weiteren wird gezeigt, dass die zeitliche Variabilität hauptsächlich bedingt wird durch die Kombination zweier Effekte: einen klimatischen Jahreszyklus angetrieben durch den Jahresgang der Temperatur, und die Wirkung des Diffusionsprozesses auf einen zeitlich unkorrelierten Rauschterm. Diese Resultate führen zum einen zu einer wesentlich eingegrenzten Abschätzung der Repräsentativität einzelner, isotopenbasierter Proxyzeitreihen in Bezug auf lokale Temperaturveränderungen. Zum anderen beeinflussen sie erheblich die Interpretation scheinbarer Periodizitäten im Isotopensignal. Es wird darüber hinaus vermutet, dass die Gesamtstärke des Rauschens im Isotopensignal nicht nur durch die örtliche Akkumulationsrate bestimmt wird, sondern auch durch andere Parameter wie die lokale mittlere Windstärke und die räumliche und zeitliche Kohärenz der Niederschlagswichtung. Schließlich erlaubt die Erweiterung der Analyse auf größere räumliche und zeitliche Skalen die Untersuchung, inwieweit die Variabilität isotopenbasierter Proxyzeitreihen aus dem Holozän von der Zeitskala abhängt. Dadurch wird ein tieferes Verständnis der Proxyvariabilität erzielt, welches grundlegend dafür ist, die tatsächliche, in den Daten einzelner Zeitreihen verdeckt vorhandene Temperaturvariabilität, über einen weiten Zeitskalenbereich zu entschlüsseln. KW - climate physics KW - temperature variability KW - temperature proxy KW - proxy understanding KW - proxy uncertainty KW - stable isotopes KW - isotope variations KW - ice core KW - firn KW - noise KW - post-depositional KW - two-dimensional KW - Antarctica KW - Dronning Maud Land KW - Kohnen KW - Klimaphysik KW - Klimavariabilität KW - Temperaturproxy KW - Proxyverständnis KW - Proxyunsicherheit KW - stabile Isotope KW - Eisbohrkern KW - Antarktis KW - Dronning Maud Land KW - Kohnen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414963 ER - TY - INPR A1 - Demircan, Ayhan A1 - Scheel, Stefan A1 - Seehafer, Norbert T1 - Heteroclinic behavior in rotating Rayleigh-Bénard convection N2 - We investigate numerically the appearance of heteroclinic behavior in a three-dimensional, buoyancy-driven fluid layer with stress-free top and bottom boundaries, a square horizontal periodicity with a small aspect ratio, and rotation at low to moderate rates about a vertical axis. The Prandtl number is 6.8. If the rotation is not too slow, the skewed-varicose instability leads from stationary rolls to a stationary mixed-mode solution, which in turn loses stability to a heteroclinic cycle formed by unstable roll states and connections between them. The unstable eigenvectors of these roll states are also of the skewed-varicose or mixed-mode type and in some parameter regions skewed-varicose like shearing oscillations as well as square patterns are involved in the cycle. Always present weak noise leads to irregular horizontal translations of the convection pattern and makes the dynamics chaotic, which is verified by calculating Lyapunov exponents. In the nonrotating case, the primary rolls lose, depending on the aspect ratio, stability to traveling waves or a stationary square pattern. We also study the symmetries of the solutions at the intermittent fixed points in the heteroclinic cycle. T3 - NLD Preprints - 55 Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14914 ER - TY - JOUR A1 - Smirnov, Lev A. A1 - Bolotov, Maxim A1 - Bolotov, Dmitri A1 - Osipov, Grigory V. A1 - Pikovsky, Arkady T1 - Finite-density-induced motility and turbulence of chimera solitons JF - New Journal of Physics N2 - We consider a one-dimensional oscillatory medium with a coupling through a diffusive linear field. In the limit of fast diffusion this setup reduces to the classical Kuramoto–Battogtokh model. We demonstrate that for a finite diffusion stable chimera solitons, namely localized synchronous domain in an infinite asynchronous environment, are possible. The solitons are stable also for finite density of oscillators, but in this case they sway with a nearly constant speed. This finite-density-induced motility disappears in the continuum limit, as the velocity of the solitons is inverse proportional to the density. A long-wave instability of the homogeneous asynchronous state causes soliton turbulence, which appears as a sequence of soliton mergings and creations. As the instability of the asynchronous state becomes stronger, this turbulence develops into a spatio-temporal intermittency. KW - chimera KW - soliton KW - finite-size effects Y1 - 2022 U6 - https://doi.org/10.1088/1367-2630/ac63d9 SN - 1367-2630 VL - 24 PB - IOP CY - London ER - TY - THES A1 - Miteva, Rositsa Stoycheva T1 - Electron acceleration at localized wave structures in the solar corona T1 - Elektronenbeschleunigung an lokalen Wellenstrukturen in der Sonnenkorona N2 - Our dynamic Sun manifests its activity by different phenomena: from the 11-year cyclic sunspot pattern to the unpredictable and violent explosions in the case of solar flares. During flares, a huge amount of the stored magnetic energy is suddenly released and a substantial part of this energy is carried by the energetic electrons, considered to be the source of the nonthermal radio and X-ray radiation. One of the most important and still open question in solar physics is how the electrons are accelerated up to high energies within (the observed in the radio emission) short time scales. Because the acceleration site is extremely small in spatial extent as well (compared to the solar radius), the electron acceleration is regarded as a local process. The search for localized wave structures in the solar corona that are able to accelerate electrons together with the theoretical and numerical description of the conditions and requirements for this process, is the aim of the dissertation. Two models of electron acceleration in the solar corona are proposed in the dissertation: I. Electron acceleration due to the solar jet interaction with the background coronal plasma (the jet--plasma interaction) A jet is formed when the newly reconnected and highly curved magnetic field lines are relaxed by shooting plasma away from the reconnection site. Such jets, as observed in soft X-rays with the Yohkoh satellite, are spatially and temporally associated with beams of nonthermal electrons (in terms of the so-called type III metric radio bursts) propagating through the corona. A model that attempts to give an explanation for such observational facts is developed here. Initially, the interaction of such jets with the background plasma leads to an (ion-acoustic) instability associated with growing of electrostatic fluctuations in time for certain range of the jet initial velocity. During this process, any test electron that happen to feel this electrostatic wave field is drawn to co-move with the wave, gaining energy from it. When the jet speed has a value greater or lower than the one, required by the instability range, such wave excitation cannot be sustained and the process of electron energization (acceleration and/or heating) ceases. Hence, the electrons can propagate further in the corona and be detected as type III radio burst, for example. II. Electron acceleration due to attached whistler waves in the upstream region of coronal shocks (the electron--whistler--shock interaction) Coronal shocks are also able to accelerate electrons, as observed by the so-called type II metric radio bursts (the radio signature of a shock wave in the corona). From in-situ observations in space, e.g., at shocks related to co-rotating interaction regions, it is known that nonthermal electrons are produced preferably at shocks with attached whistler wave packets in their upstream regions. Motivated by these observations and assuming that the physical processes at shocks are the same in the corona as in the interplanetary medium, a new model of electron acceleration at coronal shocks is presented in the dissertation, where the electrons are accelerated by their interaction with such whistlers. The protons inflowing toward the shock are reflected there by nearly conserving their magnetic moment, so that they get a substantial velocity gain in the case of a quasi-perpendicular shock geometry, i.e, the angle between the shock normal and the upstream magnetic field is in the range 50--80 degrees. The so-accelerated protons are able to excite whistler waves in a certain frequency range in the upstream region. When these whistlers (comprising the localized wave structure in this case) are formed, only the incoming electrons are now able to interact resonantly with them. But only a part of these electrons fulfill the the electron--whistler wave resonance condition. Due to such resonant interaction (i.e., of these electrons with the whistlers), the electrons are accelerated in the electric and magnetic wave field within just several whistler periods. While gaining energy from the whistler wave field, the electrons reach the shock front and, subsequently, a major part of them are reflected back into the upstream region, since the shock accompanied with a jump of the magnetic field acts as a magnetic mirror. Co-moving with the whistlers now, the reflected electrons are out of resonance and hence can propagate undisturbed into the far upstream region, where they are detected in terms of type II metric radio bursts. In summary, the kinetic energy of protons is transfered into electrons by the action of localized wave structures in both cases, i.e., at jets outflowing from the magnetic reconnection site and at shock waves in the corona. N2 - Die Sonne ist ein aktiver Stern, was sich nicht nur in den allseits bekannten Sonnenflecken, sondern auch in Flares manifestiert. Während Flares wird eine große Menge gespeicherter, magnetischer Energie in einer kurzen Zeit von einigen Sekunden bis zu wenigen Stunden in der Sonnenkorona freigesetzt. Dabei werden u.a. energiereiche Elektronen erzeugt, die ihrerseits nichtthermische Radio- und Röntgenstrahlung, wie sie z.B. am Observatorium für solare Radioastronomie des Astrophysikalischen Instituts Potsdam (AIP) in Tremsdorf und durch den NASA-Satelliten RHESSI beobachtet werden, erzeugen. Da diese Elektronen einen beträchtlichen Anteil der beim Flare freigesetzten Energie tragen, ist die Frage, wie Elektronen in kurzer Zeit auf hohe Energien in der Sonnenkorona beschleunigt werden, von generellem astrophysikalischen Interesse, da solche Prozesse auch in anderen Sternatmosphären und kosmischen Objekten, wie z.B. Supernova-Überresten, stattfinden. In der vorliegenden Dissertation wird die Elektronenbeschleunigung an lokalen Wellenstrukturen im Plasma der Sonnenkorona untersucht. Solche Wellen treten in der Umgebung der magnetischen Rekonnektion, die als ein wichtiger Auslöser von Flares angesehen wird, und in der Nähe von Stoßwellen, die infolge von Flares erzeugt werden, auf. Generell werden die Elektronen als Testteilchen behandelt. Sie werden durch ihre Wechselwirkung mit den elektrischen und magnetischen Feldern, die mit den Plasmawellen verbunden sind, beschleunigt. Infolge der magnetischen Rekonnektion als Grundlage des Flares werden starke Plasmaströmungen (sogenannte Jets) erzeugt. Solche Jets werden im Licht der weichen Röntgenstrahlung, wie z.B. durch den japanischen Satelliten YOHKOH, beobachtet. Mit solchen Jets sind solare Typ III Radiobursts als Signaturen von energiereichen Elektronenstrahlen in der Sonnenkorona verbunden. Durch die Wechselwirkung eines Jets mit dem umgebenden Plasma werden lokal elektrische Felder erzeugt, die ihrerseits Elektronen beschleunigen können. Dieses hier vorgestellte Szenarium kann sehr gut die Röntgen- und Radiobeobachtungen von Jets und den damit verbundenen Elektronenstrahlen erklären. An koronalen Stoßwellen, die infolge Flares entstehen, werden Elektronen beschleunigt, deren Signatur man in der solaren Radiostrahlung in Form von sogenannten Typ II Bursts beobachten kann. Stoßwellen in kosmischen Plasmen können mit Whistlerwellen (ein spezieller Typ von Plasmawellen) verbunden sein. In der vorliegenden Arbeit wird ein Szenarium vorgestellt, das aufzeigt, wie solche Whistlerwellen an koronalen Stoßwellen erzeugt werden und durch ihre resonante Wechselwirkung mit den Elektronen dieselben beschleunigen. Dieser Prozess ist effizienter als bisher vorgeschlagene Mechanismen und kann deshalb auch auf andere Stoßwellen im Kosmos, wie z.B. an Supernova-Überresten, zur Erklärung der dort erzeugten Radio- und Röntgenstrahlung dienen. KW - Elektronenbeschleunigung KW - Sonnenkorona KW - Jets KW - Stoßwellen KW - Nichtlineare Wellen KW - Electron acceleration KW - Solar corona KW - Jets KW - Shock waves KW - Nonlinear waves Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14775 ER - TY - JOUR A1 - Sarabadani, Jalal A1 - Metzler, Ralf A1 - Ala-Nissila, Tapio T1 - Driven polymer translocation into a channel: Isoflux tension propagation theory and Langevin dynamics simulations JF - Physical Review Research N2 - Isoflux tension propagation (IFTP) theory and Langevin dynamics (LD) simulations are employed to study the dynamics of channel-driven polymer translocation in which a polymer translocates into a narrow channel and the monomers in the channel experience a driving force fc. In the high driving force limit, regardless of the channel width, IFTP theory predicts τ ∝ f βc for the translocation time, where β = −1 is the force scaling exponent. Moreover, LD data show that for a very narrow channel fitting only a single file of monomers, the entropic force due to the subchain inside the channel does not play a significant role in the translocation dynamics and the force exponent β = −1 regardless of the force magnitude. As the channel width increases the number of possible spatial configurations of the subchain inside the channel becomes significant and the resulting entropic force causes the force exponent to drop below unity. Y1 - 2022 U6 - https://doi.org/10.1103/PhysRevResearch.4.033003 SN - 2643-1564 VL - 4 SP - 033003-1 EP - 033003-14 PB - American Physical Society CY - College Park, Maryland, USA ET - 3 ER - TY - JOUR A1 - Grebenkov, Denis S. A1 - Metzler, Ralf A1 - Oshanin, Gleb T1 - Distribution of first-reaction times with target regions on boundaries of shell-like domains JF - New Journal of Physics (NJP) N2 - We study the probability density function (PDF) of the first-reaction times between a diffusive ligand and a membrane-bound, immobile imperfect target region in a restricted 'onion-shell' geometry bounded by two nested membranes of arbitrary shapes. For such a setting, encountered in diverse molecular signal transduction pathways or in the narrow escape problem with additional steric constraints, we derive an exact spectral form of the PDF, as well as present its approximate form calculated by help of the so-called self-consistent approximation. For a particular case when the nested domains are concentric spheres, we get a fully explicit form of the approximated PDF, assess the accuracy of this approximation, and discuss various facets of the obtained distributions. Our results can be straightforwardly applied to describe the PDF of the terminal reaction event in multi-stage signal transduction processes. KW - diffusion KW - first-passage time KW - first-reaction time KW - shell-like geometries KW - approximate methods Y1 - 2021 U6 - https://doi.org/10.1088/1367-2630/ac4282 SN - 1367-2630 VL - 2021 SP - 1 EP - 23 PB - IOP Publishing CY - London ET - 23 ER - TY - THES A1 - Berger, Florian T1 - Different modes of cooperative transport by molecular motors T1 - Verschiedene Arten kooperativen Transportes mittels molekularer Motoren N2 - Cargo transport by molecular motors is ubiquitous in all eukaryotic cells and is typically driven cooperatively by several molecular motors, which may belong to one or several motor species like kinesin, dynein or myosin. These motor proteins transport cargos such as RNAs, protein complexes or organelles along filaments, from which they unbind after a finite run length. Understanding how these motors interact and how their movements are coordinated and regulated is a central and challenging problem in studies of intracellular transport. In this thesis, we describe a general theoretical framework for the analysis of such transport processes, which enables us to explain the behavior of intracellular cargos based on the transport properties of individual motors and their interactions. Motivated by recent in vitro experiments, we address two different modes of transport: unidirectional transport by two identical motors and cooperative transport by actively walking and passively diffusing motors. The case of cargo transport by two identical motors involves an elastic coupling between the motors that can reduce the motors’ velocity and/or the binding time to the filament. We show that this elastic coupling leads, in general, to four distinct transport regimes. In addition to a weak coupling regime, kinesin and dynein motors are found to exhibit a strong coupling and an enhanced unbinding regime, whereas myosin motors are predicted to attain a reduced velocity regime. All of these regimes, which we derive both by analytical calculations and by general time scale arguments, can be explored experimentally by varying the elastic coupling strength. In addition, using the time scale arguments, we explain why previous studies came to different conclusions about the effect and relevance of motor-motor interference. In this way, our theory provides a general and unifying framework for understanding the dynamical behavior of two elastically coupled molecular motors. The second mode of transport studied in this thesis is cargo transport by actively pulling and passively diffusing motors. Although these passive motors do not participate in active transport, they strongly enhance the overall cargo run length. When an active motor unbinds, the cargo is still tethered to the filament by the passive motors, giving the unbound motor the chance to rebind and continue its active walk. We develop a stochastic description for such cooperative behavior and explicitly derive the enhanced run length for a cargo transported by one actively pulling and one passively diffusing motor. We generalize our description to the case of several pulling and diffusing motors and find an exponential increase of the run length with the number of involved motors. N2 - Lastentransport mittels Motorproteinen ist ein grundlegender Mechanismus aller eukaryotischen Zellen und wird üblicherweise von mehreren Motoren kooperativ durchgeführt, die zu einer oder zu verschiedenen Motorarten wie Kinesin, Dynein oder Myosin gehören. Diese Motoren befördern Lasten wie zum Beispiel RNAs, Proteinkomplexe oder Organellen entlang Filamenten, von denen sie nach einer endlichen zurückgelegten Strecke abbinden. Es ist ein zentrales und herausforderndes Problem zu verstehen, wie diese Motoren wechselwirken und wie ihre Bewegungen koordiniert und reguliert werden. In der vorliegenden Arbeit wird eine allgemeine theoretische Herangehensweise zur Untersuchung solcher Transportprozesse beschrieben, die es uns ermöglicht, das Verhalten von intrazellularem Transport, ausgehend von den Transporteigenschaften einzelner Motoren und ihren Wechselwirkungen, zu verstehen. Wir befassen uns mit zwei Arten kooperativen Transports, die auch kürzlich in verschiedenen in vitro-Experimenten untersucht wurden: (i) gleichgerichteter Transport mit zwei identischen Motorproteinen und (ii) kooperativer Transport mit aktiv schreitenden und passiv diffundierenden Motoren. Beim Lastentransport mit zwei identischen Motoren sind die Motoren elastisch gekoppelt, was eine Verminderung ihrer Geschwindigkeit und/oder ihrer Bindezeit am Filament hervorrufen kann. Wir zeigen, dass solch eine elastische Kopplung im Allgemeinen zu vier verschiedenen Transportcharakteristiken führt. Zusätzlich zu einer schwachen Kopplung, können bei Kinesinen und Dyneinen eine starke Kopplung und ein verstärktes Abbinden auftreten, wohingegen bei Myosin Motoren eine verminderte Geschwindigkeit vorhergesagt wird. All diese Transportcharakteristiken, die wir mit Hilfe analytischer Rechnungen und Zeitskalenargumenten herleiten, können durch Änderung der elastischen Kopplung experimentell untersucht werden. Zusätzlich erklären wir anhand der Zeitskalenargumente, warum frühere Untersuchungen zu unterschiedlichen Erkenntnissen über die Auswirkung und die Wichtigkeit der gegenseitigen Beeinflussung der Motoren gelangt sind. Auf diese Art und Weise liefert unsere Theorie eine allgemeine und vereinheitlichende Beschreibung des dynamischen Verhaltens von zwei elastisch gekoppelten Motorproteinen. Die zweite Art von Transport, die in dieser Arbeit untersucht wird ist der Lastentransport durch aktiv ziehende und passiv diffundierende Motoren. Obwohl die passiven Motoren nicht zum aktiven Transport beitragen, verlängern sie stark die zurückgelegte Strecke auf dem Filament. Denn wenn ein aktiver Motor abbindet, wird das Lastteilchen immer noch am Filament durch den passiven Motor festgehalten, was dem abgebundenen Motor die Möglichkeit gibt, wieder an das Filament anzubinden und den aktiven Transport fortzusetzen. Für dieses kooperative Verhalten entwickeln wir eine stochastische Beschreibung und leiten explizit die verlängerte Transportstrecke für einen aktiv ziehenden und einen passiv diffundierenden Motor her. Wir verallgemeinern unsere Beschreibung für den Fall von mehreren ziehenden und diffundierenden Motoren und finden ein exponentielles Anwachsen der zurückgelegten Strecke in Abhängigkeit von der Anzahl der beteiligten Motoren. KW - molekulare Motoren KW - kooperativer Transport KW - intrazellulärer Transport KW - elastische Kopplung KW - stochastische Prozesse KW - molecular motors KW - cooperative transport KW - intracellular transport KW - elastic coupling KW - stochastic processes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60319 ER - TY - THES A1 - Rust, Henning T1 - Detection of long-range dependence : applications in climatology and hydrology T1 - Detektion langreichweitiger Korrelationen : Anwendungen in Klimatologie und Hydrologie N2 - It is desirable to reduce the potential threats that result from the variability of nature, such as droughts or heat waves that lead to food shortage, or the other extreme, floods that lead to severe damage. To prevent such catastrophic events, it is necessary to understand, and to be capable of characterising, nature's variability. Typically one aims to describe the underlying dynamics of geophysical records with differential equations. There are, however, situations where this does not support the objectives, or is not feasible, e.g., when little is known about the system, or it is too complex for the model parameters to be identified. In such situations it is beneficial to regard certain influences as random, and describe them with stochastic processes. In this thesis I focus on such a description with linear stochastic processes of the FARIMA type and concentrate on the detection of long-range dependence. Long-range dependent processes show an algebraic (i.e. slow) decay of the autocorrelation function. Detection of the latter is important with respect to, e.g. trend tests and uncertainty analysis. Aiming to provide a reliable and powerful strategy for the detection of long-range dependence, I suggest a way of addressing the problem which is somewhat different from standard approaches. Commonly used methods are based either on investigating the asymptotic behaviour (e.g., log-periodogram regression), or on finding a suitable potentially long-range dependent model (e.g., FARIMA[p,d,q]) and test the fractional difference parameter d for compatibility with zero. Here, I suggest to rephrase the problem as a model selection task, i.e.comparing the most suitable long-range dependent and the most suitable short-range dependent model. Approaching the task this way requires a) a suitable class of long-range and short-range dependent models along with suitable means for parameter estimation and b) a reliable model selection strategy, capable of discriminating also non-nested models. With the flexible FARIMA model class together with the Whittle estimator the first requirement is fulfilled. Standard model selection strategies, e.g., the likelihood-ratio test, is for a comparison of non-nested models frequently not powerful enough. Thus, I suggest to extend this strategy with a simulation based model selection approach suitable for such a direct comparison. The approach follows the procedure of a statistical test, with the likelihood-ratio as the test statistic. Its distribution is obtained via simulations using the two models under consideration. For two simple models and different parameter values, I investigate the reliability of p-value and power estimates obtained from the simulated distributions. The result turned out to be dependent on the model parameters. However, in many cases the estimates allow an adequate model selection to be established. An important feature of this approach is that it immediately reveals the ability or inability to discriminate between the two models under consideration. Two applications, a trend detection problem in temperature records and an uncertainty analysis for flood return level estimation, accentuate the importance of having reliable methods at hand for the detection of long-range dependence. In the case of trend detection, falsely concluding long-range dependence implies an underestimation of a trend and possibly leads to a delay of measures needed to take in order to counteract the trend. Ignoring long-range dependence, although present, leads to an underestimation of confidence intervals and thus to an unjustified belief in safety, as it is the case for the return level uncertainty analysis. A reliable detection of long-range dependence is thus highly relevant in practical applications. Examples related to extreme value analysis are not limited to hydrological applications. The increased uncertainty of return level estimates is a potentially problem for all records from autocorrelated processes, an interesting examples in this respect is the assessment of the maximum strength of wind gusts, which is important for designing wind turbines. The detection of long-range dependence is also a relevant problem in the exploration of financial market volatility. With rephrasing the detection problem as a model selection task and suggesting refined methods for model comparison, this thesis contributes to the discussion on and development of methods for the detection of long-range dependence. N2 - Die potentiellen Gefahren und Auswirkungen der natürlicher Klimavariabilitäten zu reduzieren ist ein wünschenswertes Ziel. Solche Gefahren sind etwa Dürren und Hitzewellen, die zu Wasserknappheit führen oder, das andere Extrem, Überflutungen, die einen erheblichen Schaden an der Infrastruktur nach sich ziehen können. Um solche katastrophalen Ereignisse zu vermeiden, ist es notwendig die Dynamik der Natur zu verstehen und beschreiben zu können. Typischerweise wird versucht die Dynamik geophysikalischer Datenreihen mit Differentialgleichungssystemen zu beschreiben. Es gibt allerdings Situationen in denen dieses Vorgehen nicht zielführend oder technisch nicht möglich ist. Dieses sind Situationen in denen wenig Wissen über das System vorliegt oder es zu komplex ist um die Modellparameter zu identifizieren. Hier ist es sinnvoll einige Einflüsse als zufällig zu betrachten und mit Hilfe stochastischer Prozesse zu modellieren. In dieser Arbeit wird eine solche Beschreibung mit linearen stochastischen Prozessen der FARIMA-Klasse angestrebt. Besonderer Fokus liegt auf der Detektion von langreichweitigen Korrelationen. Langreichweitig korrelierte Prozesse sind solche mit einer algebraisch, d.h. langsam, abfallenden Autokorrelationsfunktion. Eine verläßliche Erkennung dieser Prozesse ist relevant für Trenddetektion und Unsicherheitsanalysen. Um eine verläßliche Strategie für die Detektion langreichweitig korrelierter Prozesse zur Verfügung zu stellen, wird in der Arbeit ein anderer als der Standardweg vorgeschlagen. Gewöhnlich werden Methoden eingesetzt, die das asymptotische Verhalten untersuchen, z.B. Regression im Periodogramm. Oder aber es wird versucht ein passendes potentiell langreichweitig korreliertes Modell zu finden, z.B. aus der FARIMA Klasse, und den geschätzten fraktionalen Differenzierungsparameter d auf Verträglichkeit mit dem trivialen Wert Null zu testen. In der Arbeit wird vorgeschlagen das Problem der Detektion langreichweitiger Korrelationen als Modellselektionsproblem umzuformulieren, d.h. das beste kurzreichweitig und das beste langreichweitig korrelierte Modell zu vergleichen. Diese Herangehensweise erfordert a) eine geeignete Klasse von lang- und kurzreichweitig korrelierten Prozessen und b) eine verläßliche Modellselektionsstrategie, auch für nichtgenestete Modelle. Mit der flexiblen FARIMA-Klasse und dem Whittleschen Ansatz zur Parameterschätzung ist die erste Voraussetzung erfüllt. Hingegen sind standard Ansätze zur Modellselektion, wie z.B. der Likelihood-Ratio-Test, für nichtgenestete Modelle oft nicht trennscharf genug. Es wird daher vorgeschlagen diese Strategie mit einem simulationsbasierten Ansatz zu ergänzen, der insbesondere für die direkte Diskriminierung nichtgenesteter Modelle geeignet ist. Der Ansatz folgt einem statistischen Test mit dem Quotienten der Likelihood als Teststatistik. Ihre Verteilung wird über Simulationen mit den beiden zu unterscheidenden Modellen ermittelt. Für zwei einfache Modelle und verschiedene Parameterwerte wird die Verläßlichkeit der Schätzungen für p-Wert und Power untersucht. Das Ergebnis hängt von den Modellparametern ab. Es konnte jedoch in vielen Fällen eine adäquate Modellselektion etabliert werden. Ein wichtige Eigenschaft dieser Strategie ist, dass unmittelbar offengelegt wird, wie gut sich die betrachteten Modelle unterscheiden lassen. Zwei Anwendungen, die Trenddetektion in Temperaturzeitreihen und die Unsicherheitsanalyse für Bemessungshochwasser, betonen den Bedarf an verläßlichen Methoden für die Detektion langreichweitiger Korrelationen. Im Falle der Trenddetektion führt ein fälschlicherweise gezogener Schluß auf langreichweitige Korrelationen zu einer Unterschätzung eines Trends, was wiederum zu einer möglicherweise verzögerten Einleitung von Maßnahmen führt, die diesem entgegenwirken sollen. Im Fall von Abflußzeitreihen führt die Nichtbeachtung von vorliegenden langreichweitigen Korrelationen zu einer Unterschätzung der Unsicherheit von Bemessungsgrößen. Eine verläßliche Detektion von langreichweitig Korrelierten Prozesse ist somit von hoher Bedeutung in der praktischen Zeitreihenanalyse. Beispiele mit Bezug zu extremem Ereignissen beschränken sich nicht nur auf die Hochwasseranalyse. Eine erhöhte Unsicherheit in der Bestimmung von extremen Ereignissen ist ein potentielles Problem von allen autokorrelierten Prozessen. Ein weiteres interessantes Beispiel ist hier die Abschätzung von maximalen Windstärken in Böen, welche bei der Konstruktion von Windrädern eine Rolle spielt. Mit der Umformulierung des Detektionsproblems als Modellselektionsfrage und mit der Bereitstellung geeigneter Modellselektionsstrategie trägt diese Arbeit zur Diskussion und Entwicklung von Methoden im Bereich der Detektion von langreichweitigen Korrelationen bei. KW - langreichweitige Korrelationen KW - nichtgenestete Modellselektion KW - FARIMA KW - Unsicherheitsanalyse KW - Bemessungshochwasser KW - long-range dependence KW - long-memory KW - non-nested model selection KW - FARIMA KW - uncertainty analysis KW - return level estimation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13347 ER - TY - INPR A1 - Thiessenhusen, Kai-Uwe A1 - Esposito, Larry W. A1 - Kurths, Jürgen A1 - Spahn, Frank T1 - Detection of hidden resonances in Saturn's B-ring N2 - The Voyager 2 Photopolarimeter experiment has yielded the highest resolved data of Saturn's rings, exhibiting a wide variety of features. The B-ring region between 105000 km and 110000 km distance from Saturn has been investigated. It has a high matter density and contains no significance features visible by eye. Analysis with statistical methods has let us to the detection of two significant events. These features are correlated with the inner 3:2 resonances of the F-ring shepherd satellites Pandora and Prometheus, and may be evidence of large ring paricles caught in the corotation resonances. T3 - NLD Preprints - 13 KW - Planetary Rings Y1 - 1995 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13618 ER - TY - GEN A1 - Allefeld, Carsten A1 - Frisch, Stefan A1 - Schlesewsky, Matthias T1 - Detection of early cognitive processing by event-related phase synchronization analysis N2 - In order to investigate the temporal characteristics of cognitive processing, we apply multivariate phase synchronization analysis to event-related potentials. The experimental design combines a semantic incongruity in a sentence context with a physical mismatch (color change). In the ERP average, these result in an N400 component and a P300-like positivity, respectively. The synchronization analysis shows an effect of global desynchronization in the theta band around 288ms after stimulus presentation for the semantic incongruity, while the physical mismatch elicits an increase of global synchronization in the alpha band around 204ms. Both of these effects clearly precede those in the ERP average. Moreover, the delay between synchronization effect and ERP component correlates with the complexity of the cognitive processes. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - paper 074 KW - phase synchronization KW - coherence KW - semantic incongruity KW - color change KW - N400 KW - P300 KW - theta KW - alpha Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20126 ER - TY - THES A1 - Aue, Lars T1 - Cyclone impacts on sea ice in the Atlantic Arctic Ocean T1 - Auswirkungen von Zyklonen auf das Meereis im Atlantischen Arktischen Ozean N2 - The Arctic is the hot spot of the ongoing, global climate change. Over the last decades, near-surface temperatures in the Arctic have been rising almost four times faster than on global average. This amplified warming of the Arctic and the associated rapid changes of its environment are largely influenced by interactions between individual components of the Arctic climate system. On daily to weekly time scales, storms can have major impacts on the Arctic sea-ice cover and are thus an important part of these interactions within the Arctic climate. The sea-ice impacts of storms are related to high wind speeds, which enhance the drift and deformation of sea ice, as well as to changes in the surface energy budget in association with air mass advection, which impact the seasonal sea-ice growth and melt. The occurrence of storms in the Arctic is typically associated with the passage of transient cyclones. Even though the above described mechanisms how storms/cyclones impact the Arctic sea ice are in principal known, there is a lack of statistical quantification of these effects. In accordance with that, the overarching objective of this thesis is to statistically quantify cyclone impacts on sea-ice concentration (SIC) in the Atlantic Arctic Ocean over the last four decades. In order to further advance the understanding of the related mechanisms, an additional objective is to separate dynamic and thermodynamic cyclone impacts on sea ice and assess their relative importance. Finally, this thesis aims to quantify recent changes in cyclone impacts on SIC. These research objectives are tackled utilizing various data sets, including atmospheric and oceanic reanalysis data as well as a coupled model simulation and a cyclone tracking algorithm. Results from this thesis demonstrate that cyclones are significantly impacting SIC in the Atlantic Arctic Ocean from autumn to spring, while there are mostly no significant impacts in summer. The strength and the sign (SIC decreasing or SIC increasing) of the cyclone impacts strongly depends on the considered daily time scale and the region of the Atlantic Arctic Ocean. Specifically, an initial decrease in SIC (day -3 to day 0 relative to the cyclone) is found in the Greenland, Barents and Kara Seas, while SIC increases following cyclones (day 0 to day 5 relative to the cyclone) are mostly limited to the Barents and Kara Seas. For the cold season, this results in a pronounced regional difference between overall (day -3 to day 5 relative to the cyclone) SIC-decreasing cyclone impacts in the Greenland Sea and overall SIC-increasing cyclone impacts in the Barents and Kara Seas. A cyclone case study based on a coupled model simulation indicates that both dynamic and thermodynamic mechanisms contribute to cyclone impacts on sea ice in winter. A typical pattern consisting of an initial dominance of dynamic sea-ice changes followed by enhanced thermodynamic ice growth after the cyclone passage was found. This enhanced ice growth after the cyclone passage most likely also explains the (statistical) overall SIC-increasing effects of cyclones in the Barents and Kara Seas in the cold season. Significant changes in cyclone impacts on SIC over the last four decades have emerged throughout the year. These recent changes are strongly varying from region to region and month to month. The strongest trends in cyclone impacts on SIC are found in autumn in the Barents and Kara Seas. Here, the magnitude of destructive cyclone impacts on SIC has approximately doubled over the last four decades. The SIC-increasing effects following the cyclone passage have particularly weakened in the Barents Sea in autumn. As a consequence, previously existing overall SIC-increasing cyclone impacts in this region in autumn have recently disappeared. Generally, results from this thesis show that changes in the state of the sea-ice cover (decrease in mean sea-ice concentration and thickness) and near-surface air temperature are most important for changed cyclone impacts on SIC, while changes in cyclone properties (i.e. intensity) do not play a significant role. N2 - Die Arktis ist der Hotspot des globalen Klimawandels. In den letzten Jahrzehnten sind die oberflächennahen Temperaturen in der Arktis fast viermal so schnell gestiegen wie im globalen Durchschnitt. Diese verstärkte Erwärmung der Arktis und die damit verbundenen raschen Umweltveränderungen werden u.a. durch Wechselwirkungen zwischen den einzelnen Komponenten des arktischen Klimasystems angetrieben. Auf täglichen bis wöchentlichen Zeitskalen können Stürme große Einflüsse auf das arktische Meereis haben und sind somit ein wichtiger Teil dieser Wechselwirkungen innerhalb des arktischen Klimas. Der Einfluss der Stürme auf das Meereis resultiert aus den hohen Windgeschwindigkeiten, welche die Drift und Verformung des Meereises verstärken, sowie aus Änderungen in der Oberflächenenergiebilanz im Zusammenhang mit der Advektion von Luftmassen, was das Wachstum und Schmelzen des Meereises beeinflusst. Das Auftreten von Stürmen in der Arktis ist oft mit dem Durchzug von Zyklonen verbunden. Obwohl die oben beschriebenen Mechanismen, wie sich Stürme/Zyklone auf das arktische Meereis auswirken, im Prinzip bekannt sind, fehlt es an einer statistischen Quantifizierung dieser Effekte. Dementsprechend ist das übergeordnete Ziel dieser Arbeit eine statistische Quantifizierung der Auswirkungen von Zyklonen auf die Meereiskonzentration (engl. Sea Ice Concentration, SIC) im atlantischen Arktischen Ozeans über die letzten vier Jahrzehnte. Um ein Verständnis für die zugrunde liegenden Mechanismen zu erlangen, besteht ein weiteres Ziel darin, die dynamischen und thermodynamischen Auswirkungen von Zyklonen auf das Meereis zu trennen und ihre relative Bedeutung zu analysieren. Zuletzt zielt diese Arbeit darauf ab, aktuelle Veränderungen der Zykloneneinflüsse auf das Meereis zu quantifizieren. Zum Erreichen dieser Forschungsziele werden verschiedene Datensätze genutzt, darunter atmosphärische und ozeanische Reanalysedaten sowie eine gekoppelte Modellsimulation und ein Algorithmus zur automatischen Identifikation von Zyklonen. Die Ergebnisse dieser Arbeit zeigen, dass Zyklone die SIC im atlantischen Arktischen Ozean von Herbst bis Frühjahr signifikant beeinflussen, während es im Sommer meist keine signifikanten Auswirkungen gibt. Die Stärke und das Vorzeichen (abnehmende oder zunehmende SIC) der Auswirkungen der Zyklone hängt stark von der betrachteten täglichen Zeitskala und der Region des Arktischen Ozeans ab. So ist ein anfänglicher Rückgang der SIC (Tag -3 bis Tag 0 relativ zum Zyklonendurchgang) in der Grönland-, der Barents- und der Karasee festzustellen, während ein SIC-Anstieg nach dem Zyklonendurchgang (Tag 0 bis Tag 5 relativ zum Zyklonendurchgang) hauptsächlich auf die Barents- und die Karasee beschränkt ist. Für die kalte Jahreszeit ergibt sich daraus ein ausgeprägter regionaler Unterschied zwischen insgesamt (Tag -3 bis Tag 5 relativ zum Zyklon) SIC-verringernden Zyklonenauswirkungen in der Grönlandsee und insgesamt SIC-erhöhenden Zyklonenauswirkungen in der Barents- und Karasee. Die Analyse spezifischer Zyklonenfälle basierend auf einer gekoppelten Modellsimulation zeigt, dass sowohl dynamische als auch thermodynamische Mechanismen zu den Auswirkungen von Zyklonen auf das Meereis im Winter beitragen. Hierbei wurde ein typisches Muster bestehend aus einer anfänglichen Dominanz dynamischer Meereisveränderungen gefolgt von verstärktem thermodynamischem Eiswachstum nach der Zyklonenpassage gefunden. Dieses verstärkte Eiswachstum nach der Zyklonenpassage erklärt u.a. auch die (statistischen) insgesamt SIC-erhöhenden Effekte von Zyklonen in der Barents- und Karasee im Winter. Signifikante Änderungen in den Auswirkungen von Zyklonen auf die SIC über die letzten vier Dekaden sind das ganze Jahr über zu finden. Diese Veränderungen variieren stark von Region zu Region und von Monat zu Monat. Die stärksten Trends in den Auswirkungen von Zyklonen auf die SIC sind im Herbst in der Barents- und Karasee zu beobachten. Hier hat sich die Stärke der zerstörerischen Auswirkungen von Zyklonen auf die SIC in den letzten vier Jahrzehnten ungefähr verdoppelt. Die SIC-erhöhenden Effekte nach der Zyklonenpassage haben sich in der Barentssee im Herbst besonders abgeschwächt. Dadurch sind zuvor existierende, insgesamt SIC-erhöhende Zyklonenauswirkungen in dieser Region und Jahreszeit zuletzt verschwunden. Generell zeigen die Ergebnisse dieser Arbeit, dass Änderungen im Zustand des Meereises (Abnahme der mittleren Meereiskonzentration und -dicke) sowie in der Lufttemperatur die veränderten Auswirkungen der Zyklonen auf die SIC antreiben, während Veränderungen in den Eigenschaften der Zyklonen (z.B. ihre Intensität) keine wesentliche Rolle spielen. KW - Arctic KW - atmosphere KW - sea ice KW - cyclones KW - meteorology KW - Arktis KW - Atmosphäre KW - Meereis KW - Zyklone KW - Meteorologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634458 SP - VIII, 131 ER - TY - THES A1 - Donges, Jonathan T1 - Complex networks in the climate system N2 - Complex network theory provides an elegant and powerful framework to statistically investigate the topology of local and long range dynamical interrelationships, i.e., teleconnections, in the climate system. Employing a refined methodology relying on linear and nonlinear measures of time series analysis, the intricate correlation structure within a multivariate climatological data set is cast into network form. Within this graph theoretical framework, vertices are identified with grid points taken from the data set representing a region on the the Earth's surface, and edges correspond to strong statistical interrelationships between the dynamics on pairs of grid points. The resulting climate networks are neither perfectly regular nor completely random, but display the intriguing and nontrivial characteristics of complexity commonly found in real world networks such as the internet, citation and acquaintance networks, food webs and cortical networks in the mammalian brain. Among other interesting properties, climate networks exhibit the "small-world" effect and possess a broad degree distribution with dominating super-nodes as well as a pronounced community structure. We have performed an extensive and detailed graph theoretical analysis of climate networks on the global topological scale focussing on the flow and centrality measure betweenness which is locally defined at each vertex, but includes global topological information by relying on the distribution of shortest paths between all pairs of vertices in the network. The betweenness centrality field reveals a rich internal structure in complex climate networks constructed from reanalysis and atmosphere-ocean coupled general circulation model (AOGCM) surface air temperature data. Our novel approach uncovers an elaborately woven meta-network of highly localized channels of strong dynamical information flow, that we relate to global surface ocean currents and dub the backbone of the climate network in analogy to the homonymous data highways of the internet. This finding points to a major role of the oceanic surface circulation in coupling and stabilizing the global temperature field in the long term mean (140 years for the model run and 60 years for reanalysis data). Carefully comparing the backbone structures detected in climate networks constructed using linear Pearson correlation and nonlinear mutual information, we argue that the high sensitivity of betweenness with respect to small changes in network structure may allow to detect the footprints of strongly nonlinear physical interactions in the climate system. The results presented in this thesis are thoroughly founded and substantiated using a hierarchy of statistical significance tests on the level of time series and networks, i.e., by tests based on time series surrogates as well as network surrogates. This is particularly relevant when working with real world data. Specifically, we developed new types of network surrogates to include the additional constraints imposed by the spatial embedding of vertices in a climate network. Our methodology is of potential interest for a broad audience within the physics community and various applied fields, because it is universal in the sense of being valid for any spatially extended dynamical system. It can help to understand the localized flow of dynamical information in any such system by combining multivariate time series analysis, a complex network approach and the information flow measure betweenness centrality. Possible fields of application include fluid dynamics (turbulence), plasma physics and biological physics (population models, neural networks, cell models). Furthermore, the climate network approach is equally relevant for experimental data as well as model simulations and hence introduces a novel perspective on model evaluation and data driven model building. Our work is timely in the context of the current debate on climate change within the scientific community, since it allows to assess from a new perspective the regional vulnerability and stability of the climate system while relying on global and not only on regional knowledge. The methodology developed in this thesis hence has the potential to substantially contribute to the understanding of the local effect of extreme events and tipping points in the earth system within a holistic global framework. N2 - Die Theorie komplexer Netzwerke bietet einen eleganten Rahmen zur statistischen Untersuchung der Topologie lokaler und langreichweitiger dynamischer Zusammenhänge (Telekonnektionen) im Klimasystem. Unter Verwendung einer verfeinerten, auf linearen und nichtlinearen Korrelationsmaßen der Zeitreihenanalyse beruhenden Netzwerkkonstruktionsmethode, bilden wir die komplexe Korrelationsstruktur eines multivariaten klimatologischen Datensatzes auf ein Netzwerk ab. Dabei identifizieren wir die Knoten des Netzwerkes mit den Gitterpunkten des zugrundeliegenden Datensatzes, während wir Paare von besonders stark korrelierten Knoten als Kanten auffassen. Die resultierenden Klimanetzwerke zeigen weder die perfekte Regularität eines Kristallgitters, noch eine vollkommen zufällige Topologie. Vielmehr weisen sie faszinierende und nichttriviale Eigenschaften auf, die charakteristisch für natürlich gewachsene Netzwerke wie z.B. das Internet, Zitations- und Bekanntschaftsnetzwerke, Nahrungsnetze und kortikale Netzwerke im Säugetiergehirn sind. Besonders erwähnenswert ist, dass in Klimanetzwerken das Kleine-Welt-Phänomen auftritt. Desweiteren besitzen sie eine breite Gradverteilung, werden von Superknoten mit sehr vielen Nachbarn dominiert, und bilden schließlich regional wohldefinierte Untergruppen von intern dicht vernetzten Knoten aus. Im Rahmen dieser Arbeit wurde eine detaillierte, graphentheoretische Analyse von Klimanetzwerken auf der globalen topologischen Skala durchgeführt, wobei wir uns auf das Netzwerkfluss- und Zentralitätsmaß Betweenness konzentrierten. Betweenness ist zwar lokal an jedem Knoten definiert, enthält aber trotzdem Informationen über die globale Netzwerktopologie. Dies beruht darauf, dass die Verteilung kürzester Pfade zwischen allen möglichen Paaren von Knoten in die Berechnung des Maßes eingeht. Das Betweennessfeld zeigt reichhaltige und zuvor verborgene Strukturen in aus Reanalyse- und Modelldaten der erdoberflächennahen Lufttemperatur gewonnenen Klimanetzen. Das durch unseren neuartigen Ansatz enthüllte Metanetzwerk, bestehend aus hochlokalisierten Kanälen stark gebündelten Informationsflusses, bringen wir mit der Oberflächenzirkulation des Weltozeans in Verbindung. In Analogie mit den gleichnamigen Datenautobahnen des Internets nennen wir dieses Metanetzwerk den Backbone des Klimanetzwerks. Unsere Ergebnisse deuten insgesamt darauf hin, dass Meeresoberflächenströmungen einen wichtigen Beitrag zur Kopplung und Stabilisierung des globalen Oberflächenlufttemperaturfeldes leisten. Wir zeigen weiterhin, dass die hohe Sensitivität des Betweennessmaßes hinsichtlich kleiner Änderungen der Netzwerktopologie die Detektion stark nichtlinearer physikalischer Wechselwirkungen im Klimasystem ermöglichen könnte. Die in dieser Arbeit vorgestellten Ergebnisse wurden mithilfe statistischer Signifikanztests auf der Zeitreihen- und Netzwerkebene gründlich auf ihre Robustheit geprüft. In Anbetracht fehlerbehafteter Daten und komplexer statistischer Zusammenhänge zwischen verschiedenen Netzwerkmaßen ist diese Vorgehensweise besonders wichtig. Weiterhin ist die Entwicklung neuer, allgemein anwendbarer Surrogate für räumlich eingebettete Netzwerke hervorzuheben, die die Berücksichtigung spezieller Klimanetzwerkeigenschaften wie z.B. der Wahrscheinlichkeitsverteilung der Kantenlängen erlauben. Unsere Methode ist universell, weil sie zum Verständnis des lokalisierten Informationsflusses in allen räumlich ausgedehnten, dynamischen Systemen beitragen kann. Deshalb ist sie innerhalb der Physik und anderer angewandter Wissenschaften von potentiell breitem Interesse. Mögliche Anwendungen könnten sich z.B. in der Fluiddynamik (Turbulenz), der Plasmaphysik und der Biophysik (Populationsmodelle, neuronale Netzwerke und Zellmodelle) finden. Darüber hinaus ist der Netzwerkansatz für experimentelle Daten sowie Modellsimulationen gültig, und eröffnet folglich neue Perspektiven für Modellevaluation und datengetriebene Modellierung. Im Rahmen der aktuellen Klimawandeldebatte stellen Klimanetzwerke einen neuartigen Satz von Analysemethoden zur Verfügung, der die Evaluation der lokalen Vulnerabilität und Stabilität des Klimasystems unter Berücksichtigung globaler Randbedingungen ermöglicht. Die in dieser Arbeit entwickelten und untersuchten Methoden könnten folglich in der Zukunft, innerhalb eines holistisch-globalen Ansatzes, zum Verständnis der lokalen Auswirkungen von Extremereignissen und Kipppunkten im Erdsystem beitragen. KW - Komplexe Netzwerke KW - Klimanetzwerke KW - Datenanalyse KW - Graphentheorie KW - Klimadaten KW - Complex networks KW - climate networks KW - data analysis KW - graph theory KW - climate data Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49775 ER - TY - THES A1 - Hoffmann, Anne T1 - Comparative aerosol studies based on multi-wavelength Raman LIDAR at Ny-Ålesund, Spitsbergen T1 - Vergleichende Aerosolstudien mittels Mehrwellenlängen-Raman-LIDAR in Ny-Ålesund,Spitzbergen N2 - The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution. N2 - Die Arktis ist ein bezüglich Klimaveränderungen besonders sensitives Gebiet, d.h. die globale Erwärmung wirkt sich aufgrund der saisonal hochvariablen Strahlungsbedingungen und der Bodenalbedo dort verstärkt aus.Wolken und Aerosole als Bestandteile der arktischen Atmosphäre spielen dabei eine besondere Rolle im Strahlungsgleichgewicht. Die vorliegende Promotionsarbeit leistet mit Hilfe von LIDAR-Messungen (Light Detection and Ranging) einen Beitrag zum Verständnis von Vorkommen und Eigenschaften von Aerosolschichten über Ny-Ålesund, Spitzbergen. Besonderes Augenmerk liegt dabei auf der Analyse von Zeiträumen mit erhöhter Aerosolbelastung. Es wurde zum einen die arktische Troposphäre zweier Frühjahre (März und April der Jahre 2007 und 2009) untersucht, da im Frühjahr die Aerosol-optische Dicke (AOD) in der Arktis Maximalwerte erreicht. Zum anderen wurden stratosphärische Aerosolschichten vulkanischen Ursprungs analysiert, die in den Sommern 2008 und 2009 nach Ausbrüchen der Kasatochi und Sarychev Vulkane jeweils für mehrere Monate in der unteren Stratosphäre messbar waren. Das an der AWIPEV Forschungsstation betriebene Koldewey Aerosol Raman LIDAR (KARL), ein Instrument zur optischen Fernerkundung atmosphärischer Parameter mittels gepulster Laserstrahlung, wurde im Rahmen der Promotion grundlegend überarbeitet und mit einem neuen Teleskop sowie neuen Detektoroptiken versehen. Dies ermöglicht die Profilerfassung ab 450m über dem Meeresspiegel bis in die mittlere Stratosphäre. KARL liefert hochaufgelöste Messungen der Streueigenschaften von Aerosol- undWolkenteilchen (Rückstreuung, Extinktion und Depolarisation) sowieWasserdampfprofile in der unteren Troposphäre. Durch die Kombination von KARL Messungen mit Daten anderer Messgeräte an der AWIPEV Forschungsstation wie Radiosonden, Sonnenphotometer, Micro Pulse LIDAR und Fesselsonden wurde ein umfassender Datenbestand von Streuphänomenen in der arktischen Atmosphäre geschaffen. Die beiden genannten Frühjahreszeiträume März und April 2007 und 2009 wurden zunächst anhand meteorologischer Parameter, wie lokaler Temperatur- und Feuchteprofile sowie großskaliger Druckmuster und Luftmassenquellgebiete analysiert. Dabei konnte kein eindeutiger Zusammenhang zwischen Quellgebieten und erhöhter AOD festgestellt werden. In einem Vergleich zweier wolkenfreier Perioden im März 2007 und April 2009 war jedoch die höhere Aerosolbelastung in 2009 mit dem Transport von Luftmassen durch die innere Arktis verbunden. Aufgrund der begrenzten Lebensdauer von Aerosolen lässt das entweder Aerosol-Entstehungsprozesse in der Zentralarktis oder Transformationsprozesse während des Transportes nach Ny-Ålesund vermuten. Für Messungen am 4. April 2009 mit Maximalwerten der AOD von bis zu 0.12 konnte die Größe der Aerosolteilchen in verschiedenen Höhen mit Hilfe von Inversionsrechnungen abgeschätzt werden. Diese und andere betrachtete Fallstudien legen eine Unterscheidung von Aerosolereignissen in drei Kategorien nahe, die sich in ihrer Entstehung deutlich unterscheiden: Vertikal begrenzte Aeosolschichten in trockener Luft, zeitlich hochvariable feuchte Aerosolschichten in der planetaren Grenzschicht sowie eine erhöhte Aerosolbelastung über große Teile der Troposphäre. Für das sehr klare Frühjahr 2007 wurden die vorhandenen KARL-Daten mit Hilfe eines Klassifikationsschemas, das auf den optischen Eigenschaften der streuenden Teilchen beruht, statistisch ausgewertet. Das verwendete Schema wurde mit Hilfe von verschiedenen Fallstudien validiert und ermöglicht bei Anwendung auf größere Datenbestände eine aussagekräftige Analyse von jährlichen Schwankungen der Aerosol- und Wolkenvorkommen über Ny-Ålesund. Die Ausbrüche zweier Vulkane in der nördlichen Hemisphäre im August 2008 und im Juni 2009 erlaubten die Analyse vulkanischer Aerosolschichten in der Stratosphäre. Die zeitliche Entwicklung der stratosphärischen AOD verlief in beiden Jahren ähnlich mit Maximalwerten von über 0.1 etwa drei bis fünfWochen nach dem jeweiligen Ausbruch. In beiden Jahren wurden bis zum technisch bedingten Abbruch der Messungen jeweils Ende September erhöhte stratosphärische AOD Werte gemessen. Die niedrigste Aerosolschicht konnte jeweils direkt an der Tropopause detektiert werden. Im Jahr 2008 wurden bis zu drei Schichten detektiert, die Struktur 2009 war durch bis zu sechs schmale Schichten gekennzeichnet, die nach etwa zwei Monaten zu einer breiten Schicht verschmierten. Drei Fallstudien zu mikrophysikalischen Aerosoleigenschaften wurden durchgeführt. Dabei wurden für beide Jahre sehr große Brechungsindices von m=(1.53–1.55) - 0.02i ermittelt, die auf eine absorbierende Kohlenstoffkomponente der Vulkanaerosole hinweisen. Der errechnete Teilchenradius war ebenfalls in beiden Jahren vergleichbar mit Werten zwischen 0.16 und 0.19 μm. 2009 wurde zusätzlich ein zweites Maximum der Größenverteilung bei ca. 0.5μm gefunden. Die Langzeitmessungen mit dem Koldewey Aerosol Raman LIDAR KARL in Ny-Ålesund schaffen die Möglichkeit, arktische Aerosole in Troposphäre und Stratosphäre nicht nur in Fallstudien, sondern auch über längere Zeiträume hinweg zu analysieren. Im Rahmen dieser Promotionsarbeit konnten sowohl Aerosolvorkommen in der arktischen Troposphäre im Frühjahr als auch eine vulkanisch bedingte erhöhte Aerosolbelastung in der Stratosphäre qualitativ und quantitativ beschrieben werden. Fallstudien und die Kombination mit Daten anderer Messgeräte ermöglichten Analysen mikrophysikalischer Aerosolparameter und deren Entwicklungsprozesse. KW - Arktis KW - Lidar KW - Aerosole KW - Fernerkundung KW - Arctic KW - Lidar KW - Aerosols KW - Remote Sensing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52426 ER - TY - CHAP ED - Hamann, Wolf-Rainer ED - Feldmeier, Achim ED - Oskinova, Lida T1 - Clumping in hot-star winds : proceedings of an international workshop held in Potsdam, Germany, 18. - 22. June 2007 N2 - Stellar winds play an important role for the evolution of massive stars and their cosmic environment. Multiple lines of evidence, coming from spectroscopy, polarimetry, variability, stellar ejecta, and hydrodynamic modeling, suggest that stellar winds are non-stationary and inhomogeneous. This is referred to as 'wind clumping'. The urgent need to understand this phenomenon is boosted by its far-reaching implications. Most importantly, all techniques to derive empirical mass-loss rates are more or less corrupted by wind clumping. Consequently, mass-loss rates are extremely uncertain. Within their range of uncertainty, completely different scenarios for the evolution of massive stars are obtained. Settling these questions for Galactic OB, LBV and Wolf-Rayet stars is prerequisite to understanding stellar clusters and galaxies, or predicting the properties of first-generation stars. In order to develop a consistent picture and understanding of clumped stellar winds, an international workshop on 'Clumping in Hot Star Winds' was held in Potsdam, Germany, from 18. - 22. June 2007. About 60 participants, comprising almost all leading experts in the field, gathered for one week of extensive exchange and discussion. The Scientific Organizing Committee (SOC) included John Brown (Glasgow), Joseph Cassinelli (Madison), Paul Crowther (Sheffield), Alex Fullerton (Baltimore), Wolf-Rainer Hamann (Potsdam, chair), Anthony Moffat (Montreal), Stan Owocki (Newark), and Joachim Puls (Munich). These proceedings contain the invited and contributed talks presented at the workshop, and document the extensive discussions. KW - Sternwinde KW - Massenverlust KW - Strahlungstransport KW - hydrodynamische Modellierung KW - massereiche Sterne KW - stellar winds KW - mass loss KW - radiative transfer KW - hydrodynamic modeling KW - massive stars Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13981 SN - 978-3-940793-33-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bierbaum, Veronika T1 - Chemomechanical coupling and motor cycles of the molecular motor myosin V T1 - Chemomechanische Kopplung und Motorzyklen für den molekularen Motor Myosin V N2 - In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments. N2 - Die hier vorgelegte Arbeit entwickelt unter Verwendung vieler verschiedener Aspekte der statistischen Physik eine Theorie der chemomechanischen Kopplung für den Energieumsatz des molekularen Motors Myosin V. Das Myosin V ist sowohl in chemokinetischen wie in Einzelmolekülexperimenten grundlegend untersucht worden. Seine Schrittgeschwindigkeit ist in Abhängigkeit verschiedener externer Parameter, wie der Nukleotidkonzentration und einer äußeren Kraft, experimentell bestimmt. Darüber hinaus ist eine große Anzahl verschiedener chemokinetischer Raten, die an der enzymatischen Reaktion des Moleküls beteiligt sind, quantitativ erfasst. Unter der Wirkung externer Kräfte, die seine Anhaltekraft überschreiten, verhält sich der Motor wie eine Ratsche: Für Kräfte, die entlang der Schrittbewegung des Motors wirken, hängt seine Geschwindigkeit von der ATP-Konzentration ab, für rückwärts angreifende Kräfte jedoch ist die Bewegung des Motors unabhängig von ATP. Auf der Grundlage der chemischen Zustände des Motors wird eine Netzwerktheorie aufgebaut, die die experimentellen Beobachtungen des Schrittverhaltens für Myosin V einschließt. Diese Netzwerkbeschreibung dient als Grundlage für einen Markovprozess, der die Dynamik des Motors beschreibt. Die Verwendung diskreter Zustände bietet den Vorteil der direkten Erfassung der chemischen Kinetik des Moleküls. Darüber hinaus werden chemische und mechanische Eigenschaften des Motors in gleichem Maße im Modell berücksichtigt. Durch die Erfassung der Enzymkinetik mittels eines stochastischen Prozesses lässt sich die Motordynamik mit Hilfe des stationären Zustands der Netzwerkdarstellung beschreiben. Um diesen zu bestimmen, verwenden wir eine graphentheoretische Methode, die auf Kirchhoff zurückgreift. Wir zeigen in Einklang mit den Gesetzen der Thermodynamik für Nichtgleichgewichtssysteme, dass das Schrittverhalten des Motors von mehreren chemomechanischen Zyklen beeinflusst wird. Weiterhin untersuchen wir das funktionale Verhalten mechanischer Schrittraten in Abhängigkeit der äußeren Kraft unter Verwendung einer geeigneten Fokker-Planck-Gleichung. Hierfür wird auf die Theorie einer kontinuierlichen Beschreibung von molekularen Methoden zurückgegriffen. Wir berechnen Größen wie die mittlere Schrittgeschwindigkeit, das Verhältnis von Vorwärts- und Rückwärtsschritten, und die Lauflänge des Motors in Abhängigkeit einer äußeren angreifenden Kraft sowie der Nukleotidkonzentration, und vergleichen diese mit experimentellen Daten. Für Kräfte, die kleiner als die Anhaltekraft des Motors sind, unterscheidet sich der chemomechanische Zyklus grundlegend von demjenigen, der für große Kräfte dominiert. Diese Eigenschaft resultiert in einem Schrittverhalten, das mit den experimentellen Beobachtungen übereinstimmt. Es ermöglicht weiterhin die Zerlegung des Netzwerks in einzelne Zyklen, die die Bewegung des Motors für verschiedene Bereiche externer Kräfte erfassen. Durch die Erweiterung unseres Modells auf Markovprozesse mit absorbierenden Zuständen können so die Wartezeitenverteilungen für einzelne Zyklen des Motors analytisch berechnet werden. Sie erteilen Aufschluss über die Koordination des Motors und enthalten zudem direkte Informationen über seine Rückwärtsschritte, die experimentell nicht erfasst sind. Für das gesamte Netzwerk werden die Wartezeitenverteilungen mit Hilfe eines Gillespie-Algorithmus bestimmt. Unsere Theorie liefert eine einheitliche Beschreibung der Eigenschaften von Myosin V, die in Einzelmolekülexperimenten erfasst werden können. KW - statistische Physik KW - Markov-Prozesse KW - molekulare Motoren KW - statistical physics KW - markov processes KW - molecular motors Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53614 ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Kruse, Marlen T1 - Characterization of biomolecules and their interactions using electrically controllable DNA nanolevers N2 - In this work, binding interactions between biomolecules were analyzed by a technique that is based on electrically controllable DNA nanolevers. The technique was applied to virus-receptor interactions for the first time. As receptors, primarily peptides on DNA nanostructures and antibodies were utilized. The DNA nanostructures were integrated into the measurement technique and enabled the presentation of the peptides in a controllable geometrical order. The number of peptides could be varied to be compatible to the binding sites of the viral surface proteins. Influenza A virus served as a model system, on which the general measurability was demonstrated. Variations of the receptor peptide, the surface ligand density, the measurement temperature and the virus subtypes showed the sensitivity and applicability of the technology. Additionally, the immobilization of virus particles enabled the measurement of differences in oligovalent binding of DNA-peptide nanostructures to the viral proteins in their native environment. When the coronavirus pandemic broke out in 2020, work on binding interactions of a peptide from the hACE2 receptor and the spike protein of the SARS-CoV-2 virus revealed that oligovalent binding can be quantified in the switchSENSE technology. It could also be shown that small changes in the amino acid sequence of the spike protein resulted in complete loss of binding. Interactions of the peptide and inactivated virus material as well as pseudo virus particles could be measured. Additionally, the switchSENSE technology was utilized to rank six antibodies for their binding affinity towards the nucleocapsid protein of SARS-CoV-2 for the development of a rapid antigen test device. The technique was furthermore employed to show binding of a non-enveloped virus (adenovirus) and a virus-like particle (norovirus-like particle) to antibodies. Apart from binding interactions, the use of DNA origami levers with a length of around 50 nm enabled the switching of virus material. This proved that the technology is also able to size objects with a hydrodynamic diameter larger than 14 nm. A theoretical work on diffusion and reaction-limited binding interactions revealed that the technique and the chosen parameters enable the determination of binding rate constants in the reaction-limited regime. Overall, the applicability of the switchSENSE technique to virus-receptor binding interactions could be demonstrated on multiple examples. While there are challenges that remain, the setup enables the determination of affinities between viruses and receptors in their native environment. Especially the possibilities regarding the quantification of oligo- and multivalent binding interactions could be presented. N2 - In dieser Arbeit wurden Bindungsinteraktionen zwischen biologischen Molekülen mit Hilfe von elektrisch kontrollierbaren DNA-Nanohebeln untersucht. Die Technologie wurde zum ersten Mal auf Virus-Rezeptor Interaktionen angewendet. Als Rezeptoren wurden überwiegend Peptide und Antikörper untersucht. Die Peptide wurden auf vierarmigen DNA-Nanohebeln angeordnet. Ihre geometrische Anordnung entsprach der Anordnung der Rezeptorbindungsstellen der Proteine auf der Virusoberfläche. An Influenza A Viren wurde die Machbarkeit der Bindungsmessung zuerst demonstriert. Dabei konnte die Anwendbarkeit und Sensitivität der Technologie durch Variation der Peptide, der Ligandendichte auf der Sensoroberfläche, der Messtemperatur und der Virussubtypen gezeigt werden. Weiterhin wurde Virusmaterial auf der Sensoroberfläche immobilisiert und anschließend wurden quantitative Bindungsmessungen mit den oligovalenten DNA-Peptid-Strukturen durchgeführt. Dieser Versuchsaufbau ermöglichte die Messung der Bindungsstärke in Abhängigkeit der Anzahl der pro DNA-Struktur gekoppelten Peptide. Im Zuge des Ausbruchs der Coronavirus-Pandemie im Jahr 2020 wurden Bindungsinteraktionsmessungen zwischen einem Peptid aus dem hACE2-Rezeptor und SARS-CoV-2 Spike Proteinen durchgeführt. Auch hier konnten oligovalente Bindungseffekte quantifiziert werden. Außerdem wurde festgestellt, dass Veränderungen an der Aminosäuresequenz des SARS-CoV-2 Proteins starke Auswirkungen auf das Bindungsverhalten hatten. Auch Interaktionen zwischen dem Peptid und sowohl inaktiviertem Virusmaterial als auch Pseudoviruspartikeln wurden gemessen. Für die Entwicklung eines Antigenschnelltests wurden die Affinitäten von sechs Antikörpern an das Nucleocapsidprotein des SARS-CoV-2 bestimmt. Weiterhin konnte gezeigt werden, dass mit der Technologie auch die Bindung von unbehüllten Viren (am Beispiel von Adenoviren) und Virus-ähnlichen Partikeln (am Beispiel von Norovirus-ähnlichen Partikeln) an Antikörper vermessen werden kann. Neben Bindungsinteraktionen, wurden auch Größenbestimmungen mit Hilfe von DNA Origamis durchgeführt. Die Hebellänge von ca. 50 nm ermöglichte die elektrische Bewegung ("switching") von Virusmaterial. Es konnte so gezeigt werden, dass die Technologie es ermöglicht, Objekte mit einem hydrodynamischen Durchmesser von mehr als 14 nm zu bewegen. In einer theoretischen Betrachtung der Experimente konnte gezeigt werden, dass der Sensoraufbau und die verwendeten Parameter die Messung von Bindungsratenkonstanten in einem Reaktions-limitierten Bereich ermöglichen. Insgesamt konnte die Arbeit an vielen Beispielen zeigen, dass die switch-SENSE Technologie für die Messung von Virus-Rezeptor Interaktionen geeignet ist. Während es weiterhin Herausforderungen gibt, so ermöglicht der Aufbau doch die Bestimmung von Affinitäten zwischen Viren und Rezeptoren. Insbesondere die Möglichkeiten zur Quantifizierung von oligo- und multivalenten Bindungsinteraktionen konnten aufgezeigt werden. T2 - Charakterisierung von Biomolekülen und deren Interaktionen mittels elektrisch kontrollierbarer DNA Nanohebel KW - biomolecule KW - binding interactions KW - switchSENSE KW - virus KW - receptor KW - Biomoleküle KW - Bindungsinteraktion KW - switchSENSE Technologie KW - Virus KW - Rezeptor Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577384 ER - TY - INPR A1 - Schumacher, Jörg A1 - Seehafer, Norbert T1 - Bifurcation analysis of the plane sheet pinch N2 - A numerical bifurcation analysis of the electrically driven plane sheet pinch is presented. The electrical conductivity varies across the sheet such as to allow instability of the quiescent basic state at some critical Hartmann number. The most unstable perturbation is the two-dimensional tearing mode. Restricting the whole problem to two spatial dimensions, this mode is followed up to a time-asymptotic steady state, which proves to be sensitive to three-dimensional perturbations even close to the point where the primary instability sets in. A comprehensive three-dimensional stability analysis of the two-dimensional steady tearing-mode state is performed by varying parameters of the sheet pinch. The instability with respect to three-dimensional perturbations is suppressed by a sufficiently strong magnetic field in the invariant direction of the equilibrium. For a special choice of the system parameters, the unstably perturbed state is followed up in its nonlinear evolution and is found to approach a three-dimensional steady state. T3 - NLD Preprints - 56 Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14926 ER - TY - THES A1 - Müller, Melanie J. I. T1 - Bidirectional transport by molecular motors T1 - Bidirektionaler Transport durch molekulare Motoren N2 - In biological cells, the long-range intracellular traffic is powered by molecular motors which transport various cargos along microtubule filaments. The microtubules possess an intrinsic direction, having a 'plus' and a 'minus' end. Some molecular motors such as cytoplasmic dynein walk to the minus end, while others such as conventional kinesin walk to the plus end. Cells typically have an isopolar microtubule network. This is most pronounced in neuronal axons or fungal hyphae. In these long and thin tubular protrusions, the microtubules are arranged parallel to the tube axis with the minus ends pointing to the cell body and the plus ends pointing to the tip. In such a tubular compartment, transport by only one motor type leads to 'motor traffic jams'. Kinesin-driven cargos accumulate at the tip, while dynein-driven cargos accumulate near the cell body. We identify the relevant length scales and characterize the jamming behaviour in these tube geometries by using both Monte Carlo simulations and analytical calculations. A possible solution to this jamming problem is to transport cargos with a team of plus and a team of minus motors simultaneously, so that they can travel bidirectionally, as observed in cells. The presumably simplest mechanism for such bidirectional transport is provided by a 'tug-of-war' between the two motor teams which is governed by mechanical motor interactions only. We develop a stochastic tug-of-war model and study it with numerical and analytical calculations. We find a surprisingly complex cooperative motility behaviour. We compare our results to the available experimental data, which we reproduce qualitatively and quantitatively. N2 - In biologischen Zellen transportieren molekulare Motoren verschiedenste Frachtteilchen entlang von Mikrotubuli-Filamenten. Die Mikrotubuli-Filamente besitzen eine intrinsische Richtung: sie haben ein "Plus-" und ein "Minus-"Ende. Einige molekulare Motoren wie Dynein laufen zum Minus-Ende, während andere wie Kinesin zum Plus-Ende laufen. Zellen haben typischerweise ein isopolares Mikrotubuli-Netzwerk. Dies ist besonders ausgeprägt in neuronalen Axonen oder Pilz-Hyphen. In diesen langen röhrenförmigen Ausstülpungen liegen die Mikrotubuli parallel zur Achse mit dem Minus-Ende zum Zellkörper und dem Plus-Ende zur Zellspitze gerichtet. In einer solchen Röhre führt Transport durch nur einen Motor-Typ zu "Motor-Staus". Kinesin-getriebene Frachten akkumulieren an der Spitze, während Dynein-getriebene Frachten am Zellkörper akkumulieren. Wir identifizieren die relevanten Längenskalen und charakterisieren das Stauverhalten in diesen Röhrengeometrien mit Hilfe von Monte-Carlo-Simulationen und analytischen Rechnungen. Eine mögliche Lösung für das Stauproblem ist der Transport mit einem Team von Plus- und einem Team von Minus-Motoren gleichzeitig, so dass die Fracht sich in beide Richtungen bewegen kann. Dies wird in Zellen tatsächlich beobachtet. Der einfachste Mechanismus für solchen bidirektionalen Transport ist ein "Tauziehen" zwischen den beiden Motor-Teams, das nur mit mechanischer Interaktion funktioniert. Wir entwickeln ein stochastisches Tauzieh-Modell, das wir mit numerischen und analytischen Rechnungen untersuchen. Es ergibt sich ein erstaunlich komplexes Motilitätsverhalten. Wir vergleichen unsere Resultate mit den vorhandenen experimentellen Daten, die wir qualitativ und quantitativ reproduzieren. KW - molekulare Motoren KW - bidirektionaler intrazellulärer Transport KW - Tauziehen KW - stochastische Prozesse KW - kooperative Phänomene KW - molecular motors KW - bidirectional intracellular transport KW - tug-of-war KW - stochastic processes KW - cooperative phenomena Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18715 ER - TY - THES A1 - Codutti, Agnese T1 - Behavior of magnetic microswimmers T1 - Verhalten magnetischer Microschwimmer BT - simulations for natural swimmers and synthetic propellers BT - Simulationen von natürlichen Schwimmern und synthetischen Propellern N2 - Microswimmers, i.e. swimmers of micron size experiencing low Reynolds numbers, have received a great deal of attention in the last years, since many applications are envisioned in medicine and bioremediation. A promising field is the one of magnetic swimmers, since magnetism is biocom-patible and could be used to direct or actuate the swimmers. This thesis studies two examples of magnetic microswimmers from a physics point of view. The first system to be studied are magnetic cells, which can be magnetic biohybrids (a swimming cell coupled with a magnetic synthetic component) or magnetotactic bacteria (naturally occurring bacteria that produce an intracellular chain of magnetic crystals). A magnetic cell can passively interact with external magnetic fields, which can be used for direction. The aim of the thesis is to understand how magnetic cells couple this magnetic interaction to their swimming strategies, mainly how they combine it with chemotaxis (the ability to sense external gradient of chemical species and to bias their walk on these gradients). In particular, one open question addresses the advantage given by these magnetic interactions for the magnetotactic bacteria in a natural environment, such as porous sediments. In the thesis, a modified Active Brownian Particle model is used to perform simulations and to reproduce experimental data for different systems such as bacteria swimming in the bulk, in a capillary or in confined geometries. I will show that magnetic fields speed up chemotaxis under special conditions, depending on parameters such as their swimming strategy (run-and-tumble or run-and-reverse), aerotactic strategy (axial or polar), and magnetic fields (intensities and orientations), but it can also hinder bacterial chemotaxis depending on the system. The second example of magnetic microswimmer are rigid magnetic propellers such as helices or random-shaped propellers. These propellers are actuated and directed by an external rotating magnetic field. One open question is how shape and magnetic properties influence the propeller behavior; the goal of this research field is to design the best propeller for a given situation. The aim of the thesis is to propose a simulation method to reproduce the behavior of experimentally-realized propellers and to determine their magnetic properties. The hydrodynamic simulations are based on the use of the mobility matrix. As main result, I propose a method to match the experimental data, while showing that not only shape but also the magnetic properties influence the propellers swimming characteristics. N2 - Die Forschung an Mikroschwimmern oder genauer gesagt an aktiv schwimmenden Mikroorganismen oder Objekten mit niedrigen Reynolds Zahlen, hat in den letzten Jahren wegen ihrer vielfältigen Anwendungen in der Medizin und Bioremediation stark an Bedeutung gewonnen. Besonders vielversprechend ist die Arbeit mit magnetischen Mikroschwimmern, da deren biokompatibler Magnetismus genutzt werden kann um die Schwimmer gezielt zu steuern. In dieser Arbeit werden zwei Beispiele von magnetischen Mikroschwimmern aus physikalischer Sicht untersucht. Das erste Modellsystem hierfür sind magnetische Zellen. Diese können entweder magnetische Biohybride (eine schwimm-Zelle gekoppelt mit einer synthetischen magnetischen Komponente) oder magnetotaktische Bakterien (natürlich vorkommende Bakterien die eine intrazelluläre Kette von magnetischen Kristallen produzieren) sein. Die passive Wechselwirkung der magnetischen Zelle mit einem externen Magnetfeld kann zu deren Steuerung genutzt werden. Das Ziel dieser Arbeit ist es zu verstehen wie magnetische Zellen die magnetische Wechselwirkung mit ihre Schwimmstrategie verknüpfen, oder genauer gesagt, wie sie sie zur Chemotaxis (die Fähigkeit externe chemische Gradienten wahrzunehmen und die Fortbewegungsrichtung daran anzupassen) zu nutzen. Es ist immer noch nicht restlos geklärt worin in der natürlichen Umgebung der magnetischen Bakterien, wie beispielsweise in porösem Sediment, der Vorteil der Wechselwirkung mit dem externen magnetischen Feld liegt. In dieser Arbeit wurde ein modifiziertes „Active Brownian Particle model“ verwendet um mittels Computersimulationen experimentelle Ergebnisse an Bakterien zu reproduzieren, die sich frei, in einer Glaskapillare, oder in anders begrenzten Geometrien bewegen. Ich werde zeigen, dass abhängig von der Schwimmstrategie („run-and-tumble“ oder „runand-reverse“), aerotaktische Strategie (axial oder polar), und der Feldintensität und Orientierung, das magnetische Feld Chemotaxis beschleunigen kann. Abhängig von dem gewählten Modellsystem kann es jedoch auch zu einer Behinderung der Chemotaxis kommen. Das zweite Beispiel für magnetische Mikroschwimmer sind starre (z.B. Helices) oder zufällig geformte magnetische Propeller. Sie werden durch ein externes magnetisches Feld angetrieben und gelenkt. Hierbei stellt sich die Frage wie die Form der Propeller deren Verhalten beeinflusst und wie sie für eine bestimmte Anwendung optimiert werden können. Daher ist es das Ziel dieser Arbeit Simulationsmethoden vorzuschlagen um das experimentell beobachtete Verhalten zu reproduzieren und die magnetischen Eigenschaften der Propeller zu beschreiben. Hierfür wird die Mobilitätsmatrix verwendet um die hydrodynamischen Simulationen zu realisieren. Ein Hauptresultat meiner Arbeit ist eine neue Methode, welche die Simulationen in Einklang mit den experimentellen Resultaten bringt. Hierbei zeigt sich, dass nicht nur die Form sondern insbesondere auch die magnetischen Eigenschaften die Schwimmcharakteristik der Propeller entscheidend beeinflussen. KW - microswimmers KW - magnetism KW - bacteria KW - propellers KW - simulation KW - Microschwimmer KW - Magnetismus KW - Bakterien KW - Propeller KW - Simulationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422976 ER - TY - THES A1 - Nickelt-Czycykowski, Iliya Peter T1 - Aktive Regionen der Sonnenoberfläche und ihre zeitliche Variation in zweidimensionaler Spektro-Polarimetrie T1 - Active regions on the solar surface and their temporal variation in two-dimensional spectropolarimetry N2 - Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation. N2 - The publication describes the analysis of two sunspot observations in two-dimensional spectropolarimetry. The data was obtained with the Fabry-Pérot-interferometer of Göttingen University at the German Vacuum Tower Telescope on Tenerife. Of the active region NOAA 9516 the full Stokes vector of polarised light was observed in the absorption line at 630.249 nm in single scans. A ninety minute time series of circular polarised light of the active region NOAA 9036 was observed at 617.3 nm wavelength. From the reduced data results for intensity, line-of-sight velocity, magnetic field strength as well as several other plasma parameters are inferred. Different approaches to solar atmosphere model inversion are applied and compared. The significant influence of errors is discussed in detail. The frequency behaviour of the results and spatial and temporal dependencies are further analysed by Fourier and wavelet transformation. As a result the existence of a high frequency band of velocity oscillations with a central frequency of about 75-seconds (13 mHz) can be confirmed. In greater heights of about 500 km the majority of the corresponding shock waves are derived from darker parts of the granules in contrast to the dominant five-minute-oscillations. 75-second-oscillations can also be observed in the active region, especially in the light bridge. In the identified bands of oscillatory velocity power, distinct structures become visible in a penumbral dark structure as well as in the light bridge that move into the quiet sun with a horizontal speed of 5-8 km/s. They show an increase in power, mostly 5-minute-band, and may be related to the Evershed cloud phenomenon. Under the constraint of a very low signal-to-noise ratio and high error influence, magnetic field variations of a 6-minute period are also observed in an umbral-penumbral transition area close to a light bridge. To derive these results, existing visualisation methods for frequency analysis where improved or newly developed, especially so for wavelet transform results. KW - Sonne: Oszillationen KW - Sonne: Sonnenflecken KW - Instrumente: Polarimeter KW - Instrumente: Spektrographen KW - Frequenzanalyse KW - Sun: oszillations KW - Sun: sunspots KW - instrumentation: polarimeters KW - instrumentation: spectrographs KW - frequency analysis Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-25524 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P