@phdthesis{Kleinen2005, author = {Kleinen, Thomas Christopher}, title = {Stochastic information in the assessment of climate change}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-5382}, school = {Universit{\"a}t Potsdam}, year = {2005}, abstract = {Stochastic information, to be understood as \"information gained by the application of stochastic methods\", is proposed as a tool in the assessment of changes in climate. This thesis aims at demonstrating that stochastic information can improve the consideration and reduction of uncertainty in the assessment of changes in climate. The thesis consists of three parts. In part one, an indicator is developed that allows the determination of the proximity to a critical threshold. In part two, the tolerable windows approach (TWA) is extended to a probabilistic TWA. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted within the TWA. The thermohaline circulation (THC) is a circulation system in the North Atlantic, where the circulation may break down in a saddle-node bifurcation under the influence of climate change. Due to uncertainty in ocean models, it is currently very difficult to determine the distance of the THC to the bifurcation point. We propose a new indicator to determine the system's proximity to the bifurcation point by considering the THC as a stochastic system and using the information contained in the fluctuations of the circulation around the mean state. As the system is moved closer to the bifurcation point, the power spectrum of the overturning becomes \"redder\", i.e. more energy is contained in the low frequencies. Since the spectral changes are a generic property of the saddle-node bifurcation, the method is not limited to the THC, but it could also be applicable to other systems, e.g. transitions in ecosystems. In part two, a probabilistic extension to the tolerable windows approach (TWA) is developed. In the TWA, the aim is to determine the complete set of emission strategies that are compatible with so-called guardrails. Guardrails are limits to impacts of climate change or to climate change itself. Therefore, the TWA determines the \"maneuvering space\" humanity has, if certain impacts of climate change are to be avoided. Due to uncertainty it is not possible to definitely exclude the impacts of climate change considered, but there will always be a certain probability of violating a guardrail. Therefore the TWA is extended to a probabilistic TWA that is able to consider \"probabilistic uncertainty\", i.e. uncertainty that can be expressed as a probability distribution or uncertainty that arises through natural variability. As a first application, temperature guardrails are imposed, and the dependence of emission reduction strategies on probability distributions for climate sensitivities is investigated. The analysis suggests that it will be difficult to observe a temperature guardrail of 2\°C with high probabilities of actually meeting the target. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted. A simple hydrological model is presented, as well as a downscaling scheme that allows the reconstruction of the spatio-temporal natural variability of temperature and precipitation. These are used to determine a probabilistic climate impact response function (CIRF), a function that allows the assessment of changes in probability of certain flood events under conditions of a changed climate. The assessment of changes in flooding probability is conducted in 83 major river basins. Not all floods can be considered: Events that either happen very fast, or affect only a very small area can not be considered, but large-scale flooding due to strong longer-lasting precipitation events can be considered. Finally, the probabilistic CIRFs obtained are used to determine emission corridors, where the guardrail is a limit to the fraction of world population that is affected by a predefined shift in probability of the 50-year flood event. This latter analysis has two main results. The uncertainty about regional changes in climate is still very high, and even small amounts of further climate change may lead to large changes in flooding probability in some river systems.}, subject = {Anthropogene Klima{\"a}nderung}, language = {en} } @phdthesis{Koelsch2005, author = {K{\"o}lsch, Patrick}, title = {Static and dynamic properties of soluble surfactants at the air/water interface}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-5716}, school = {Universit{\"a}t Potsdam}, year = {2005}, abstract = {Amphiphilic molecules contain a hydrophilic headgroup and a hydrophobic tail. The headgroup is polar or ionic and likes water, the tail is typically an aliphatic chain that cannot be accommodated in a polar environment. The prevailing molecular asymmetry leads to a spontaneous adsorption of amphiphiles at the air/water or oil/water interfaces. As a result, the surface tension and the surface rheology is changed. Amphiphiles are important tools to deliberately modify the interfacial properties of liquid interfaces and enable new phenomena such as foams which cannot be formed in a pure liquid. In this thesis we investigate the static and dynamic properties of adsorption layers of soluble amphiphiles at the air/water interface, the so called Gibbs monolayers. The classical way for an investigation of these systems is based on a thermodynamic analysis of the equilibrium surface tension as a function of the bulk composition in the framework of Gibbs theory. However, thermodynamics does not provide any structural information and several recent publications challenge even fundamental text book concepts. The experimental investigation faces difficulties imposed by the low surface coverage and the presence of dissolved amphiphiles in the adjacent bulk phase. In this thesis we used a suite of techniques with the sensitivity to detect less than a monolayer of molecules at the air-water interface. Some of these techniques are extremely complex such as infrared visible sum frequency generation (IR-VIS SFG) spectroscopy or second harmonic generation (SHG). Others are traditional techniques, such as ellipsometry employed in new ways and pushed to new limits. Each technique probes selectively different parts of the interface and the combination provides a profound picture of the interfacial architecture. The first part of the thesis is dedicated to the distribution of ions at interfaces. Adsorption layers of ionic amphiphiles serve as model systems allowing to produce a defined surface charge. The charge of the monolayer is compensated by the counterions. As a result of a complex zoo of interactions there will be a defined distribution of ions at the interface, however, its experimental determination is a big scientific challenge. We could demonstrate that a combination of linear and nonlinear techniques gives direct insights in the prevailing ion distribution. Our investigations reveal specific ion effects which cannot be described by classical Poisson-Boltzmann mean field type theories. Adsorption layer and bulk phase are in thermodynamic equilibrium, however, it is important to stress that there is a constant molecular exchange between adsorbed and dissolved species. This exchange process is a key element for the understanding of some of the thermodynamic properties. An excellent way to study Gibbs monolayers is to follow the relaxation from a non-equilibrium to an equilibrium state. Upon compression amphiphiles must leave the adsorption layer and dissolve in the adjacent bulk phase. Upon expansion amphiphiles must adsorb at the interface to restore the equilibrium coverage. Obviously the frequency of the expansion and compression cycles must match the molecular exchange processes. At too low frequencies the equilibrium is maintained at all times. If the frequency is too fast the system behaves as a monolayer of insoluble surfactants. In this thesis we describe an unique variant of an oscillating bubble technique that measures precisely the real and imaginary part of the complex dilational modulus E in a frequency range up to 500 Hz. The extension of about two decades in the time domain in comparison to the conventional method of an oscillating drop is a tremendous achievement. The imaginary part of the complex dilational modulus E is a consequence of a dissipative process which is interpreted as an intrinsic surface dilational viscosity. The IR-VIS SFG spectra of the interfacial water provide a molecular interpretation of the underlying dissipative process.}, subject = {Nichtlineare Optik}, language = {en} } @phdthesis{Kubas2005, author = {Kubas, Daniel}, title = {Applications of Galactic Microlensing}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-5179}, school = {Universit{\"a}t Potsdam}, year = {2005}, abstract = {Subject of this work is the study of applications of the Galactic Microlensing effect, where the light of a distant star (source) is bend according to Einstein's theory of gravity by the gravitational field of intervening compact mass objects (lenses), creating multiple (however not resolvable) images of the source. Relative motion of source, observer and lens leads to a variation of deflection/magnification and thus to a time dependant observable brightness change (lightcurve), a so-called microlensing event, lasting weeks to months. The focus lies on the modeling of binary-lens events, which provide a unique tool to fully characterize the lens-source system and to detect extra-solar planets around the lens star. Making use of the ability of genetic algorithms to efficiently explore large and intricate parameter spaces in the quest for the global best solution, a modeling software (Tango) for binary lenses is developed, presented and applied to data sets from the PLANET microlensing campaign. For the event OGLE-2002-BLG-069 the 2nd ever lens mass measurement has been achieved, leading to a scenario, where a G5III Bulge giant at 9.4 kpc is lensed by an M-dwarf binary with total mass of M=0.51 solar masses at distance 2.9 kpc. Furthermore a method is presented to use the absence of planetary lightcurve signatures to constrain the abundance of extra-solar planets.}, subject = {Planeten}, language = {en} } @phdthesis{Luebbert1999, author = {L{\"u}bbert, Daniel}, title = {Strain and lattice distortion in semiconductor structures : a synchrotron radiation study}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0000195}, school = {Universit{\"a}t Potsdam}, year = {1999}, abstract = {Die Arbeit stellt neu entwickelte R{\"o}ntgenbeugungsmethoden vor, mit deren Hilfe der Verzerrungszustand des Kristallgitters von Halbleiter-Wafern und -Bauteilen im Detail charakterisiert werden kann. Hierzu werden die aussergew{\"o}hnlichen Eigenschaften der an modernen Synchrotrons wie der ESRF (Grenoble) verf{\"u}gbaren R{\"o}ntgenstrahlung genutzt. Im ersten Teil der Arbeit werden R{\"o}ntgen-Diffraktometrie und -Topographie zu einer Untersuchungsmethode kombiniert, mit der die makroskopische Kr{\"u}mmung von Halbleiter-Wafern ebenso wie ihre mikroskopische Defektstruktur abgebildet werden kann. Der zweite Teil ist der Untersuchung von epitaktisch gewachsenen und ge{\"a}tzten Oberfl{\"a}chengittern mit Abmessungen im Submikrometer-Bereich gewidmet. Die unterschiedlichen Gitterkonstanten der beteiligten Halbleitermaterialien f{\"u}hren zu einem inhomogenen Verzerrungsfeld in der Probe, das sich im R{\"o}ntgenbild durch eine charakteristische Verformung des Beugungsmusters in der Umgebung der Bragg-Reflexe {\"a}ussert. Die Analyse der experimentell gemessenen Beugungsmuster geschieht mit Hilfe eines neu entwickelten Simulationsverfahrens, das Elastizit{\"a}tstheorie und eine semi-kinematische R{\"o}ntgenbeugungstheorie miteinander verbindet. Durch quantitativen Vergleich der Simulationsergebnisse mit den Messdaten kann auf den genauen Verlauf des Verzerrungsfeldes in den Proben zur{\"u}ckgeschlossen werden. Dieses Verfahren wird erfolgreich auf verschiedene Halbleiter-Probensysteme angewendet, und schliesslich auch auf die Untersuchung von akustischen Oberfl{\"a}chenwellen in Halbleiterkristallen {\"u}bertragen.}, subject = {Halbleiter / Kristallgitter / Verzerrung / R{\"o}ntgenbeugung / Synchrotronstrahlung}, language = {de} } @phdthesis{Schmidt2000, author = {Schmidt, Robert W.}, title = {Cosmological applications of gravitational lensing}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0000261}, school = {Universit{\"a}t Potsdam}, year = {2000}, abstract = {In dieser Arbeit benutze ich den Gravitationslinseneffekt als ein Werkzeug, um zwei recht unterschiedliche kosmologische Fragestellungen zu bearbeiten: die Natur der dunklen Materie in Galaxienhalos und die Rotation des Universums. Zuerst untersuche ich den Mikrolinseneffekt in den Gravitationlinsensystemen Q0957+561 und Q2237+0305. In diesen Systemen scheint das Licht eines Quasars durch die Linsengalaxie hindurch. Aufgrund der Relativbewegung zwischen Quasar, Linsengalaxie und Beobachter verursachen kompakte Objekte innerhalb der Galaxie oder dem Galaxienhalo Helligkeitsfluktuationen des Hintergrundquasars. Ich vergleiche die am 3.5m Teleskop des Apache Point Observatory zwischen 1995 und 1998 gewonnene Lichtkurve des Doppelquasars Q0957+561 (Colley, Kundic \& Turner 2000) mit numerischen Simulationen, um zu untersuchen, ob der Halo der Linsengalaxie aus massiven kompakten Objekten (MACHOs) besteht. Dieser Test wurde zuerst von Gott (1981) vorgeschlagen. Ich kann MACHO-Massen von 10^-6 M_sun bis zu 10^-2 M_sun ausschliessen, sofern der Quasar kleiner ist als 3x10^14 h_60^-0.5 cm und MACHOs mehr als 50\% des dunklen Halos ausmachen. Im zweiten Teil der Arbeit stelle ich neue Beobachtungsdaten fuer den Vierfachquasar Q2237+0305 vor, die am 3.5m Teleskop des Apache Point Observatory zwischen Juni 1995 und Januar 1998 gewonnen wurden. Obwohl die Daten bei veraenderlichen, oft schlechten Seeing Bedingungen und grober Pixelaufloesung aufgenommen wurden, ist die Photometrie der beiden helleren Quasarbilder A und B mit Hilfe von HST-Beobachtungen moeglich. Ich finde ein Helligkeitsmaximum in Bild A mit einer Amplitude von 0.4 bis 0.5 mag und einer Dauer von wenigstens 100 Tagen. Dies zeigt, dass in der Linsengalaxie der Mikrolinseneffekt stattgefunden hat. Im abschliessenden Teil der Arbeit benutze ich dann den schwachen Gravitationslinseneffekt, um Grenzen fuer eine Klasse von rotierenden Kosmologien vom Goedel-Typ zu ermitteln, die von Korotky \& Obukhov (1996) beschrieben wurde. In Studien des schwachen Linseneffektes werden die Formen von tausenden von Hintergrundgalaxien vermessen und gemittelt. Dabei werden kohaerente Verzerrungen der Galaxienformen gemessen, die von Massenverteilungen im Vordergrund oder von der grossraeumigen Struktur der Raumzeit selbst verursacht werden. Ich berechne die vorhergesagte Scherung als Funktion der Rotverschiebung in rotierenden Kosmologien vom Goedel-Typ und vergleiche diese mit der oberen Grenze fuer die kosmische Scherung gamma_limit von 0.04, die in Studien des schwachen Linseneffektes gewonnen wurde. Dieser Vergleich zeigt, dass Modelle vom Goedel-Typ keine groesseren Rotationen omega als H_0=6.1x10^-11 h_60/Jahr haben koennen, wenn die Grenze fuer die kosmische Scherung fuer den ganzen Himmel gilt.}, language = {en} } @phdthesis{Nikolov2004, author = {Nikolov, Vesselin Kirolov}, title = {Model membranes grafted with long polymers}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0001409}, school = {Universit{\"a}t Potsdam}, year = {2004}, abstract = {Wir untersuchen, welchen Einfluss die Verankerung von langen, hydrophilen Polymeren in Lipidmembranen auf deren elastische Eigenschaften aus{\"u}bt. Theoretisch werden zwei Grenzbereiche f{\"u}r die spontane Kr{\"u}mmung der Membran erwartet: i) bei kleinen Oberfl{\"a}chenkonzentrationen des Polymers (Pilzgebiet) sollte die spontane Kr{\"u}mmung linear von der Oberfl{\"a}chendichte des verankerten Polymers abh{\"a}ngen; ii) bei hoher Bedeckung (B{\"u}rstengebiet) sollte die Abh{\"a}ngigkeit quadratisch sein. Wir versuchen, Vorhersagen f{\"u}r das B{\"u}rstengebiet zu pr{\"u}fen, indem wir die morphologischen Ver{\"a}nderungen beobachten, die bei Riesen (Giant)- Vesikeln hervorgerufen werden. Als lange Polymere verwenden wir fluoreszenzmarkierte \&\#955;-Phage DNA Molek{\"u}le, die durch eine Biotin-Avidin-Biotin Verbindung an biotinhaltigen Lipidvesikeln befestigt sind. Wir kontrollieren die Oberfl{\"a}chenkonzentration der Anker durch Variation der Menge an biotinhaltigem Lipid in der Membran. Die Menge der an der Membran verankerten DNA wird durch Fluoreszenzmessungen quantifiziert. {\"A}nderungen in den elastischen Eigenschaften der Membran bei Anbindung der DNA, werden {\"u}ber eine Analyse der Vesikel-Fluktuationen kontrolliert. Die spontane Kr{\"u}mmung der Membran steigt mit der Oberfl{\"a}chenbeladung. Bei h{\"o}heren Verankerungen bilden die Vesikel Knospen (budding). Die Gr{\"o}ße der Knospen kann ebenfalls zur Bestimmung der Kr{\"u}mmung der Membran verwendet werden. Der Einfluss auf die Biegesteifigkeit ist Thema weiterer Untersuchungen.}, language = {en} } @phdthesis{Hainzl1999, author = {Hainzl, Sebastian}, title = {Erdbeben und selbstorganisierte Kritizit{\"a}t : Modellierung der raumzeitlichen Erdbebendynamik}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0000130}, school = {Universit{\"a}t Potsdam}, year = {1999}, abstract = {Diese Arbeit besch{\"a}ftigt sich mit der Annahme, dass den Erdbeben ein selbstorganisiert kritischer Zustand der Erdkruste zugrunde liegt. Mit Hilfe einer Erweiterung bisheriger Modelle wird gezeigt, dass ein solcher Zustand nicht nur f{\"u}r die Gr{\"o}ssenverteilung der Erdbeben (Gutenberg-Richter Gesetz), sondern auch f{\"u}r das beobachtete raumzeitliche Auftreten, z.B. f{\"u}r das Omori-Gesetz f{\"u}r Nachbebenserien, verantwortlich sein kann. Desweiteren wird die Frage nach der Vorhersagbarkeit grosser Erdbeben in solchen Modellsimulationen untersucht.}, language = {de} } @phdthesis{Zoeller1999, author = {Z{\"o}ller, Gert}, title = {Analyse raumzeitlicher Muster in Erdbebendaten}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0000122}, school = {Universit{\"a}t Potsdam}, year = {1999}, abstract = {Die vorliegende Arbeit besch{\"a}ftigt sich mit der Charakterisierung von Seismizit{\"a}t anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss dar{\"u}ber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus f{\"u}r die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen h{\"a}ufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die M{\"o}glichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird h{\"a}ufig als Vorl{\"a}uferphaenomen f{\"u}r starke Erdbeben gedeutet. Es wird eine neue Methode pr{\"a}sentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen erm{\"o}glicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erh{\"a}lt man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz daf{\"u}r nicht hoch genug, um eine Vorhersage im Sinne einer Aussage {\"u}ber den Ort, die Zeit und die St{\"a}rke eines zu erwartenden Hauptbebens zu erm{\"o}glichen.}, language = {en} } @phdthesis{Uyaver2004, author = {Uyaver, Sahin}, title = {Simulation of annealed polyelectrolytes in poor solvents}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0001488}, school = {Universit{\"a}t Potsdam}, year = {2004}, abstract = {Polymere sind lange kettenartige Molek{\"u}le. Sie bestehen aus vielen elementaren chemischen Einheiten, den Monomeren, die durch kovalente Bindungen aneinander gekettet sind. Polyelektrolyte sind Polymere, die ionisierbare Monomeren enthalten. Aufgrund ihrer speziellen Eigenschaften sind Polyelektrolyte sowohl in der Molekular- und Zellbiologie von großen Bedeutung als auch in der Chemie großtechnisch relevant. Verglichen mit ungeladenen Polymeren sind Polyelektrolyte theoretisch noch wenig verstanden. Insbesondere gilt dies f{\"u}r Polyelektrolyte in sogenanntem schlechten L{\"o}sungsmittel. Ein schlechtes L{\"o}sungsmittel bewirkt eine effektive Anziehung zwischen den Monomeren. F{\"u}r Polyelektrolyte in schlechtem L{\"o}sungsmittel kommt es daher zu einer Konkurrenz zwischen dieser Anziehung und der elektrostatischen Abstoßung. Geladene Polymere werden im Rahmen der chemischen Klassifikation in starke und schwache Polyelektrolyte unterschieden. Erstere zeigen vollst{\"a}ndige Dissoziation unabh{\"a}ngig vom pH-Wert der L{\"o}sung. Die Position der Ladungen auf der Kette wird ausschließlich w{\"a}hrend der Polymersynthese festgelegt. In der Physik spricht man deshalb von Polyelektrolyten mit eingefrorener Ladungsverteilung (quenched polyelectrolytes). Im Falle von schwachen Polyelektrolyten ist die Ladungsdichte auf der Kette nicht konstant, sondern wird durch der pH-Wert der L{\"o}sung kontrolliert. Durch Rekombinations- und Dissoziationsprozesse sind die Ladungen auf der Kette beweglich. Im allgemeinen stellt sich eine inhomogene Gleichgewichtsverteilung ein, die mit der Struktur der Kette gekoppelt ist. Diese Polymere werden deshalb auch Polyelektrolyte mit Gleichgewichtsladungsverteilung (annealed polyelectrolytes) genannt. Wegen des zus{\"a}tzlichen Freiheitsgrades in der Ladungsverteilung werden eine Reihe ungew{\"o}hnlicher Eigenschaften theoretisch vorhergesagt. Mit Hilfe von Simulationen ist es zum ersten Mal gelungen, zu zeigen daß 'annealed' Polyelektrolyte in relativ schlechtem L{\"o}sungsmittel einen diskontinuierlichen Phasen{\"u}bergang durchlaufen, wenn ein kritischer pH-Werts der L{\"o}sung {\"u}berschritten wird. Bei diesem Phasen{\"u}bergang, gehen die Polyelektolyte von einer schwach geladenen kompakten globul{\"a}ren Struktur zu einer stark geladenen gestreckten Konfiguration {\"u}ber. Aufgrund theoretischer Vorhersagen wird erwartet, daß die globul{\"a}re Struktur in weniger schlechtem L{\"o}sungsmittel instabil wird und sich eine Perlenkettenkonfiguration ausbildet. Diese Vorhersage konnte f{\"u}r 'annealed' Polyelektrolyte mit den durchgef{\"u}hrten Simulationen zum ersten Mal best{\"a}tigt werden - inzwischen auch durch erste experimentelle Ergebnisse. Schließlich zeigen die Simulationen auch, daß annealed Polyelektrolyte bei einer kritischen Salzkonzentration in der L{\"o}sung einen scharfen {\"U}bergang zwischen einem stark geladenen gestreckten Zustand und einem schwach geladenen globul{\"a}ren Zustand aufweisen, wiederum in {\"U}bereinstimmung mit theoretischen Erwartungen.}, language = {en} } @phdthesis{Maraun2006, author = {Maraun, Douglas}, title = {What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-9047}, school = {Universit{\"a}t Potsdam}, year = {2006}, abstract = {Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than \$\alpha=0.5\$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined.}, subject = {Spektralanalyse }, language = {en} }