TY - JOUR A1 - Klamroth, Tillmann T1 - Optimal control of ultrafast laser driven many-electron dynamics in a polyatomic molecule: N-methyl-6-quinolone N2 - We report time-dependent configuration interaction singles calculations for the ultrafast laser driven many- electron dynamics in a polyatomic molecule, N-methyl-6-quinolone. We employ optimal control theory to achieve a nearly state-selective excitation from the S-0 to the S-1 state, on a time scale of a few (approximate to 6) femtoseconds. The optimal control scheme is shown to correct for effects opposing a state-selective transition, such as multiphoton transitions and other, nonlinear phenomena, which are induced by the ultrashort and intense laser fields. In contrast, simple two-level pi pulses are not effective in state-selective excitations when very short pulses are used. Also, the dependence of multiphoton and nonlinear effects on the number of states included in the dynamical simulations is investigated. Y1 - 2006 UR - http://jcp.aip.org/ U6 - https://doi.org/10.1063/1.2185633 SN - 0021-9606 ER - TY - JOUR A1 - Mellinger, Axel A1 - Flores Suárez, Rosaura A1 - Singh, Rajeev A1 - Wegener, Michael A1 - Wirges, Werner A1 - Lang, Sidney B. A1 - Gerhard, Reimund T1 - High-resolution space-charge and polarization tomography with thermal pulses N2 - Die Arbeit wurde am 13.03.2006 mit dem "BEST PAPER AWARD" des deutschen IEEE Instrumentation and Measurement (I&M) Chapter ausgezeichnet. Y1 - 2006 SN - 3-8007-2939-3 ER - TY - JOUR A1 - Rabe, Thorid T1 - Motivation, Interesse und Selbstkonzept im Physikunterricht Y1 - 2006 SN - 3-589-22148-8 ER - TY - JOUR A1 - Starauschek, Erich T1 - Zur Rolle der Sprache beim Lernen von Physik Y1 - 2006 SN - 3-589-22148-8 ER - TY - JOUR A1 - Beim Graben, Peter A1 - Atmanspacher, Harald T1 - Complementarity in classical dynamical systems N2 - The concept of complementarity, originally defined for non-commuting observables of quantum systems with states of non-vanishing dispersion, is extended to classical dynamical systems with a partitioned phase space. Interpreting partitions in terms of ensembles of epistemic states (symbols) with corresponding classical observables, it is shown that such observables are complementary to each other with respect to particular partitions unless those partitions are generating. This explains why symbolic descriptions based on an ad hoc partition of an underlying phase space description should generally be expected to be incompatible. Related approaches with different background and different objectives are discussed Y1 - 2006 UR - http://www.springerlink.com/content/101591 U6 - https://doi.org/10.1007/s10701-005-9013-0 SN - 0015-9018 ER - TY - JOUR A1 - Wegener, Michael A1 - Wirges, Werner A1 - Tiersch, Brigitte T1 - Porous polytetrafluoroethylene (PTFE) electret films : porosity and time dependent charging behaviour of the free surface N2 - Electrically charged porous polytetrafluoroethylene (PTFE) films are often discussed as active layers for electromechanical transducers. Here, the electric charging behavior of open-porous PTFE films with different porosities is investigated. Optimized electric charging of porous PTFE films is determined by variation of charging parameters such as electric fields and charging times. Maximum surface potentials are depending on the porosity of the PTFE films. Suitable charging leads to high surface potentials observed on non-stretched or slightly stretched porous PTFE films. Further increase of charging fields yields decreasing values of the surface potential accompanied with an increase of conductivity. Y1 - 2006 UR - http://www.springerlink.com/content/601u86x365560515/ U6 - https://doi.org/10.1007/s10934-006-9015-0 ER - TY - GEN A1 - Thiel, Marco A1 - Romano, Maria Carmen A1 - Kurths, Jürgen A1 - Rolfs, Martin T1 - Twin Surrogates to Test for Complex Synchronisation N2 - We present an approach to generate (multivariate) twin surrogates (TS) based on recurrence properties. This technique generates surrogates which correspond to an independent copy of the underlying system, i. e. they induce a trajectory of the underlying system starting at different initial conditions. We show that these surrogates are well suited to test for complex synchronisation and exemplify this for the paradigmatic system of R¨ossler oscillators. The proposed test enables to assess the statistical relevance of a synchronisation analysis from passive experiments which are typical in natural systems. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - paper 264 Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57231 ER - TY - GEN A1 - Thiel, Marco A1 - Romano, Maria Carmen A1 - Kurths, Jürgen A1 - Rolfs, Martin A1 - Kliegl, Reinhold T1 - Generating Surrogates from Recurrences N2 - In this paper we present an approach to recover the dynamics from recurrences of a system and then generate (multivariate) twin surrogate (TS) trajectories. In contrast to other approaches, such as the linear-like surrogates, this technique produces surrogates which correspond to an independent copy of the underlying system, i. e. they induce a trajectory of the underlying system visiting the attractor in a different way. We show that these surrogates are well suited to test for complex synchronization, which makes it possible to systematically assess the reliability of synchronization analyses. We then apply the TS to study binocular fixational movements and find strong indications that the fixational movements of the left and right eye are phase synchronized. This result indicates that there might be one centre only in the brain that produces the fixational movements in both eyes or a close link between two centres. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - paper 238 KW - Æ Recurrence Plots KW - Surrogate Data KW - Hypothesis Test KW - Phase Synchronization Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56906 ER - TY - GEN A1 - Allefeld, Carsten T1 - About the derivation of the SCA algorithm N2 - In Allefeld & Kurths [2004], we introduced an approach to multivariate phase synchronization analysis in the form of a Synchronization Cluster Analysis (SCA). A statistical model of a synchronization cluster was described, and an abbreviated instruction on how to apply this model to empirical data was given, while an implementation of the corresponding algorithm was (and is) available from the authors. In this letter, the complete details on how the data analysis algorithm is to be derived from the model are filled in. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - paper 075 Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20137 ER - TY - THES A1 - Ott, Christian David T1 - Stellar iron core collapse in {3+1} general relativity and the gravitational wave signature of core-collapse supernovae T1 - Stellarer Eisenkernkollaps in Allgemeiner Relativitätstheorie und die Gravitationswellensignatur von Kern-Kollaps-Supernovae N2 - I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars. N2 - Ich präsentiere die ersten Computer-Simulationen des rotierenden Kollapses stellarer Eisenkerne, die in der {3+1}-Zerlegung der Allgemeinen Relativitätstheorie durchgeführt werden und Vorsupernova-Sternmodelle aus Sternentwicklungsrechnungen, eine heiße nukleare Zustandsgleichung und ein näherungsweises Verfahren zur Beschreibung des Elektroneneinfangs enthalten und Neutrinodruck-Effekte berücksichtigen. Basierend auf den Ergebnissen dieser Rechnungen erhalte ich die zur Zeit realistischsten Vorhersagen für das Gravitationswellensignal der Kollaps, Abprall, Abkling und frühen Nach-Abprallphase einer Kern-Kollaps-Supernova. Neben den {3+1} Simulationen diskutiere ich newtonsche axisymmetrische Kern-Kollaps-Supernova-Simulationen mit Schwerpunkten auf: (1) der Gravitationswellenabstrahlung in der späten Nach-Abprallphase durch Konvektionsströmungen, anisotropische Neutrinoemission und Proto-Neutronenstern Pulsationen und (2) der Gravitationswellensignatur des Kollapses weißer Zwergsterne zu Neutronensternen, der durch Akkretion eingeleitet wird. KW - Gravitationswellen KW - Kern-Kollaps-Supernovae KW - Allgemeine Relativitätstheorie KW - Gravitational Waves KW - Core-Collapse Supernovae KW - General Relativity Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12986 ER - TY - THES A1 - Donner, Reik Volker T1 - Advanced methods for analysing and modelling multivariate palaeoclimatic time series T1 - Moderne Verfahren zur Analyse und Modellierung multivariater paläoklimatischer Zeitreihen N2 - The separation of natural and anthropogenically caused climatic changes is an important task of contemporary climate research. For this purpose, a detailed knowledge of the natural variability of the climate during warm stages is a necessary prerequisite. Beside model simulations and historical documents, this knowledge is mostly derived from analyses of so-called climatic proxy data like tree rings or sediment as well as ice cores. In order to be able to appropriately interpret such sources of palaeoclimatic information, suitable approaches of statistical modelling as well as methods of time series analysis are necessary, which are applicable to short, noisy, and non-stationary uni- and multivariate data sets. Correlations between different climatic proxy data within one or more climatological archives contain significant information about the climatic change on longer time scales. Based on an appropriate statistical decomposition of such multivariate time series, one may estimate dimensions in terms of the number of significant, linear independent components of the considered data set. In the presented work, a corresponding approach is introduced, critically discussed, and extended with respect to the analysis of palaeoclimatic time series. Temporal variations of the resulting measures allow to derive information about climatic changes. For an example of trace element abundances and grain-size distributions obtained near the Cape Roberts (Eastern Antarctica), it is shown that the variability of the dimensions of the investigated data sets clearly correlates with the Oligocene/Miocene transition about 24 million years before present as well as regional deglaciation events. Grain-size distributions in sediments give information about the predominance of different transportation as well as deposition mechanisms. Finite mixture models may be used to approximate the corresponding distribution functions appropriately. In order to give a complete description of the statistical uncertainty of the parameter estimates in such models, the concept of asymptotic uncertainty distributions is introduced. The relationship with the mutual component overlap as well as with the information missing due to grouping and truncation of the measured data is discussed for a particular geological example. An analysis of a sequence of grain-size distributions obtained in Lake Baikal reveals that there are certain problems accompanying the application of finite mixture models, which cause an extended climatological interpretation of the results to fail. As an appropriate alternative, a linear principal component analysis is used to decompose the data set into suitable fractions whose temporal variability correlates well with the variations of the average solar insolation on millenial to multi-millenial time scales. The abundance of coarse-grained material is obviously related to the annual snow cover, whereas a significant fraction of fine-grained sediments is likely transported from the Taklamakan desert via dust storms in the spring season. N2 - Die Separation natürlicher und anthropogen verursachter Klimaänderungen ist eine bedeutende Aufgabe der heutigen Klimaforschung. Hierzu ist eine detaillierte Kenntnis der natürlichen Klimavariabilität während Warmzeiten unerlässlich. Neben Modellsimulationen und historischen Aufzeichnungen spielt hierfür die Analyse von sogenannten Klima-Stellvertreterdaten eine besondere Rolle, die anhand von Archiven wie Baumringen oder Sediment- und Eisbohrkernen erhoben werden. Um solche Quellen paläoklimatischer Informationen vernünftig interpretieren zu können, werden geeignete statistische Modellierungsansätze sowie Methoden der Zeitreihenanalyse benötigt, die insbesondere auf kurze, verrauschte und instationäre uni- und multivariate Datensätze anwendbar sind. Korrelationen zwischen verschiedenen Stellvertreterdaten eines oder mehrerer klimatologischer Archive enthalten wesentliche Informationen über den Klimawandel auf großen Zeitskalen. Auf der Basis einer geeigneten Zerlegung solcher multivariater Zeitreihen lassen sich Dimensionen schätzen als die Zahl der signifikanten, linear unabhängigen Komponenten des Datensatzes. Ein entsprechender Ansatz wird in der vorliegenden Arbeit vorgestellt, kritisch diskutiert und im Hinblick auf die Analyse von paläoklimatischen Zeitreihen weiterentwickelt. Zeitliche Variationen der entsprechenden Maße erlauben Rückschlüsse auf klimatische Veränderungen. Am Beispiel von Elementhäufigkeiten und Korngrößenverteilungen des Cape-Roberts-Gebietes in der Ostantarktis wird gezeigt, dass die Variabilität der Dimension der untersuchten Datensätze klar mit dem Übergang vom Oligozän zum Miozän vor etwa 24 Millionen Jahren sowie regionalen Abschmelzereignissen korreliert. Korngrößenverteilungen in Sedimenten erlauben Rückschlüsse auf die Dominanz verschiedenen Transport- und Ablagerungsmechanismen. Mit Hilfe von Finite-Mixture-Modellen lassen sich gemessene Verteilungsfunktionen geeignet approximieren. Um die statistische Unsicherheit der Parameterschätzung in solchen Modellen umfassend zu beschreiben, wird das Konzept der asymptotischen Unsicherheitsverteilungen eingeführt. Der Zusammenhang mit dem Überlapp der einzelnen Komponenten und aufgrund des Abschneidens und Binnens der gemessenen Daten verloren gehenden Informationen wird anhand eines geologischen Beispiels diskutiert. Die Analyse einer Sequenz von Korngrößenverteilungen aus dem Baikalsee zeigt, dass bei der Anwendung von Finite-Mixture-Modellen bestimmte Probleme auftreten, die eine umfassende klimatische Interpretation der Ergebnisse verhindern. Stattdessen wird eine lineare Hauptkomponentenanalyse verwendet, um den Datensatz in geeignete Fraktionen zu zerlegen, deren zeitliche Variabilität stark mit den Schwankungen der mittleren Sonneneinstrahlung auf der Zeitskala von Jahrtausenden bis Jahrzehntausenden korreliert. Die Häufigkeit von grobkörnigem Material hängt offenbar mit der jährlichen Schneebedeckung zusammen, während feinkörniges Material möglicherweise zu einem bestimmten Anteil durch Frühjahrsstürme aus der Taklamakan-Wüste herantransportiert wird. KW - Zeitreihenanalyse KW - Paläoklimatologie KW - Multivariate Statistik KW - Korngrößenverteilungen KW - Time Series Analysis KW - Palaeoclimatology KW - Multivariate Statistics KW - Grain-size distributions Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12560 ER - TY - THES A1 - Tegtmeier, Susann T1 - Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung T1 - Variations of the residual circulation and its impact on ozone N2 - Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt. N2 - Due to the variability of tropospheric wave activity, the strength of the residual circulation has a distinct seasonal cycle and significant year-to-year variability. The variability of the residual circulation causes interannual variations of the polar ozone layer in late winter and spring. A reverse domain filling trajectory model based on atmospheric data sets is used to calculate the strength and spatial structure of the polar branch of the residual circulation. The atmospheric data sets (ERA-40 and ECMWF Analysis) emerge from a combined analysis of Reanalysis data and a weather forecast model and are available for a time period of 47 years starting from September 1957. Two different approaches are used in the trajectory routine to calculate the vertical movement of air. The first approach is based on the vertical velocity given by "European Centre for Medium Range Weather Forecast" (ECMWF), a quantity that is derived from the divergence of the horizontal winds and that tends to be noisy. In the second approach a radiation transfer model is used to calculate the diabatic heating rates from the divergence of the net radiation flux. The derived descent from both methods is compared with measured tracer distributions from satellite data and Arctic field campaigns. The comparison shows that the second approach results in a much more realistic vertical transport. The method based on the diabatic heating rates is used to compile a climatology of the diabatic descent, averaged within the polar vortex for the Arctic winters 1957/58-2003/04. Furthermore, the climatology contains information regarding the spatial structure of the diabatic descent. The influence of the diabatic descent in the Arctic polar vortex on the total ozone column is calculated for the recent winters since 1990. It is shown that the interannual variability of the Arctic total ozone column is in equal shares caused by dynamical transport processes and by chemical ozone depletion. KW - Allgemeine atmosphärische Zirkulation KW - Ozon KW - Strahlungstransportmodell KW - Trajektorienmodell KW - Polarwirbel KW - Residual circulation KW - Polar ozone KW - Radiation transfer model KW - Trajectory model KW - Polar vortex Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12118 ER - TY - THES A1 - Kappe, Philip T1 - Design and investigation of the emission dynamics of a mode-locked SBS-laser oscillator T1 - Steuerung und Untersuchung der Emissionsdynamik eines modengekoppelten SBS-Laser Oszillators N2 - The primary objective of this work was to develop a laser source for fundamental investigations in the field of laser – materials interactions. In particular it is supposed to facilitate the study of the influence of the temporal energy distribution such as the interaction between adjacent pulses on ablation processes. Therefore, the aim was to design a laser with a highly flexible and easily controllable temporal energy distribution. The laser to meet these demands is an SBS-laser with optional active mode-locking. The nonlinear reflectivity of the SBS-mirror leads to a passive Q-switching and issues ns-pulse bursts with µs spacing. The pulse train parameters such as pulse duration, pulse spacing, pulse energy and number of pulses within a burst can be individually adjusted by tuning the pump parameters and the starting conditions for the laser. Another feature of the SBS-reflection is phase conjugation, which leads to an excellent beam quality thanks to the compensation of phase distortions. Transverse fundamental mode operation and a beam quality better than 1.4 times diffraction limited can be maintained for average output powers of up to 10 W. In addition to the dynamics on a ns-timescale described above, a defined splitting up of each ns-pulse into a train of ps-pulses can be achieved by additional active mode-locking. This twofold temporal focussing of the intensity leads to single pulse energies of up to 2 mJ at pulse durations of approximately 400 ps which corresponds to a pulse peak power of 5 MW. While the pulse duration is of the same order of magnitude as those of other passively Q-switched lasers with simultaneous mode-locking, the pulse energy and pulse peak power exceeds the values of these systems found in the literature by an order of magnitude. To the best of my knowledge the laser presented here is the first implementation of a self-starting mode-locked SBS-laser oscillator. In order to gain a better understanding and control of the transient output of the laser two complementary numerical models were developed. The first is based on laser rate equations which are solved for each laser mode individually while the mode-locking dynamics are calculated from the resultant transient spectrum. The rate equations consider the mean photon densities in the resonator, therefore the propagation of the light inside the resonator is not properly displayed. The second model, in contrast, introduces a spatial resolution of the resonator and hence the propagation inside the resonator can more accurately be considered. Consequently, a mismatch between the loss modulation frequency and the resonator round trip time can be conceived. The model calculates all dynamics in the time domain and therefore the spectral influences such as the Stokes-shift have to be neglected. Both models achieve an excellent reproduction of the ns-dynamics that are generated by the SBS-Q-switch. Separately, each model fails to reproduce all aspects of the ps-dynamics of the SBS-laser in detail. This can be attributed to the complexity of the numerous physical processes involved in this system. But thanks to their complementary nature they provide a very useful tool for investigating the various influences on the dynamics of the mode-locked SBS-laser individually. These aspects can eventually be recomposed to give a complete picture of the mechanisms which govern the output dynamics. Among the aspects under scrutiny were in particular the start resonator quality which determines the starting condition for the SBS-Q-switch, the modulation depth of the AOM and the phonon lifetime as well as the Brillouin-frequency of the SBS-medium. The numerical simulations and the experiments have opened several doors inviting further investigations and promising a potential for further improvement of the experimental results: The results of the simulations in combination with the experimental results which determined the starting conditions for the simulations leave no doubt that the bandwidth generation can primarily be attributed to the SBS-Stokes-shift during the buildup of the Q-switch pulse. For each resonator round trip, bandwidth is generated by shifting a part of the revolving light in frequency. The magnitude of the frequency shift corresponds to the Brillouin-frequency which is a constant of the SBS material and amounts in the case of SF6 to 240 MHz. The modulation of the AOM merely provides an exchange of population between spectrally adjacent modes and therefore diminishes a modulation in the spectrum. By use of a material with a Brillouin-frequency in the GHz range the bandwidth generation can be considerably accelerated thereby shortening the pulse duration. Also, it was demonstrated that yet another nonlinear effect of the SBS can be exploited: If the phonon lifetime is short compared to the resonator round trip time we obtain a modulation in the SBS-reflectivity that supports the modulation of the AOM. The application of an external optical feedback by a conventional mirror turns out to be an alternative to the AOM in synchronizing the longitudinal resonator modes. The interesting feature about this system is that it is ― although highly complex in the physical processes and the temporal output dynamics ― very simple and inexpensive from a technical point of view. No expensive modulators and no control electronics are necessary. Finally, the numerical models constitute a powerful tool for the investigation of emission dynamics of complex laser systems on arbitrary timescales and can also display the spectral evolution of the laser output. In particular it could be demonstrated that differences in the results of the complementary models vanish for systems of lesser complexity. N2 - Ziel der Arbeit ist die Entwicklung einer Laserstrahlquelle, die zur Untersuchung von Laser-Material-Wechselwirkungen eingesetzt werden soll. Im Mittelpunkt des Interesses steht hierbei der Einfluss der zeitlichen Pulsstruktur des Lasers auf Materialabtragsprozesse. Daraus ergibt sich die Anforderung einer möglichst hohen Flexibilität in der Pulsstruktur des Lasers sowie einer möglichst guten Strahlqualität. Eine gute Strahlqualität zeichnet sich durch eine homogene räumliche Intensitätsverteilung aus und ist Voraussetzung für eine gezielte Energiedeponierung auf dem Material. Diese Anforderungen wurden mit einem SBS-Laser erfüllt. Dabei handelt es sich um einen Laser, der einen SBS-Spiegel verwendet, dessen Reflektivität auf der Streuung des Lichts an Schallwellen beruht, die von dem einfallenden Licht selbst erzeugt werden. Als Resultat hat dieser Spiegel eine Reflektivität, die abhängig von der Energie des eingestrahlten Lichts ist. In einem Laser verwendet führt diese energieabhängige Reflektivität zu einer sogenannten Güteschaltung, die sich in der Ausbildung von kurzen Lichtpulsen mit Dauern von etwa 100 Nanosekunden äußert. Die Abstände zwischen den Pulsen, die Pulsdauern und die Pulsenergien können sehr leicht durch die Randbedingungen, wie etwa die Reflektivität der konventionellen Spiegel des Lasers, gesteuert werden. Durch eine zusätzliche, aktiv herbeigeführte Verlustmodulation im Laserresonator wird eine Aufspaltung der Nanosekundenpulse in eine Reihe von Pulsen mit Dauern von nur noch einigen 100 Pikosekunden erreicht. Diese Technik ist unter dem Begriff Modenkopplung bekannt. Es liegt jetzt also eine doppelte Pulsstruktur vor: Nanosekundenpulse, die sich jeweils aus vielen Pikosekundenpulsen zusammensetzen. Durch diese doppelte zeitliche Bündelung der Ausgangsleistung werden während der Pulse Spitzenleistungen von bis zu 5 MW erreicht. Die Pulsenergien der ps-Pulse erreichen bis zu 2 mJ. Diese Werte liegen um den Faktor 10 über denen vergleichbarer Systeme. Meines Wissens ist dies die erste Umsetzung eines selbsttätigen SBS-Lasers mit zusätzlicher Modenkopplung. Um die verschiedenen Einflüsse auf diese Emissionsdynamik besser verstehen und kontrollieren zu können, wurden zwei Modelle mit komplementären Ansätzen entwickelt, auf deren Basis diese Dynamik durch numerische Simulationen wiedergegeben werden kann. Insbesondere können auf diese Weise auch die Einflüsse von einzelnen Materialparametern isoliert betrachtet werden, was im Experiment im allgemeinen nicht möglich ist. Der SBS-Laser wurde bereits erfolgreich in Laser-Materialbearbeitungsexperimenten eingesetzt. So konnte beispielsweise gezeigt werden, dass sich die Bearbeitungsdauer beim Wendelbohren durch die Verwendung von Pulszügen, also einer Reihe kurz aufeinander folgender Pulse, gegenüber dem Einsatz von Pulsen mit gleichmäßigen Abständen erheblich verbessern lässt. KW - Laser KW - Pulszugformung KW - Stimulierte Brillouin Streuung KW - Modenkopplung KW - Laser KW - tailored pulse trains KW - stimulated Brillouin scattering KW - mode-locking Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11514 ER - TY - THES A1 - Knopf, Brigitte T1 - On intrinsic uncertainties in earth system modelling T1 - Intrinsische Unsicherheiten in der Erdsystem Modellierung N2 - Uncertainties are pervasive in the Earth System modelling. This is not just due to a lack of knowledge about physical processes but has its seeds in intrinsic, i.e. inevitable and irreducible, uncertainties concerning the process of modelling as well. Therefore, it is indispensable to quantify uncertainty in order to determine, which are robust results under this inherent uncertainty. The central goal of this thesis is to explore how uncertainties map on the properties of interest such as phase space topology and qualitative dynamics of the system. We will address several types of uncertainty and apply methods of dynamical systems theory on a trendsetting field of climate research, i.e. the Indian monsoon. For the systematic analysis concerning the different facets of uncertainty, a box model of the Indian monsoon is investigated, which shows a saddle node bifurcation against those parameters that influence the heat budget of the system and that goes along with a regime shift from a wet to a dry summer monsoon. As some of these parameters are crucially influenced by anthropogenic perturbations, the question is whether the occurrence of this bifurcation is robust against uncertainties in parameters and in the number of considered processes and secondly, whether the bifurcation can be reached under climate change. Results indicate, for example, the robustness of the bifurcation point against all considered parameter uncertainties. The possibility of reaching the critical point under climate change seems rather improbable. A novel method is applied for the analysis of the occurrence and the position of the bifurcation point in the monsoon model against parameter uncertainties. This method combines two standard approaches: a bifurcation analysis with multi-parameter ensemble simulations. As a model-independent and therefore universal procedure, this method allows investigating the uncertainty referring to a bifurcation in a high dimensional parameter space in many other models. With the monsoon model the uncertainty about the external influence of El Niño / Southern Oscillation (ENSO) is determined. There is evidence that ENSO influences the variability of the Indian monsoon, but the underlying physical mechanism is discussed controversially. As a contribution to the debate three different hypotheses are tested of how ENSO and the Indian summer monsoon are linked. In this thesis the coupling through the trade winds is identified as key in linking these two key climate constituents. On the basis of this physical mechanism the observed monsoon rainfall data can be reproduced to a great extent. Moreover, this mechanism can be identified in two general circulation models (GCMs) for the present day situation and for future projections under climate change. Furthermore, uncertainties in the process of coupling models are investigated, where the focus is on a comparison of forced dynamics as opposed to fully coupled dynamics. The former describes a particular type of coupling, where the dynamics from one sub-module is substituted by data. Intrinsic uncertainties and constraints are identified that prevent the consistency of a forced model with its fully coupled counterpart. Qualitative discrepancies between the two modelling approaches are highlighted, which lead to an overestimation of predictability and produce artificial predictability in the forced system. The results suggest that bistability and intermittent predictability, when found in a forced model set-up, should always be cross-validated with alternative coupling designs before being taken for granted. All in this, this thesis contributes to the fundamental issue of dealing with uncertainties the climate modelling community is confronted with. Although some uncertainties allow for including them in the interpretation of the model results, intrinsic uncertainties could be identified, which are inevitable within a certain modelling paradigm and are provoked by the specific modelling approach. N2 - Die vorliegende Arbeit untersucht, auf welche Weise Unsicherheiten, wie sie in der integrierten Klima(folgen)forschung allgegenwärtig sind, die Stabilität und die Struktur dynamischer Systeme beeinflussen. Im Rahmen der Erdsystemmodellierung wird der Unsicherheitsanalyse zunehmend eine zentrale Bedeutung beigemessen. Einerseits können mit ihrer Hilfe disziplinäre Qualitäts-standards verbessert werden, andererseits ergibt sich die Chance, im Zuge von "Integrated Assessment" robuste entscheidungsrelevante Aussagen abzuleiten. Zur systematischen Untersuchung verschiedener Arten von Unsicherheit wird ein konzeptionelles Modell des Indischen Monsuns eingesetzt, das einen übergang von einem feuchten in ein trockenes Regime aufgrund einer Sattel-Knoten-Bifurkation in Abhängigkeit derjenigen Parameter zeigt, die die Wärmebilanz des Systems beeinflussen. Da einige dieser Parameter anthropogenen Einflüssen und Veränderungen unterworfen sind, werden zwei zentrale Punkte untersucht: zum einen, ob der Bifurkationspunkt robust gegenüber Unsicherheiten in Parametern und in Bezug auf die Anzahl und die Art der im Modell implementierten Prozesse ist und zum anderen, ob durch anthropogenen Einfluss der Bifurkationspunkt erreicht werden kann. Es zeigt sich unter anderem, dass das Auftreten der Bifurkation überaus robust, die Lage des Bifurkationspunktes im Phasenraum ist hingegen sehr sensitiv gegenüber Parameterunsicherheiten ist. Für diese Untersuchung wird eine neuartige Methode zur Untersuchung des Auftretens und der Lage einer Bifurkation gegenüber Unsicherheiten im hochdimensionalen Parameterraum entwickelt, die auf der Kombination einer Bifurkationsanalyse mit einer multi parametrischen Ensemble Simulation basiert. Mit dem Monsunmodell wird des weiteren die Unsicherheit bezüglich des externen Einflusses von El Niño / Southern Oscillation (ENSO) untersucht. Es ist bekannt, dass durch ENSO die Variabilität des Indischen Monsun beeinflußt wird, wohingegen der zu Grunde liegende Mechanismus kontrovers diskutiert wird. In dieser Arbeit werden drei verschiedene Hypothesen zur Kopplung zwischen diesen beiden Phänomenen untersucht. Es kann gezeigt werden, dass die Passat Winde einen Schlüsselmechanismus für den Einfluß von ENSO auf den Indischen Monsun darstellen. Mit Hilfe dieses Mechanismus können die beobachteten Niederschlagsdaten des Monsuns zu einem großen Anteil reproduziert werden. Zudem kann dieser Mechanismus kann auch in zwei globalen Zirkulationsmodellen (GCMs) für den heutigen Zustand und für ein Emissionsszenario unter Klimawandel identifiziert werden. Im weiteren Teil der Arbeit werden intrinsische Unsicherheiten identifiziert, die den Unterschied zwischen der Kopplung von Teilmodulen und dem Vorschreiben von einzelnen dieser Module durch Daten betreffen. Untersucht werden dazu ein getriebenes GCM-Ensemble und ein konzeptionelles Ozean-Atmosphären-Modell, das eine strukturierte Analyse anhand von Methoden der Theorie dynamischer Systeme ermöglicht. In den meisten Fällen kann die getriebene Version, in der ein Teil der Dynamik als externer Antrieb vorschrieben wird, das voll gekoppelte Pendant nachbilden. Es wird gezeigt, dass es jedoch auch Regionen im Phasen- und Parameterraum gibt, in dem sich die zwei Modellierungsansätze signifikant unterscheiden und unter anderem zu einer überschätzung der Vorhersagbarkeit und zu künstlichen Zuständen im getriebenen System führen. Die Ergebnisse legen den Schluss nahe, dass immer auch alternative Kopplungsmechanismen getestet werden müssen bevor das getriebene System als adäquate Beschreibung des gekoppelten Gesamtsystems betrachtet werden kann. Anhand der verschiedenen Anwendungen der Unsicherheitsanalyse macht die Arbeit deutlich, dass zum einen Unsicherheiten intrinsisch durch bestimmte Arten der Modellierung entstehen und somit unvermeidbar innerhalb eines Modellierungsansatzes sind, dass es zum anderen aber auch geeignete Methoden gibt, Unsicherheiten in die Modellierung und in die Bewertung von Modellergebnissen einzubeziehen. KW - Unsicherheit KW - Monsun KW - Klimatologie KW - Nichtlineare Dynamik KW - Unsicherheitsanalyse KW - Bifurkationsanalyse KW - Indischer Monsun KW - Modellkopplung KW - nonlinear dynamics KW - uncertainty analysis KW - bifurcation analysis KW - Indian Monsoon KW - model coupling Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10949 ER - TY - THES A1 - Gámez López, Antonio Juan T1 - Application of nonlinear dimensionality reduction to climate data for prediction T1 - Anwendung nichtlinearer Dimensionsreduktion auf Klimadaten zur Vorhersage N2 - This Thesis was devoted to the study of the coupled system composed by El Niño/Southern Oscillation and the Annual Cycle. More precisely, the work was focused on two main problems: 1. How to separate both oscillations into an affordable model for understanding the behaviour of the whole system. 2. How to model the system in order to achieve a better understanding of the interaction, as well as to predict future states of the system. We focused our efforts in the Sea Surface Temperature equations, considering that atmospheric effects were secondary to the ocean dynamics. The results found may be summarised as follows: 1. Linear methods are not suitable for characterising the dimensionality of the sea surface temperature in the tropical Pacific Ocean. Therefore they do not help to separate the oscillations by themselves. Instead, nonlinear methods of dimensionality reduction are proven to be better in defining a lower limit for the dimensionality of the system as well as in explaining the statistical results in a more physical way [1]. In particular, Isomap, a nonlinear modification of Multidimensional Scaling methods, provides a physically appealing method of decomposing the data, as it substitutes the euclidean distances in the manifold by an approximation of the geodesic distances. We expect that this method could be successfully applied to other oscillatory extended systems and, in particular, to meteorological systems. 2. A three dimensional dynamical system could be modeled, using a backfitting algorithm, for describing the dynamics of the sea surface temperature in the tropical Pacific Ocean. We observed that, although there were few data points available, we could predict future behaviours of the coupled ENSO-Annual Cycle system with an accuracy of less than six months, although the constructed system presented several drawbacks: few data points to input in the backfitting algorithm, untrained model, lack of forcing with external data and simplification using a close system. Anyway, ensemble prediction techniques showed that the prediction skills of the three dimensional time series were as good as those found in much more complex models. This suggests that the climatological system in the tropics is mainly explained by ocean dynamics, while the atmosphere plays a secondary role in the physics of the process. Relevant predictions for short lead times can be made using a low dimensional system, despite its simplicity. The analysis of the SST data suggests that nonlinear interaction between the oscillations is small, and that noise plays a secondary role in the fundamental dynamics of the oscillations [2]. A global view of the work shows a general procedure to face modeling of climatological systems. First, we should find a suitable method of either linear or nonlinear dimensionality reduction. Then, low dimensional time series could be extracted out of the method applied. Finally, a low dimensional model could be found using a backfitting algorithm in order to predict future states of the system. N2 - Das Ziel dieser Arbeit ist es das Verhalten der Temperatur des Meers im tropischen Pazifischen Ozean vorherzusagen. In diesem Gebiet der Welt finden zwei wichtige Phänomene gleichzeitig statt: der jährliche Zyklus und El Niño. Der jährliche Zyklus kann als Oszillation physikalischer Variablen (z.B. Temperatur, Windgeschwindigkeit, Höhe des Meeresspiegels), welche eine Periode von einem Jahr zeigen, definiert werden. Das bedeutet, dass das Verhalten des Meers und der Atmosphäre alle zwölf Monate ähnlich sind (alle Sommer sind ähnlicher jedes Jahr als Sommer und Winter des selben Jahres). El Niño ist eine irreguläre Oszillation weil sie abwechselnd hohe und tiefe Werte erreicht, aber nicht zu einer festen Zeit, wie der jährliche Zyklus. Stattdessen, kann el Niño in einem Jahr hohe Werte erreichen und dann vier, fünf oder gar sieben Jahre benötigen, um wieder aufzutreten. Es ist dabei zu beachten, dass zwei Phänomene, die im selben Raum stattfinden, sich gegenseitig beeinflussen. Dennoch weiß man sehr wenig darüber, wie genau el Niño den jährlichen Zyklus beeinflusst, und umgekehrt. Das Ziel dieser Arbeit ist es, erstens, sich auf die Temperatur des Meers zu fokussieren, um das gesamte System zu analysieren; zweitens, alle Temperaturzeitreihen im tropischen Pazifischen Ozean auf die geringst mögliche Anzahl zu reduzieren, um das System einerseits zu vereinfachen, ohne aber andererseits wesentliche Information zu verlieren. Dieses Vorgehen ähnelt der Analyse einer langen schwingenden Feder, die sich leicht um die Ruhelage bewegt. Obwohl die Feder lang ist, können wir näherungsweise die ganze Feder zeichnen wenn wir die höchsten Punkte zur einen bestimmten Zeitpunkt kennen. Daher, brauchen wir nur einige Punkte der Feder um ihren Zustand zu charakterisieren. Das Hauptproblem in unserem Fall ist die Mindestanzahl von Punkten zu finden, die ausreicht, um beide Phänomene zu beschreiben. Man hat gefunden, dass diese Anzahl drei ist. Nach diesem Teil, war das Ziel vorherzusagen, wie die Temperaturen sich in der Zeit entwickeln werden, wenn man die aktuellen und vergangenen Temperaturen kennt. Man hat beobachtet, dass eine genaue Vorhersage bis zu sechs oder weniger Monate gemacht werden kann, und dass die Temperatur für ein Jahr nicht vorhersagbar ist. Ein wichtiges Resultat ist, dass die Vorhersagen auf kurzen Zeitskalen genauso gut sind, wie die Vorhersagen, welche andere Autoren mit deutlich komplizierteren Methoden erhalten haben. Deswegen ist meine Aussage, dass das gesamte System von jährlichem Zyklus und El Niño mittels einfacherer Methoden als der heute angewandten vorhergesagt werden kann. KW - Nichtlineare Dynamik KW - El Niño Phänomen KW - Prognose KW - nonlinear dynamics KW - El Niño KW - prediction Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10956 ER - TY - THES A1 - Dominis, Dijana T1 - The role of binary stars in searches for extrasolar planets by microlensing and astrometry T1 - Die Rolle der Doppelsterne bei der Suche nach extrasolaren Planeten durch Mikrogravitationslinseneffekte und Astrometrie N2 - When Galactic microlensing events of stars are observed, one usually measures a symmetric light curve corresponding to a single lens, or an asymmetric light curve, often with caustic crossings, in the case of a binary lens system. In principle, the fraction of binary stars at a certain separation range can be estimated based on the number of measured microlensing events. However, a binary system may produce a light curve which can be fitted well as a single lens light curve, in particullary if the data sampling is poor and the errorbars are large. We investigate what fraction of microlensing events produced by binary stars for different separations may be well fitted by and hence misinterpreted as single lens events for various observational conditions. We find that this fraction strongly depends on the separation of the binary components, reaching its minimum at between 0.6 and 1.0 Einstein radius, where it is still of the order of 5% The Einstein radius is corresponding to few A.U. for typical Galactic microlensing scenarios. The rate for misinterpretation is higher for short microlensing events lasting up to few months and events with smaller maximum amplification. For fixed separation it increases for binaries with more extreme mass ratios. Problem of degeneracy in photometric light curve solution between binary lens and binary source microlensing events was studied on simulated data, and data observed by the PLANET collaboration. The fitting code BISCO using the PIKAIA genetic algorithm optimizing routine was written for optimizing binary-source microlensing light curves observed at different sites, in I, R and V photometric bands. Tests on simulated microlensing light curves show that BISCO is successful in finding the solution to a binary-source event in a very wide parameter space. Flux ratio method is suggested in this work for breaking degeneracy between binary-lens and binary-source photometric light curves. Models show that only a few additional data points in photometric V band, together with a full light curve in I band, will enable breaking the degeneracy. Very good data quality and dense data sampling, combined with accurate binary lens and binary source modeling, yielded the discovery of the lowest-mass planet discovered outside of the Solar System so far, OGLE-2005-BLG-390Lb, having only 5.5 Earth masses. This was the first observed microlensing event in which the degeneracy between a planetary binary-lens and an extreme flux ratio binary-source model has been successfully broken. For events OGLE-2003-BLG-222 and OGLE-2004-BLG-347, the degeneracy was encountered despite of very dense data sampling. From light curve modeling and stellar evolution theory, there was a slight preference to explain OGLE-2003-BLG-222 as a binary source event, and OGLE-2004-BLG-347 as a binary lens event. However, without spectra, this degeneracy cannot be fully broken. No planet was found so far around a white dwarf, though it is believed that Jovian planets should survive the late stages of stellar evolution, and that white dwarfs will retain planetary systems in wide orbits. We want to perform high precision astrometric observations of nearby white dwarfs in wide binary systems with red dwarfs in order to find planets around white dwarfs. We selected a sample of observing targets (WD-RD binary systems, not published yet), which can possibly have planets around the WD component, and modeled synthetic astrometric orbits which can be observed for these targets using existing and future astrometric facilities. Modeling was performed for the astrometric accuracy of 0.01, 0.1, and 1.0 mas, separation between WD and planet of 3 and 5 A.U., binary system separation of 30 A.U., planet masses of 10 Earth masses, 1 and 10 Jupiter masses, WD mass of 0.5M and 1.0 Solar masses, and distances to the system of 10, 20 and 30 pc. It was found that the PRIMA facility at the VLTI will be able to detect planets around white dwarfs once it is operating, by measuring the astrometric wobble of the WD due to a planet companion, down to 1 Jupiter mass. We show for the simulated observations that it is possible to model the orbits and find the parameters describing the potential planetary systems. N2 - Bei von Sternen verursachten Mikrolinsen-Ereignissen beobachtet man meist symmetrische Lichtkurven einer einzelnen Linse oder asymmetrische Lichtkurven (oftmals mit Kaustik-Crossing), die durch Doppel-Linsen hervorgerufen werden. Im Prinzip kann aus der Zahl der gemessenen unsymmetrischen Ereignisse der Anteil der Doppelstern-Systeme in Abhängigkeit vom Winkelabstand abgeschätzt werden. Allerdings kann auch ein Doppelsystem Lichtkurven erzeugen, die gut mit einer Einzellinsen-Lichtkurve gefittet werden können. Die gilt insbesondere bei lückenhafter Messung oder grossen Messfehlern. In dieser Arbeit wird für verschiedene Beobachtungsbedingungen untersucht, wie häufig Lichtkurven, die von Doppellinsen mit unterschiedlichen Abständen erzeugt werden, gut mit Einzellinsen-Lichtkurven gefittet werden können und damit fehlinterpretiert werden. Es wurde herausgefunden, dass der Anteil fehlinterpretierter Lichtkurven stark von der Separation der Komponenten abhängig ist: das Minimum liegt zwischen 2 A.E. and 5 A.E. , wobei der Anteil immer noch 5% beträgt. Die Rate der Fehlinterpretationen ist höher für kurze Mikrolinsen-Ereignisse (bis zu wenigen Monaten) und für Ereignisse mit geringer Maximalverstärkung. Bei gleicher Separation steigt die Rate mit extremeren Massenverhältnissen an. Das Problem der Degenerierung zwischen den Lichtkurven für doppelte Linsensysteme und doppelte Hintergrund-Quellen wurde anhand simulierter Daten und mit Beobachtungsdaten des PLANET Projekts untersucht. Der Fit-Code BISCO, der den genetischen Algorithmus PIKAIA nutzt, wurde geschrieben, um Doppel-Linsen Lichtkurven, die von verschiedenen Observatorien in den photometrischen Bändern I, B, und V gemessen wurden, zu modellieren. Tests mit simulierten Daten haben gezeigt, dass BISCO in der Lage ist, in einem sehr weiten Parameterbereich die korrekte Lösung für die Lichtkurve einer Doppel-Linsen zu finden. In dieser Arbeit wird die Flussverhältnis-Methode empfohlen, um die Degenerierung zwischen Doppel-Linse und Doppel-Quelle aufzulösen. Modellierungen zeigen, dass nur wenige zusätzliche Datenpunkte im V-Band genügen, um zusammen mit einer vollständigen Lichtkurve im I-Band die Degenerierung aufzubrechen. Mit sehr guter Datenqualität und zeitlich dichten Messungen, kombiniert mit genauer Modellierung von Doppel-Linsen und Doppel-Quellen, gelang die Entdeckung des bisher masseärmsten Planeten ausserhalb des Sonnensystems: OGLE-2005-BLG-390Lb, mit nur 5.5 Erdmassen. Dies war das erste Mikrolinsen-Ereignis, bei dem die Degenerierung zwischen plantarer Doppel-Linse und einer Doppel-Quelle mit extremem Flussverhältnis erfolgreich aufgelöst wurde. Für die Ereignisse OGLE-2003-BLG-222 und OGLE-2004-BLG-347 besteht die Degenerierung trotz sehr dichter Messungen. Aufgrund der Lichtkurvenmodellierung und Argumenten aus der Theorie der Sternentwicklung ist die Erklärung von OGLE-2003-BLG-222 als Doppel-Quelle und OGLE-2004-BLG-347 als Doppel-Linsen Ereignis vorzuziehen. Allerdings kann die Degenerierung ohne spektrale Daten nicht vollständig aufgelöst werden. Bisher wurde kein Planet als Begleiter eines Weissen Zwerges gefunden, obwohl es möglich sein sollte, dass jupiterähnliche Planeten die Spätstadien der Sternentwicklung überleben und dass sich Weisse Zwerge Planetensysteme mit weiten Umlaufbahnen erhalten können. Wir planen hochgenaue astrometrische Beobachtungen von nahen Weissen Zwergen in weiten Doppelsystemen, um Planeten um Weisse Zwerge zu finden. Wir haben eine Stichprobe von Systemen zusammengestellt, in denen möglicherweise Planeten gefunden werden könnten. Wir haben synthetische astrometrische Orbits modelliert, die für diese Systeme mit existierenden und zukünftigen astrometrischen Instrumenten beobachtbar sind. Die Modellierungen wurden für astrometrische Genauigkeiten von 0.01, 0.1, 1.0 Mikrobogensekunden gerechnet. Als Abstände zwischen weissem Zwerg und Planet wurden 3, 5 und 10 Astronomische Einheiten angenommen, für den Abstand zwischen den Doppelsternkomponenten 30 A.E. Als Planetenmassen wurden 10 Erdmassen, bzw. 1 und 10 Jupitermassen gewählt, als Masse für den weissen Zwerg 0.5 und 1.0 Sonnenmassen. Die Distanzen zum System betragen 10 und 20 parsec. Als Resultat dieser Untersuchung wurde herausgefunden, dass das PRIMA Instrument am VLTI in der Lage sein wird, die astrometrischen Oszillationen, die ein Planet ab einer Jupitermasse verursacht, zu detektieren. Wir zeigen, dass es möglich sein wird, die Umlaufbahnen solcher Planeten zu modellieren und damit die Parameter dieser Planetensysteme zu bestimmen. KW - Mikrogravitationslinseneffekt KW - Astrometrie KW - Extrasolare Planeten KW - Microlensing KW - astrometry KW - extrasolar planets Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10814 ER - TY - THES A1 - Albers, Nicole T1 - On the relevance of adhesion : applications to Saturn's rings T1 - Zur Relevanz von Teilchenadhäsion : Anwendung auf die Ringe des Saturn N2 - Since their discovery in 1610 by Galileo Galilei, Saturn's rings continue to fascinate both experts and amateurs. Countless numbers of icy grains in almost Keplerian orbits reveal a wealth of structures such as ringlets, voids and gaps, wakes and waves, and many more. Grains are found to increase in size with increasing radial distance to Saturn. Recently discovered "propeller" structures in the Cassini spacecraft data, provide evidence for the existence of embedded moonlets. In the wake of these findings, the discussion resumes about origin and evolution of planetary rings, and growth processes in tidal environments. In this thesis, a contact model for binary adhesive, viscoelastic collisions is developed that accounts for agglomeration as well as restitution. Collisional outcomes are crucially determined by the impact speed and masses of the collision partners and yield a maximal impact velocity at which agglomeration still occurs. Based on the latter, a self-consistent kinetic concept is proposed. The model considers all possible collisional outcomes as there are coagulation, restitution, and fragmentation. Emphasizing the evolution of the mass spectrum and furthermore concentrating on coagulation alone, a coagulation equation, including a restricted sticking probability is derived. The otherwise phenomenological Smoluchowski equation is reproduced from basic principles and denotes a limit case to the derived coagulation equation. Qualitative and quantitative analysis of the relevance of adhesion to force-free granular gases and to those under the influence of Keplerian shear is investigated. Capture probability, agglomerate stability, and the mass spectrum evolution are investigated in the context of adhesive interactions. A size dependent radial limit distance from the central planet is obtained refining the Roche criterion. Furthermore, capture probability in the presence of adhesion is generally different compared to the case of pure gravitational capture. In contrast to a Smoluchowski-type evolution of the mass spectrum, numerical simulations of the obtained coagulation equation revealed, that a transition from smaller grains to larger bodies cannot occur via a collisional cascade alone. For parameters used in this study, effective growth ceases at an average size of centimeters. N2 - Seit ihrer Entdeckung im Jahre 1610 durch Galileo Galilei faszinieren die Ringe des Saturn sowohl Laien als auch Experten. Planetare Ringe finden sich in der Äquatorialebene aller vier Riesenplaneten unseres Sonnensystems und sind eines der eindruckvollsten Beispiele granularer Gase. Darunter gehören die Saturnringe zu den Bekanntesten. Sie bergen eine Vielzahl von Strukturen und erstrecken sich über mehr als 240 000 Kilometer, wobei sie weit weniger als 100 Meter dick sind. Unzählige kleinerer Körper bewegen sich auf leicht exzentrischen Kepler-ähnlichen Bahnen um den Zentralplaneten und bestehen dabei vorwiegend aus Eis. Die seit Juli 2004 im Orbit um den Saturn befindliche Raumsonde Cassini liefert atemberaubende Bilder und Daten, die nicht nur neue Erkenntnisse liefern, sondern auch alte Fragestellungen neu aufleben lassen. Dazu gehört z.B. die Frage nach dem Ursprung und den Entwicklungsstufen planetarer Ringe. Kürzlich, im äusseren A-Ring entdeckte Kleinmonde, deren Existenz schon viel früher postuliert wurde, weisen auf eventuell stattfindende Wachstumsprozesse hin. Da sich planetare Ringe jedoch hauptsächlich innerhalb der sogenannten Roche-Zone des jeweiligen Planeten befinden, ist ein effektives, allein auf gravitativen Wechselwirkungen beruhendes Größenwachstum nicht zu erwarten. Der Einfluß von Teilchenadhäsion auf diese Prozesse ist bis dato fraglich. Im Rahmen dieser Dissertation ist ein Kontaktmodell für adhäsive, viskoelastische Binärstöße granularer Teilchen entwickelt worden, welches sowohl deren Agglomeration als auch Restitution gestattet. Chakateristisch für granulare Materie ist die dissipative Wechselwirkung der einzelnen Teilchen untereinander. Dieser Energieverlust wird gewöhnlich mittels des Restitutionskoeffizienten erfaßt, der das Verhältnis von Relativgeschwindigkeiten nach zu vor dem Stoß darstellt. Dieser Parameter ermöglicht es, Agglomeration und Restitution nicht nur qualitativ sondern auch quantitativ voneinander zu unterscheiden. Ferner ergibt sich eine maximale Impaktgeschwindigkeit, bei der eine Agglomeration noch immer möglich ist. Basierend auf der Existenz derartiger Grenzgeschwindigkeiten für Agglomeration und Fragmentation, wurde in dieser Dissertation ein selbstkonsistentes, kinetisches Strukturbildungsmodell vorgestellt und im Hinblick auf die Koagulation von Teilchen weitergehend untersucht. Eine Koagulationsgleichung, die einer eingeschränkten Haftwahrscheinlichkeit Rechnung trägt, ist analytisch hergeleitet worden. Aus ihr läßt sich die allgemein bekannte, aber ansonsten phenomenologische Smoluchowski Gleichung als ein Grenzfall ableiten, bei dem jeder mögliche Kontakt zur Koagulation führt. Qualitative und quantitative Untersuchungen der Relevanz von Adhäsion in kräftefreien und Kepler-gescherten Systemen beziehen sich auf die Stabilität von Zwei-Teilchen-Agglomeraten, die Wahrscheinlichkeit eines gegenseitigen "Einfangens" beider Teilchen, und die zeitliche Entwicklung der Größenverteilung unter Berücksichtigung der im ersten Teil dieser Arbeit eingeführten Kollisionsdynamik. Dabei ergab sich ein kritischer Abstand zum Zentralkörper, der das ansonsten in diesem Rahmen benutzte Roche Kriterium erweitert. Numerische Simulationen der vorgestellten Koagulationsgleichung zeigen deutlich, daß im Vergleich zu Smoluchowski-ähnlichem Verhalten, ein kollisionsbasiertes Wachstum von kleineren zu größeren Körpern nicht notwendigerweise auftritt. Lediglich Größen von Zentimetern konnten an dieser Stelle erreicht werden. Die Relevanz von adhäsiven Teilchenwechselwirkungen konnte damit nachgewiesen werden. Vermögen diese auch nicht für ein effektives Wachstum aufzukommen, so sind sie dennoch von Bedeutung für die kollektive Dynamik planetarer Ringe. KW - Saturn KW - Cassini KW - Adhäsion KW - Kinetik KW - Planetare Ringe KW - Roche Limit KW - Roche KW - Agglomeration KW - Kollisionsdynamik KW - planetary rings KW - Saturn KW - collision dynamics KW - adhesion KW - kinetics KW - kinetic Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10848 ER - TY - THES A1 - Kuckländer, Nina T1 - Synchronization via correlated noise and automatic control in ecological systems T1 - Synchronisation in ökologischen Systemen durch korreliertes Rauschen und automatische Kontrolle N2 - Subject of this work is the possibility to synchronize nonlinear systems via correlated noise and automatic control. The thesis is divided into two parts. The first part is motivated by field studies on feral sheep populations on two islands of the St. Kilda archipelago, which revealed strong correlations due to environmental noise. For a linear system the population correlation equals the noise correlation (Moran effect). But there exists no systematic examination of the properties of nonlinear maps under the influence of correlated noise. Therefore, in the first part of this thesis the noise-induced correlation of logistic maps is systematically examined. For small noise intensities it can be shown analytically that the correlation of quadratic maps in the fixed-point regime is always smaller than or equal to the noise correlation. In the period-2 regime a Markov model explains qualitatively the main dynamical characteristics. Furthermore, two different mechanisms are introduced which lead to a higher correlation of the systems than the environmental correlation. The new effect of "correlation resonance" is described, i. e. the correlation yields a maximum depending on the noise intensity. In the second part of the thesis an automatic control method is presented which synchronizes different systems in a robust way. This method is inspired by phase-locked loops and is based on a feedback loop with a differential control scheme, which allows to change the phases of the controlled systems. The effectiveness of the approach is demonstrated for controlled phase synchronization of regular oscillators and foodweb models. N2 - Gegenstand der Arbeit ist die Möglichkeit der Synchronisierung von nichtlinearen Systemen durch korreliertes Rauschen und automatische Kontrolle. Die Arbeit gliedert sich in zwei Teile. Der erste Teil ist motiviert durch Feldstudien an wilden Schafspopulationen auf zwei Inseln des St. Kilda Archipels, die starke Korrelationen aufgrund von Umwelteinflüssen zeigen. In einem linearen System entspricht die Korrelation der beiden Populationen genau der Rauschkorrelation (Moran-Effekt). Es existiert aber noch keine systematische Untersuchung des Verhaltens nichtlinearer Abbildungen unter dem Einfluss korrelierten Rauschens. Deshalb wird im ersten Teils dieser Arbeit systematisch die rauschinduzierte Korrelation zweier logistischer Abbildungen in den verschiedenen dynamischen Bereichen untersucht. Für kleine Rauschintensitäten wird analytisch gezeigt, dass die Korrelation von quadratischen Abbildungen im Fixpunktbereich immer kleiner oder gleich der Rauschkorrelation ist. Im Periode-2 Bereich beschreibt ein Markov-Modell qualitativ die wichtigsten dynamischen Eigenschaften. Weiterhin werden zwei unterschiedliche Mechanismen vorgestellt, die dazu führen, dass die beiden ungekoppelten Systeme stärker als ihre Umwelt korreliert sein können. Dabei wird der neue Effekt der "correlation resonance" aufgezeigt, d. h. es ergibt sich eine Resonanzkurve der Korrelation in Abbhängkeit von der Rauschstärke. Im zweiten Teil der Arbeit wird eine automatische Kontroll-Methode präsentiert, die es ermöglicht sehr unterschiedliche Systeme auf robuste Weise in Phase zu synchronisieren. Die Methode ist angelehnt an Phase-locked-Loops und basiert auf einer Rückkopplungsschleife durch einen speziellen Regler, der es erlaubt die Phasen der kontrollierten Systeme zu ändern. Die Effektivität dieser Methode zur Kontrolle der Phasensynchronisierung wird an regulären Oszillatoren und an Nahrungskettenmodellen demonstriert. KW - Markov-Prozess KW - Kontrolltheorie KW - Synchronisierung KW - Nichtlineare Dynamik KW - Theoretische Ökologie KW - Moran-Effekt KW - Stochastische Prozesse KW - Moran effect KW - Markov process KW - Theoretical ecology KW - Synchronisation KW - Nonlinear Dynamics Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10826 ER - TY - THES A1 - Zakrevskyy, Yuriy T1 - Liquid crystallinity and alignment of ionic self-assembly complexes T1 - Flüssigkristallinität und Alignment ionischer Self-Assembly Komplexe N2 - In this work the first observation of new type of liquid crystals is presented. This is ionic self-assembly (ISA) liquid crystals formed by introduction of oppositely charged ions between different low molecular tectonic units. As practically all conventional liquid crystals consist of rigid core and alkyl chains the attention is focused to the simplest case where oppositely charged ions are placed between a rigid core and alkyl tails. The aim of this work is to investigate and understand liquid crystalline and alignment properties of these materials. It was found that ionic interactions within complexes play the main role. Presence of these interactions restricts transition to isotropic phase. In addition, these interactions hold the system (like network) allowing crystallization into a single domain from aligned LC state. Alignment of these simple ISA complexes was spontaneous on a glass substrate. In order to show potentials for application perylenediimide and azobenzene containing ISA complexes have been investigated for correlations between phase behavior and their alignment properties. The best results of macroscopic alignment of perylenediimide-based ISA complexes have been obtained by zone-casting method. In the aligned films the columns of the complex align perpendicular to the phase-transition front. The obtained anisotropy (DR = 18) is thermally stable. The investigated photosensitive (azobenzene-based) ISA complexes show formation of columnar LC phases. It was demonstrated that photo alignment of such complexes was very effective (DR = 50 has been obtained). It was shown that photo-reorientation in the photosensitive ISA complexes is cooperative process. The size of domains has direct influence on efficiency of the photo-reorientation process. In the case of small domains the photo-alignment is the most effective. Under irradiation with linearly polarized light domains reorient in the plane of the film leading to macroscopic alignment of columns parallel to the light polarization and joining of small domains into big ones. Finally, the additional distinguishable properties of the ISA liquid crystalline complexes should be noted: (I) the complexes do not solve in water but readily solve in organic solvents; (II) the complexes have good film-forming properties when cast or spin-coated from organic solvent; (III) alignment of the complexes depends on their structure and secondary interactions between tectonic units. N2 - In dieser Arbeit wird erstmalig eine neue Klasse von Flüssigkristallen auf Basis ionischer Self-Assembly (ISA) Komplexe beschrieben. Während herkömmliche thermotrope Flüssigkristalle aus steifen, formanisotropen Molekülfragmenten und kovalent gebundenen Flügelgruppen (meist Alkylketten) bestehen, entstehen diese neuartigen supramolekularen Verbindungen durch die Komplexierung gegensätzlich geladener ionischer tektonischer Einheiten und Tenside. Ziel der Arbeit war es, die flüssigkristallinen und insbesondere die Orientierungseigenschaften dieser neuen Materialien am Beispiel repräsentativer Modellverbindungen zu untersuchen. Es wurde nachgewiesen, dass die ionischen Wechselwirkungen die thermischen Eigenschaften der Verbindungen entscheidend beeinflussen. So behindern sie den Übergang in die isotrope Phase. Das System wird quasi durch ein Netzwerk ionischer Wechselwirkungen stabilisiert. Makroskopisch orientierte LC Zustände sind offensichtlich Ausgangspunkt für hochgeordnete flüssigkristalline Filme oder gar für die Kristallisation von Monodomänen. In speziellen Fällen erfolgt eine spontane Ausbildung von ISA Monodomänen bereits auf Glassubstraten. Mit Hinblick auf potentielle Anwendungen wurden Perylendiimid und Azobenzen enthaltene ISA Komplexe insbesondere hinsichtlich von Zusammenhängen zwischen Phasenverhalten und Orientierungseigenschaften untersucht. Die zone-casting Methode erwies sich als besonders geeignet für die makroskopische Orientierung perylendiimidbasierter ISA Komplexe. In orientierten Filmen richten sich die Kolumnen des Komplexes senkrecht zur Phasenübergangsfront aus. Das dabei erreichte dichroitische Verhältnis (DR=18) ist thermisch stabil. Die untersuchten Azobenzen basierten ISA Komplexe weisen kolumnare LC Phasen auf. Durch Photoalignment mittels linear polarisierten Lichts werden Komplexe sehr effektiv senkrecht bzw. die Columnen der Komplexe parallel zur Polarisation des Lichtes orientiert, wobei sehr hohe DR bis zu 50 erreicht wurden. Weiterhin wurde gezeigt, dass die Photo-Reorientierung photosensitiver ISA Komplexe kooperativ erfolgt. Die Größe der Domänen hat dabei einen entscheidenden Einfluß auf die Effektivität des Photo-Reorientierungsprozesses. So ist der Prozess im Fall kleiner Domänen effektiver. Durch die Bestrahlung mit linear polarisiertem Licht werden die Domänen in der Filmebene reorientiert, was zu einer makroskopischen Ausrichtung der Kolumnen parallel zur Lichtpolarisation und zu einer Vereinigung kleiner Domänen führt. KW - Flüssigkristall KW - ionischer Self-Assembly KW - Komplex KW - Alignment KW - Liquid crystal KW - Ionic Self-Assembly KW - Complex KW - Alignment Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10048 ER - TY - THES A1 - Jaiser, Frank T1 - Ladungsträger- und Anregungsdynamik in halbleitenden Polymerschichten mit eingemischten Emittern und Ladungsträgerfallen T1 - Charge and excitation dynamics in semiconducting polymer layers doped with emitters and charge carrier traps N2 - In Leuchtdioden wird Licht durch die Rekombination von injizierten Ladungsträgern erzeugt. Das kann einerseits in anorganischen Materialien geschehen. In diesem Fall ist es notwendig, hochgeordnete Kristallstrukturen herzustellen, die die Eigenschaften der Leuchtdioden bestimmen. Ein anderer Ansatz ist die Verwendung von organischen Molekülen und Polymeren. Auf Grund der Vielseitigkeit der organischen Chemie können die Eigenschaften der verwendeten halbleitenden Polymere schon während der Synthese beeinflusst werden. Außerdem weisen auch diese Polymere die bekannte mechanische Flexibilität auf. Die Herstellung von flexiblen, großflächigen Beleuchtungsquellen und Anzeigelementen ist so möglich. Die erste Leuchtdiode mit einem halbleitenden Polymer als Emitter wurde 1990 hergestellt. Seither hat das Forschungsgebiet eine rasante Entwicklung genommen. Auch erste kommerzielle Produkte sind erhältlich. Im Zuge dieser Entwicklung wurde deutlich, dass die Eigenschaften von polymeren Leuchtdioden – beispielsweise Farbe und Effizienz – durch die Verwendung mehrerer Komponenten in der aktiven Schicht deutlich verbessert werden können. Gleichzeitig ergeben sich neue Herausforderungen durch die Wechselwirkungen der verschiedenen Filmbestandteile. Während die Komponenten oft entweder zur Verbesserung des Ladungstransportes oder zur Beeinflussung der Emission zugegeben werden, muss darauf geachtet werden, dass die anderen Prozesse nicht negativ beeinflusst werden. In dieser Arbeit werden einige dieser Wechselwirkungen untersucht und mit einfachen physikalischen Modellen erklärt. So werden zunächst blau emittierende Leuchtdioden auf der Basis von Polyfluoren untersucht. Dieses Material ist zwar ein sehr effizienter blauer Emitter, jedoch ist es anfällig für chemische Defekte, diese sich nicht vollständig verhindern lassen. Die Defekte bilden Fallenzustände für Elektronen, ihr Einfluss lässt sich durch die Zugabe von Lochfallen unterdrücken. Der zugrunde liegende Prozess, die Beeinflussung der Ladungsträgerbalance, wird erklärt. Im Folgenden werden Mischsystemen mit dendronisierten Emittern, die gleichzeitig eine Falle für Elektronen bilden, untersucht. Hier wird die unterschiedliche Wirkung der isolierenden Hülle auf die Ladungs- und Energieübertragung zwischen Matrix und Farbstoffkern der Dendrimere untersucht. In Mischsystemen haben die Natur der angeregten Zustände sowie die Art und Weise des Ladungsträgertransportes einen großen Einfluss auf diese Transferprozesse. Außerden hat auch hier die Ladungsträgerbalance Auswirkungen auf die Emission. Um den Ladungsträgereinfang in Fallenzuständen zu charakterisieren, wird eine Methode auf Grundlage der Messung des zeitaufgelösten Photostroms in organischen Mischfilmen weiterentwickelt. Die erzielten Ergebnisse zeigen, dass die Übertragung der für geordnete Systeme entwickelten Modelle des Ladungsträgertransportes nicht ohne weiteres auf Polymersysteme mit hoher Unordnung übertragen werden können. Abschließend werden zeitaufgelöste Messungen der Phosphoreszenz in entsprechenden Mischungen aus Polymeren und organometallischen Verbindungen vorgestellt. Auch diese Systeme enthalten üblicherweise weitere Komponenten, die den Ladungstransport verbessern. In diesen Filmen kann es zu einer Übertragung der Tripletts vom Emitter auf die weiteren Filmbestandteile kommen. Bei Kenntnis der in Frage kommenden Wechselwirkungen können die unerwünschten Prozesse vermieden werden. N2 - Light-emitting diodes generate light from the recombination of injected charge carriers. This can be obtained in inorganic materials. Here, it is necessary to produce highly ordered crystalline structures that determine the properties of the device. Another possibility is the utilization of organic molecules and polymers. Based on the versatile organic chemistry, it is possible to tune the properties of the semiconducting polymers already during synthesis. In addition, semiconducting polymers are mechanically flexible. Thus, it is possible to construct flexible, large-area light sources and displays. The first light-emitting diode using a polymer emitter was presented in 1990. Since then, this field of research has grown rapidly up to the point where first products are commercially available. It has become clear that the properties of polymer light-emitting diodes such as color and efficiency can be improved by incorporating multiple components inside the active layer. At the same time, this gives rise to new interactions between these components. While components are often added either to improve the charge transport or to change the emission, it has to made sure that other processes are not influenced in a negative manner. This work investigates some of these interactions and describes them with simple physical models. First, blue light-emitting diodes based on polyfluorene are analyzed. This polymer is an efficient emitter, but it is susceptible to the formation of chemical defects that can not be suppressed completely. These defects form electron traps, but their effect can be compensated by the addition of hole traps. The underlying process, namely the changed charge carrier balance, is explained. In the following, blend systems with dendronized emitters that form electron traps are investigated. The different influence of the insulating shell on the charge and energy transfer between polymer host and the emissive core of the dendrimers is examined. In the blend, the nature of the excited states as well as the method of the charge transport through the layer are of great importance to the transfer. Again, the charge carrier balance influences the emission. To characterize the trapping of charges in trap states, a method based on the measurement of transient photocurrents is enhanced. The results show that models developed for ordered systems can not simply be transferred to polymer systems with a high degree of disorder. Finally, time-resolved measurements of the phosphorescence decay in blends of polymers with organo-metallic compounds are shown. Usually, these systems contain more components that facilitate charge transport. Thus, triplets may be transferred from the phosphorescent dye other components of the film. Knowing the underlying interactions, unwanted processes can be suppressed. KW - OLED KW - Konjugierte Polymere KW - Mehrstoffsystem KW - OLED KW - conjugated polymers KW - multicomponent system Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9484 ER - TY - THES A1 - Camacho González, Francisco T1 - Charge-Storage mechanisms in polymer electrets T1 - Ladungsspeicherung Mechanismen in Polymerelektreten N2 - In view of the importance of charge storage in polymer electrets for electromechanical transducer applications, the aim of this work is to contribute to the understanding of the charge-retention mechanisms. Furthermore, we will try to explain how the long-term storage of charge carriers in polymeric electrets works and to identify the probable trap sites. Charge trapping and de-trapping processes were investigated in order to obtain evidence of the trap sites in polymeric electrets. The charge de-trapping behavior of two particular polymer electrets was studied by means of thermal and optical techniques. In order to obtain evidence of trapping or de-trapping, charge and dipole profiles in the thickness direction were also monitored. In this work, the study was performed on polyethylene terephthalate (PETP) and on cyclic-olefin copolymers (COCs). PETP is a photo-electret and contains a net dipole moment that is located in the carbonyl group (C = O). The electret behavior of PETP arises from both the dipole orientation and the charge storage. In contrast to PETP, COCs are not photo-electrets and do not exhibit a net dipole moment. The electret behavior of COCs arises from the storage of charges only. COC samples were doped with dyes in order to probe their internal electric field. COCs show shallow charge traps at 0.6 and 0.11 eV, characteristic for thermally activated processes. In addition, deep charge traps are present at 4 eV, characteristic for optically stimulated processes. PETP films exhibit a photo-current transient with a maximum that depends on the temperature with an activation energy of 0.106 eV. The pair thermalization length (rc) calculated from this activation energy for the photo-carrier generation in PETP was estimated to be approx. 4.5 nm. The generated photo-charge carriers can recombine, interact with the trapped charge, escape through the electrodes or occupy an empty trap. PETP possesses a small quasi-static pyroelectric coefficient (QPC): ~0.6 nC/(m²K) for unpoled samples, ~60 nC/(m²K) for poled samples and ~60 nC/(m²K) for unpoled samples under an electric bias (E ~10 V/µm). When stored charges generate an internal electric field of approx. 10 V/µm, they are able to induce a QPC comparable to that of the oriented dipoles. Moreover, we observe charge-dipole interaction. Since the raw data of the QPC-experiments on PETP samples is noisy, a numerical Fourier-filtering procedure was applied. Simulations show that the data analysis is reliable when the noise level is up to 3 times larger than the calculated pyroelectric current for the QPC. PETP films revealed shallow traps at approx. 0.36 eV during thermally-stimulated current measurements. These energy traps are associated with molecular dipole relaxations (C = O). On the other hand, photo-activated measurements yield deep charge traps at 4.1 and 5.2 eV. The observed wavelengths belong to the transitions in PETP that are analogous to the π - π* benzene transitions. The observed charge de-trapping selectivity in the photocharge decay indicates that the charge detrapping is from a direct photon-charge interaction. Additionally, the charge de-trapping can be facilitated by photo-exciton generation and the interaction of the photo-excitons with trapped charge carriers. These results indicate that the benzene rings (C6H4) and the dipolar groups (C = O) can stabilize and share an extra charge carrier in a chemical resonance. In this way, this charge could be de-trapped in connection with the photo-transitions of the benzene ring and with the dipole relaxations. The thermally-activated charge release shows a difference in the trap depth to its optical counterpart. This difference indicates that the trap levels depend on the de-trapping process and on the chemical nature of the trap site. That is, the processes of charge detrapping from shallow traps are related to secondary forces. The processes of charge de-trapping from deep traps are related to primary forces. Furthermore, the presence of deep trap levels causes the stability of the charge for long periods of time. N2 - Angesichts der Bedeutung der Ladungsspeicherung in Polymerelektreten für viele Anwendungen, wie z.B. in elektromechanischen Wandler, ist es das Ziel dieser Arbeit, zum Verständnis der zugrundeliegenden Mechanismen der kurz- und langfristigen Ladungsstabilisierung beizutragen sowie mögliche Haftstellen zu identifizieren. Ladungs- und Entladungsprozesse in Elektreten geben Hinweise auf Ladungshaftstellen. Diese Prozesse wurden mit thermischen und optischen Methoden bei gleichzeitiger Messung von Ladungs- und Polarisationprofilen untersucht. Die experimentellen Untersuchungen der vorliegenden Arbeit wurden an Polyethylenterephthalat (PETP) und an Cyclischen-Olefin Copolymeren (COC) durchgeführt. PETP ist ein Photoelektret und weist in der Carbonylgruppe (C = O) ein Dipolmoment auf. Die Elektreteigenschaften ergeben sich sowohl aus der Orientierungspolarisation als auch aus der Ladungsspeicherung. Im Gegensatz zu PETP ist COC kein Photoelektret und zeigt auch keine Orientierungspolarisation. Deshalb folgen die Elektreteigenschaften des COC ausschließlich aus der Ladungsspeicherung. Die COC-Proben wurden mit Farbstoffen dotiert, um das innere elektrische Feld zu untersuchen. Diese Systeme zeigen flache Ladungshaftstellen bei 0,6 und 0,11 eV, die durch thermisch stimulierte Prozesse entladen werden sowie tiefe Haftstellen bei 4 eV, die optisch stimuliert werden können. PETP-Filme zeigen einen transienten Photostrom mit einem Maximalwert ( jp), der von der Temperatur mit einer Aktivierungsenergie von 0,106 eV abhängt. Der thermische Paarabstand (rc) kann für die Photoladungsgeneration in PETP auf ca. 4,5 nm abgeschätzt werden. Die Photoladungsträger können rekombinieren, mit den gespeicherten Ladungen interagieren, über die Elektroden entkommen oder eine leere Haftstelle einnehmen. PETP zeigt einen kleinen quasi-statischen pyroelektrischen Koeffizienten (QPC) von ca. 0,6 nC/(m²K) für nicht polarisierte Proben, ca. 60 nC/(m²K) für polarisierte Proben und ca. 60 nC/(m²K) für nicht polarisierte Proben mit Vorspannung (E ~10 V/µm). Wenn die gespeicherten Ladungen ein internes elektrisches Feld von ca. 10 V/µm generieren können, sind sie in der Lage, einen QPC herbeizuführen, der vergleichbar mit dem von orientierten Dipolen ist. Es ist außerdem möglich, eine Ladungs-Dipol-Wechselwirkung zu beobachten. Da die QPM-Daten von PETP auf Grund des geringen Signals verrauscht sind, wurde ein numerisches Fourier-Filterverfahren angewandt. Simulationen zeigen, dass eine zuverlässige Datenanalyse noch bei einem Signal möglich ist, dessen Rauschen bis zu 3-mal größer ist als der berechnete pyroelektrische Strom. Messungen der thermisch stimulierten Entladung von PETP-Filmen ergaben flache Haftstellen bei ca. 0,36 eV, welche mit der Dipolrelaxation der Carbonylgruppe (C = O) assoziiert sind. Messungen der photostimulierten Entladung ergaben tiefe Haftstellen bei 4,1 und 5,2 eV. Die beobachteten Wellenlängen entsprechen Übergängen in PETP analog den π - π* Übergängen in Benzol. Die beobachtete Selektivität bei der photostimulierten Entladung lässt auf eine direkte Wechselwirkung von Photonen und Ladungen schließen. Einen zusätzlichen Einfluß auf die Entladung hat die Erzeugung von Photo-Exzitonen und deren Wechselwirkung mit den gespeicherten Ladungsträgern. Diese Ergebnisse deuten darauf hin, dass die Phenylringe (C6H4) und die Dipolgruppen (C = O) eine zusätzliche Ladung in einer chemischen Resonanz stabilisieren und miteinander teilen können. Daher kann die gebundene Ladung auch durch einen Photoübergang im Benzolring oder durch eine Dipolrelaxation freigesetzt werden. Die mittels thermisch stimulierter Entladung bestimmte Tiefe der Haftstellen unterscheidet sich deutlich von den mittels photostimulierter Entladung gemessenen Werten. Flachere Haftstellen werden bei der thermisch stimulierten Entladung gefunden und können sekundären Kräften zugeordnet werden. Die tieferen Haftstellen sind chemischer Natur und können primären Kräften zugeordnet werden. Letztere sind für die Langzeitstabilität der Ladung in Polymerelektreten verantwortlich. KW - Charge-Storage KW - polymer-electret KW - photo-stimulated discharge KW - polyethylene terephthalate KW - cyclic-olefin copolymer KW - charge-dipole interaction KW - thermo-stimulated discharge KW - thermo-luminescence KW - trap-depth KW - charge profiling KW - charge storage KW - charge trap Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-8756 ER - TY - THES A1 - Maraun, Douglas T1 - What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis T1 - Was können wir aus Klimadaten lernen? : Methoden zur Fluktuations-, Zeit/Skalen- und Phasenanalyse N2 - Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined. N2 - Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich. Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert. Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert. Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten. KW - Spektralanalyse KW - Monsun KW - Klimatologie KW - Zeitreihenanalyse KW - Wavelet-Analyse KW - El-Niño-Phänomen KW - Kopplungs-Analyse KW - Kohärenz-Analyse KW - Phasen-Analyse KW - Signifikanztests KW - Continuous Wavelet Spectral Analysis KW - Wavelet Coherence KW - Phase-Analysis KW - Significance Testing KW - Climatology Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9047 ER - TY - THES A1 - Schneider von Deimling, Thomas T1 - Constraining uncertainty in climate sensitivity : an ensemble simulation approach based on glacial climate T1 - Einschränkung der Unsicherheit in der Klimasensitivität : ein Ensemble Simulationsansatz basierend auf dem glazialen Klima N2 - Uncertainty about the sensitivity of the climate system to changes in the Earth’s radiative balance constitutes a primary source of uncertainty for climate projections. Given the continuous increase in atmospheric greenhouse gas concentrations, constraining the uncertainty range in such type of sensitivity is of vital importance. A common measure for expressing this key characteristic for climate models is the climate sensitivity, defined as the simulated change in global-mean equilibrium temperature resulting from a doubling of atmospheric CO2 concentration. The broad range of climate sensitivity estimates (1.5-4.5°C as given in the last Assessment Report of the Intergovernmental Panel on Climate Change, 2001), inferred from comprehensive climate models, illustrates that the strength of simulated feedback mechanisms varies strongly among different models. The central goal of this thesis is to constrain uncertainty in climate sensitivity. For this objective we first generate a large ensemble of model simulations, covering different feedback strengths, and then request their consistency with present-day observational data and proxy-data from the Last Glacial Maximum (LGM). Our analyses are based on an ensemble of fully-coupled simulations, that were realized with a climate model of intermediate complexity (CLIMBER-2). These model versions cover a broad range of different climate sensitivities, ranging from 1.3 to 5.5°C, and have been generated by simultaneously perturbing a set of 11 model parameters. The analysis of the simulated model feedbacks reveals that the spread in climate sensitivity results from different realizations of the feedback strengths in water vapour, clouds, lapse rate and albedo. The calculated spread in the sum of all feedbacks spans almost the entire plausible range inferred from a sampling of more complex models. We show that the requirement for consistency between simulated pre-industrial climate and a set of seven global-mean data constraints represents a comparatively weak test for model sensitivity (the data constrain climate sensitivity to 1.3-4.9°C). Analyses of the simulated latitudinal profile and of the seasonal cycle suggest that additional present-day data constraints, based on these characteristics, do not further constrain uncertainty in climate sensitivity. The novel approach presented in this thesis consists in systematically combining a large set of LGM simulations with data information from reconstructed regional glacial cooling. Irrespective of uncertainties in model parameters and feedback strengths, the set of our model versions reveals a close link between the simulated warming due to a doubling of CO2, and the cooling obtained for the LGM. Based on this close relationship between past and future temperature evolution, we define a method (based on linear regression) that allows us to estimate robust 5-95% quantiles for climate sensitivity. We thus constrain the range of climate sensitivity to 1.3-3.5°C using proxy-data from the LGM at low and high latitudes. Uncertainties in glacial radiative forcing enlarge this estimate to 1.2-4.3°C, whereas the assumption of large structural uncertainties may increase the upper limit by an additional degree. Using proxy-based data constraints for tropical and Antarctic cooling we show that very different absolute temperature changes in high and low latitudes all yield very similar estimates of climate sensitivity. On the whole, this thesis highlights that LGM proxy-data information can offer an effective means of constraining the uncertainty range in climate sensitivity and thus underlines the potential of paleo-climatic data to reduce uncertainty in future climate projections. N2 - Eine der entscheidenden Hauptquellen für Unsicherheiten von Klimaprojektionen ist, wie sensitiv das Klimasystem auf Änderungen der Strahlungsbilanz der Erde reagiert. Angesichts des kontinuierlichen Anstiegs der atmosphärischen Treibhausgaskonzentrationen ist die Einschränkung des Unsicherheitsbereichs dieser Sensitivität von entscheidender Bedeutung. Ein häufig verwendetes Maß zur Beschreibung dieser charakteristischen Kenngröße von Klimamodellen ist die sogenannte Klimasensitivität, definiert als die Gleichgewichtsänderung der simulierten globalen Mitteltemperatur, welche sich aus einer Verdoppelung des atmosphärischen CO2-Gehalts ergibt. Die breite Spanne der geschätzten Klimasensitivität (1.5-4.5°C), welche ein Vergleich verschiedener komplexer Klimamodelle nahe legt (IPCC, 2001), verdeutlicht, wie groß die Unsicherheit in der Klimasensitivität ist. Diese Unsicherheit resultiert in erster Linie aus Unterschieden in der Simulation der entscheidenden Rückkopplungs-mechanismen in den verschiedenen Modellen. Das zentrale Ziel dieser Dissertation ist die Einschränkung des breiten Unsicherheitsbereichs der Klimasensitivität. Zunächst wird hierzu ein großes Ensemble an Modellsimulationen erzeugt, in welchem gezielt spezifische Modellparameter variiert, und somit unterschiedliche Rückkopplungsstärken der einzelnen Modellversionen realisiert werden. Diese Simulationen werden dann auf ihre Konsistenz mit sowohl heutigen Beobachtungsdaten, als auch Proxy-Daten des Letzten Glazialen Maximums (LGM) überprüft. Unsere Analysen basieren dabei auf einem Ensemble voll gekoppelter Modellläufe, welche mit einem Klimamodell intermediärer Komplexität (CLIMBER-2) realisiert wurden. Die betrachteten Modellversionen decken eine breite Spanne verschiedener Klimasensitivitäten (1.3-5.5°C) ab und wurden durch gleichzeitiges Variieren von 11 Modellparametern erzeugt. Die Analyse der simulierten Rückkopplungs-mechanismen offenbart, dass unterschiedliche Werte der Klimasensitivität in unserem Modellensemble durch verschiedene Realisierungen der Rückkopplungsstärken von Wasserdampf, Wolken, Temperatur-Vertikalprofil und Albedo zu erklären sind. Die berechneten Gesamt-Rückkopplungsstärken unser Modellversionen decken hierbei fast den gesamten möglichen Bereich von komplexeren Modellen ab. Wir zeigen, dass sich die Forderung nach Konsistenz zwischen simuliertem vorindustriellem Klima und Messdaten, die auf einer Wahl von sieben global gemittelten Datensätzen basieren, als vergleichsweise schwacher Test der Modellsensitivität erweist: Die Daten schränken den plausiblen Bereich der Klimasensitivität lediglich auf 1.3-4.9°C ein. Zieht man neben den genannten global gemittelten Messdaten außerdem klimatische Informationen aus Jahreszeit und geografischer Breite hinzu, lässt sich die Unsicherheit in der Klimasensitivität nicht weiter einschränken. Der neue Ansatz dieser Dissertation besteht darin, in systematischer Weise einen großen Satz an LGM-Simulationen mit Dateninformationen über die rekonstruierte glaziale Abkühlung bestimmter Regionen zu kombinieren. Unabhängig von den Unsicherheiten in Modellparametern und Rückkopplungsstärken offenbaren unsere Modellversionen eine ausgeprägte Beziehung zwischen der simulierten Erwärmung aufgrund der CO2-Verdoppelung und der Abkühlung im LGM. Basierend auf dieser engen Beziehung zwischen vergangener und zukünftiger Temperaturentwicklung definieren wir eine Methode (basierend auf linearer Regression), welche es uns erlaubt, robuste 5-95%-Quantile der Klimasensitivität abzuschätzen. Indem wir Proxy-Daten des LGM von niederen und hohen Breiten heranziehen, können wir die Unsicherheitsspanne der Klimasensitivität auf 1.3-3.5°C beschränken. Unsicherheiten im glazialen Strahlungsantrieb vergrößern diese Abschätzung auf 1.2-4.3°C, wobei die Annahme von großen strukturellen Unsicherheiten die obere Grenze um ein weiteres Grad erhöhen kann. Indem wir Proxy-Daten über tropische und antarktische Abkühlung betrachten, können wir zeigen, dass sehr unterschiedliche absolute Temperatur-Änderungen in hohen und niederen Breiten zu sehr ähnlichen Abschätzungen der Klimasensitivität führen. Vor dem Hintergrund unserer Ergebnisse zeigt diese Dissertation, dass LGM-Proxy-Daten ein effektives Mittel zur Einschränkung des Unsicherheitsbereichs der Klimasensitivität sein können und betont somit das Potenzial von Paläoklimadaten, den großen Unsicherheitsbereich von Klimaprojektionen zu reduzieren. KW - Dynamische Modellierung KW - Potsdam / Potsdam-Institut für Klimafolgenforschung KW - Entscheidung bei Unsicherheit KW - Klimasensitivität KW - Klimaprognose KW - Unsicherheitsanalyse KW - Ensemble-Simulation KW - Letztes Glaziales Maximum KW - climate sensitivity KW - climate projection KW - uncertainty analysis KW - ensemble simulation KW - Last Glacial Maximum Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7778 ER - TY - THES A1 - Prevot, Michelle Elizabeth T1 - Introduction of a thermo-sensitive non-polar species into polyelectrolyte multilayer capsules for drug delivery T1 - Einbettung unpolarer, temperaturempfindlicher Substanzen in Polyelektrolytkapselsysteme zur Wirkstofffreisetzung N2 - The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest. N2 - Verkapselung ist ein vielseitiges Werkzeug, das zum Schutz und zum Transport von Molekülen ebenso eingesetzt werden kann, wie zur Verbindung von Reaktionspartnern in einem gemeinsamen, von der Umgebung abgeschirmten Raum. Es basiert auf einem einfachen Vorbild der Natur. Pflanzen schützen ihren Samen zum Beispiel durch eine harte, nahezu undurchdringbare Schale (Nüsse) oder durch eine selektiv durchlässige Hülle, wie bei Weizen, der sobald er feucht wird zu keimen beginnt. Die Natur setzt durch den Einsatz des Hülle-Kern Prinzips sehr effizient die Kontrolle über Durchlässigkeit und Anpassung an bestimmte Aufgaben um. Wird das Hülle-Kern-Prinzip zum Schutz oder Transport von Molekülen eingesetzt, so sind die zu verwendenden Kapseln nur wenige Mikrometer groß. Sie werden dann als Mikrokapseln bezeichnet. Zur Erzeugung dieser Mikrokapseln werden verschiedene Methoden verwendet. Der heute übliche Weg geht von einer ca. 5-10 Mikrometer großen Kugel (Kern) aus, die mit einer stabilen und an die gewünschten Eigenschaften angepassten Schicht von wenigen Nanometern versehen wird. Im Anschluss wird der Kern herausgelöst und eine hohle, stabile Kapsel erhalten. Schichten von wenigen Nanometern Dicke können aus Polyelektrolyten durch das Layer-by-Layer-Verfahren (LbL) hergestellt werden. Dieses Verfahren eignet sich auf Grund seiner vielen Anpassungsmöglichkeiten besonders zum Aufbau der Schichten für Mikrokapseln, da sich die Eigenschaften der Beschichtung bereits beim Aufbau der Schicht auf die Bedürfnisse maßschneidern lassen. Diese Arbeit befasst sich mit der Erzeugung von Mikrokapseln, deren Eigenschaften temperaturabhängig sind. Dies wurde auf zwei Wegen erreicht. Zum einen wurden Kapseln aus Polyelektrolyten und Wachs aufgebaut. Bei Temperaturerhöhung schmilzt das Wachs und versiegelt die Kapsel. Zum anderen werden Kapseln mit einem Wärme empfindlichen Polymer gefüllt. Bei Temperaturerhöhung kollabiert das Polymergerüst. Der enthaltene Wirkstoff wird freigesetzt. KW - Mikrokapsel KW - Polyelektrolyt KW - Mehrschichtsysteme KW - Polyelectrolyte KW - Multilayers KW - Capsule Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7785 ER - TY - THES A1 - Schmeja, Stefan T1 - Properties of turbulent star-forming clusters : models versus observations T1 - Eigenschaften turbulenter junger Sternhaufen : Modelle kontra Beobachtungen N2 - Stars are born in turbulent molecular clouds that fragment and collapse under the influence of their own gravity, forming a cluster of hundred or more stars. The star formation process is controlled by the interplay between supersonic turbulence and gravity. In this work, the properties of stellar clusters created by numerical simulations of gravoturbulent fragmentation are compared to those from observations. This includes the analysis of properties of individual protostars as well as statistical properties of the entire cluster. It is demonstrated that protostellar mass accretion is a highly dynamical and time-variant process. The peak accretion rate is reached shortly after the formation of the protostellar core. It is about one order of magnitude higher than the constant accretion rate predicted by the collapse of a classical singular isothermal sphere, in agreement with the observations. For a more reasonable comparison, the model accretion rates are converted to the observables bolometric temperature, bolometric luminosity, and envelope mass. The accretion rates from the simulations are used as input for an evolutionary scheme. The resulting distribution in the Tbol-Lbol-Menv parameter space is then compared to observational data by means of a 3D Kolmogorov-Smirnov test. The highest probability found that the distributions of model tracks and observational data points are drawn from the same population is 70%. The ratios of objects belonging to different evolutionary classes in observed star-forming clusters are compared to the temporal evolution of the gravoturbulent models in order to estimate the evolutionary stage of a cluster. While it is difficult to estimate absolute ages, the realtive numbers of young stars reveal the evolutionary status of a cluster with respect to other clusters. The sequence shows Serpens as the youngest and IC 348 as the most evolved of the investigated clusters. Finally the structures of young star clusters are investigated by applying different statistical methods like the normalised mean correlation length and the minimum spanning tree technique and by a newly defined measure for the cluster elongation. The clustering parameters of the model clusters correspond in many cases well to those from observed ones. The temporal evolution of the clustering parameters shows that the star cluster builds up from several subclusters and evolves to a more centrally concentrated cluster, while the cluster expands slower than new stars are formed. N2 - Sterne entstehen im Inneren von turbulenten Molekülwolken, die unter dem Einfluss ihrer eigenen Gravitation fragmentieren und kollabieren. So entsteht ein Sternhaufen aus hundert oder mehr Objekten. Der Sternentstehungsprozess wird durch das Wechselspiel von Überschallturbulenz und Gravitation reguliert. In dieser Arbeit werden verschiedene Eigenschaften solcher Sternhaufen, die mit Hilfe von numerischen Simulationen modelliert wurden, untersucht und mit Beobachtungsdaten verglichen. Dabei handelt es sich sowohl um Eigenschaften einzelner Protosterne, als auch um statistische Parameter des Sternhaufens als Ganzes. Es wird gezeigt, dass die Massenakkretion von Protosternen ein höchst dynamischer und zeitabhängiger Prozess ist. Die maximale Akkretionsrate wird kurz nach der Bildung des Protosterns erreicht, bevor sie annähernd exponentiell abfällt. Sie ist, in Übereinstimmung mit Beobachtungen, etwa um eine Größenordnung höher als die konstante Rate in den klassischen Modellen. Um die Akkretionsraten der Modelle zuverlässiger vergleichen zu können, werden sie mit Hilfe eines Evolutionsschemas in besser beobachtbare Parameter wie bolometrische Temperatur und Leuchtkraft sowie Hüllenmasse umgewandelt. Die dreidimensionale Verteilung dieser Parameter wird anschließend mittels eines Kolmogorov-Smirnov-Tests mit Beobachtungsdaten verglichen. Die relative Anzahl junger Sterne in verschiedenen Entwicklungsstadien wird mit der zeitlichen Entwicklung der Modelle verglichen, um so den Entwicklungsstand des Sternhaufens abschätzen zu können. Während eine genaue Altersbestimmung schwierig ist, kann der Entwicklungsstand eines Haufens relativ zu anderen gut ermittelt werden. Von den untersuchten Objekten stellt sich Serpens als der jüngste und IC 348 als der am weitesten entwickelte Sternhaufen heraus. Zuletzt werden die Strukturen von jungen Sternhaufen an Hand verschiedener statistischer Methoden und eines neuen Maßes für die Elongation eines Haufens untersucht. Auch hier zeigen die Parameter der Modelle eine gute Übereinstimmung mit solchen von beobachteten Objekten, insbesondere, wenn beide eine ähnliche Elongation aufweisen. Die zeitliche Entwicklung der Parameter zeigt, dass sich ein Sternhaufen aus mehreren kleineren Gruppen bildet, die zusammenwachsen und einen zum Zentrum hin konzentrierten Haufen bilden. Dabei werden neue Sterne schneller gebildet als sich der Sternhaufen ausdehnt. KW - Sternentstehung KW - Sternhaufen KW - Turbulenz KW - Interstellare Materie KW - Numerisches Verfahren KW - star formation KW - star clusters KW - turbulence KW - interstellar medium KW - numerical simulations Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7364 ER - TY - CHAP A1 - Hainzl, Sebastian A1 - Scherbaum, Frank A1 - Zöller, Gert T1 - Spatiotemporal earthquake patterns N2 - Interdisziplinäres Zentrum für Musterdynamik und Angewandte Fernerkundung Workshop vom 9. - 10. Februar 2006 Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7267 N1 - [Poster] ER - TY - THES A1 - Narayanan Nair, Arun Kumar T1 - Molecular dynamics simulations of polyelectrolyte brushes T1 - Molekulardynamik Simulationen von Polyelektrolytbürsten N2 - This thesis studies strong, completely charged polyelectrolyte brushes. Extensive molecular dynamics simulations are performed on different polyelectrolyte brush systems using local compute servers and massively parallel supercomputers. The full Coulomb interaction of charged monomers, counterions, and salt ions is treated explicitly. The polymer chains are anchored by one of their ends to a uncharged planar surface. The chains are treated under good solvent conditions. Monovalent salt ions (1:1 type) are modelled same as counterions. The studies concentrate on three different brush systems at constant temperature and moderate Coulomb interaction strength (Bjerrum length equal to bond length): The first system consists of a single polyelectrolyte brush anchored with varying grafting density to a plane. Results show that chains are extended up to about 2/3 of their contour length. The brush thickness slightly grows with increasing anchoring density. This slight dependence of the brush height on grafting density is in contrast to the well known scaling result for the osmotic brush regime. That is why the result obtained by simulations has stimulated further development of theory as well as new experimental investigations on polyelectrolyte brushes. This observation can be understood on a semi-quantitative level using a simple scaling model that incorporates excluded volume effects in a free-volume formulation where an effective cross section is assigned to the polymer chain from where couterions are excluded. The resulting regime is called nonlinear osmotic brush regime. Recently this regime was also obtained in experiments. The second system studied consists of polyelectrolyte brushes with added salt in the nonlinear osmotic regime. Varying salt is an important parameter to tune the structure and properties of polyelectrolytes. Further motivation is due to a theoretical scaling prediction by Pincus for the salt dependence of brush thickness. In the high salt limit (salt concentration much larger than counterion concentration) the brush height is predicted to decrease with increasing external salt, but with a relatively weak power law showing an exponent -1/3. There is some experimental and theoretical work that confirms this prediction, but there are other results that are in contradiction. In such a situation simulations are performed to validate the theoretical prediction. The simulation result shows that brush thickness decreases with added salt, and indeed is in quite good agreement with the scaling prediction by Pincus. The relation between buffer concentration and the effective ion strength inside the brush at varying salt concentration is of interest both from theoretical as well as experimental point of view. The simulation result shows that mobile ions (counterions as well as salt) distribute nonhomogeneously inside and outside of the brush. To explain the relation between the internal ion concentration with the buffer concentration a Donnan equilibrium approach is employed. Modifying the Donnan approach by taking into account the self-volume of polyelectrolyte chains as indicated above, the simulation result can be explained using the same effective cross section for the polymer chains. The extended Donnan equilibrium relation represents a interesting theoretical prediction that should be checked by experimental data. The third system consist of two interacting polyelectrolyte brushes that are grafted to two parallel surfaces. The interactions between brushes are important, for instance, in stabilization of dispersions against flocculation. In the simulations pressure is evaluated as a function of separation D between the two grafting planes. The pressure behavior shows different regimes for decreasing separation. This behavior is in qualitative agreement with experimental data. At relatively weak compression the pressure behavior obtained in the simulation agrees with a 1/D power law predicted by scaling theory. Beyond that the present study could supply new insight for understanding the interaction between polyelectrolyte brushes. N2 - In dieser Arbeit werden vollständig geladene, starke Polyelektrolytbürsten untersucht. Unter Verwendung lokaler Computeserver und massiv paralleler Supercomputer wurden umfangreiche Molekulardynamik Simulationen von verschiedenen Polyelektrolytbürsten Systemen ausgeführt. Die vollständige Coulomb Wechselwirkung zwischen geladenen Monomeren, Gegen- und Salzionen wird explizit berücksichtigt. Die Polymerketten – in gutem Lösungsmittel simuliert – sind mit einem Ende an einer ungeladenen, planaren Grenzfläche verankert. Monovalente Salzionen (1:1) werden identisch wie Gegenionen modelliert. Simulationen bei konstanter Temperatur und moderater Stärke der Coulomb Wechselwirkung (Bjerrum Länge etwa gleich der Bindungslänge) konzentrieren sich auf drei Systeme: 1. Polyelektrolytbürsten ohne Salzionen mit variabler Ankerdichte der Ketten Die Simulationsergebnisse zeigen, dass die Polyelektrolytketten bis zu 2/3 ihrer Konturlänge gestreckt sind, wobei die Bürstenhöhe mit zunehmender Ankerdichte leicht wächst. Diese schwache Abhängigkeit steht im Widerspruch zu theoretischen Ergebnissen, die Unabhängigkeit von der Ankerdichte im so genannten osmotischen Regime vorhersagen. In der Folge haben die Simulationen sowohl weitergehende theoretische Überlegungen als auch neue experimentelle Untersuchungen an Polyelektrolytbürsten stimuliert. Zwischenzeitlich konnte die Beobachtung auf semi-quantitativer Ebene auf der Basis eines einfachen Skalenmodells verstanden werden, welches das Eigenvolumen der Polymerketten im Rahmen einer freien Volumen Näherung berücksichtigt. Dabei wird der Kette ein effektiver Querschnitt zugeordnet, von dem Gegenionen ausgeschlossen sind. Das resultierende Regime, in dem nichtlineare Entropie und Elastizität berücksichtigt sind, wird als nichtlinear osmotisches Regime bezeichnet. In der Zwischenzeit konnte dieses Regime auch experimentell verifiziert werden. 2. Polyelektrolytbürsten im nichtlinear osmotischen Regime mit variabler Salzkonzentration Struktur und Eigenschaften von Polyelektrolyten können in einfacher Weise durch Veränderung der Salzkonzentration beeinflusst werden. Nach Pincus sollte für starke Salzkonzentration (groß gegenüber der Konzentration der Gegenionen) die Bürstenhöhe mit wachsender Konzentration abnehmen, jedoch nur als relativ schwaches Potenzgesetz mit einem Exponenten -1/3. In der Literatur sind experimentelle und theoretische Ergebnisse bekannt, die diese theoretische Vorhersage bestätigen – allerdings auch solche, die dazu im Widerspruch stehen. In einer solchen Situation sind Simulationen ein geeignetes Mittel, um theoretische Vorhersagen zu überprüfen: In der Tat bestätigen die vorliegenden Simulationsergebnisse in eindeutiger Weise die theoretische Vorhersage von Pincus. Das Verhältnis zwischen Buffer Konzentration und effektiver Ionenstärke in der Polymerschicht ist nicht nur von theoretischem Interesse, sondern hat ebenso experimentelle Relevanz. Die Simulationen zeigen, dass die mobilen Ionen innerhalb und außerhalb der Polyelektrolytbürste inhomogen verteilt sind. Ein Erklärungsversuch mit Hilfe des Donnan Gleichgewichts liefert nur für sehr kleine Salzkon-zentrationen befriedigende Übereinstimmung, ansonst ein qualitativ unterschiedliches Verhalten. Wird jedoch das Eigenvolumen der Ketten in ähnlicher Weise wie oben skizziert berücksichtigt, können die Simulationsdaten bei identischer Parameterwahl in nahezu perfekter Übereinstimmung reproduziert werden. Der erweiterte Ansatz für das Donnan Gleichgewicht in konzentrierten Systemen stellt eine interessante theoretische Vorhersage dar, die auch experimentell überprüft werden sollte. 3. Wechselwirkung zwischen zwei Polyelektrolytbürsten ohne Salz Repulsive Wechselwirkungen zwischen Polymerbürsten haben in unterschiedlichen Zusammenhängen eine große Bedeutung, so z.B. bei der Stabilisierung von Dispersionen oder bei der Reduzierung von Reibungswiderständen in biologischen Systemen. In den vorgestellten Simulationen von zwei Polyelektrolytbürsten, die an gegenüberliegende Grenzflächen verankert sind, wird der osmotische Druck in Abhängigkeit vom Abstand D der Ankerflächen untersucht. Mit abnehmendem Abstand werden unterschiedliche Regime im Verhalten des Druckes beobachtet. Dieses Verhalten stimmt qualitativ mit experimentellen Ergebnissen überein. Für relativ schwache Überlappung folgt das Verhalten des Drucks dem theoretisch vorhergesagten 1/D Skalengesetz. Darüber hinaus liefert die Simulationsuntersuchung neue Daten zum Verständnis der Wechselwirkung zwischen Polyelektrolyt Bürsten. KW - Molekulardynamik KW - Polyelektrolyt KW - molecular dynamics KW - polyelectrolyte brushes Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7005 ER -