TY - GEN A1 - Federici, S. A1 - Pohl, Martin A1 - Ruppel, J. A1 - Telezhinsky, Igor O. A1 - Hofmann, Werner A1 - Martinez, M. A1 - Knapp, J. T1 - Design concepts for the Cherenkov Telescope Array CTA BT - an advanced facility for ground-based high-energy gamma-ray astronomy T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Ground-based gamma-ray astronomy has had a major breakthrough with the impressive results obtained using systems of imaging atmospheric Cherenkov telescopes. Ground-based gamma-ray astronomy has a huge potential in astrophysics, particle physics and cosmology. CTA is an international initiative to build the next generation instrument, with a factor of 5-10 improvement in sensitivity in the 100 GeV-10 TeV range and the extension to energies well below 100 GeV and above 100 TeV. CTA will consist of two arrays (one in the north, one in the south) for full sky coverage and will be operated as open observatory. The design of CTA is based on currently available technology. This document reports on the status and presents the major design concepts of CTA. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1325 KW - ground based gamma ray astronomy KW - next generation Cherenkov telescopes KW - design concepts Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430149 SN - 1866-8372 VL - 32 IS - 1325 ER - TY - GEN A1 - Todt, Helge Tobias A1 - Peña, Miriam A1 - Zühlke, Julia A1 - Oskinova, Lida A1 - Hamann, Wolf-Rainer A1 - Gräfener, Götz T1 - Weak emission line central stars of planetary nebulae T2 - Planetary Nebulae: an Eye to the Future N2 - To understand the evolution and morphology of planetary nebulae, a detailed knowledge of their central stars is required. Central stars that exhibit emission lines in their spectra, indicating stellar mass-loss allow to study the evolution of planetary nebulae in action. Emission line central stars constitute about 10 % of all central stars. Half of them are practically hydrogen-free Wolf-Rayet type central stars of the carbon sequence, [WC], that show strong emission lines of carbon and oxygen in their spectra. In this contribution we address the weak emission-lines central stars (wels). These stars are poorly analyzed and their hydrogen content is mostly unknown. We obtained optical spectra, that include the important Balmer lines of hydrogen, for four weak emission line central stars. We present the results of our analysis, provide spectral classification and discuss possible explanations for their formation and evolution. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 462 KW - stars: AGB and post-AGB KW - stars: Wolf-Rayet KW - stars: abundances Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413775 ER - TY - THES A1 - Mösta, Philipp T1 - Novel aspects of the dynamics of binary black-hole mergers T1 - Neue Aspekte der Dynamik von Kollisionen binärer schwarzer Löcher N2 - The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe. N2 - Schwarze Löcher gehören zu den extremsten und faszinierensten Objekten in unserem Universum. Elektromagnetische Strahlung kann nicht aus ihrem Inneren entkommen, und sie bilden die kompaktesten Objekte, die wir kennen. Wir wissen heute, dass in den Zentren der meisten Galaxien sehr massereiche schwarze Löcher vorhanden sind. Im Fall unserer eigenen Galaxie, der Milchstrasse, ist dieses schwarze Loch ungefähr vier Millionen mal so schwer wie unsere Sonne. Wenn zwei Galaxien miteinander kollidieren, führt dies auch dazu, dass ihre beiden schwarzen Löcher kollidieren und zu einem einzelnen schwarzen Loch verschmelzen. Das Simulieren einer solchen Kollision von zwei schwarzen Löchern, die Vorhersage sowie Analyse der von ihnen abgestrahlten Energie in Form von Gravitations- und elektromagnetischen Wellen, bildet das Thema der vorliegenden Dissertation. Im ersten Teil dieser Arbeit untersuchen wir die Verschmelzung von zwei schwarzen Löchern unter verschiedenen Gesichtspunkten. Wir zeigen, dass Ungleichmässigkeiten in der Geometrie des aus einer Kollision entstehenden schwarzen Loches dazu führen, dass es zuerst beschleunigt und dann abgebremst wird, bis diese Ungleichmässigkeiten in Form von Gravitationswellen abgetrahlt sind. Weiterhin untersuchen wir, wie der genaue Verschmelzungsprozess aus einer geometrischen Sicht abläuft und schlagen neue Methoden zur Analyse der Raumzeitgeometrie in Systemen vor, die schwarze Löcher enthalten. Im zweiten Teil dieser Arbeit beschäftigen wir uns mit den Gravitationswellen und elektromagnetischer Strahlung, die bei einer Kollision von zwei schwarzen Löchern freigesetzt wird. Gravitationswellen sind Wellen, die Raum und Zeit dehnen und komprimieren. Durchläuft uns eine Gravitationswelle, werden wir in einer Richtung minimal gestreckt, während wir in einer anderen Richtung minimal zusammengedrückt werden. Diese Effekte sind allerdings so klein, dass wir sie weder spüren, noch auf einfache Weise messen können. Bei einer Kollision von zwei schwarzen Löchern wird eine grosse Menge Energie in Form von Gravitationswellen und elektromagnetischen Wellen abgestrahlt. Wir zeigen, dass beide Signale in ihrer Struktur sehr ähnlich sind, dass aber die abgestrahlte Energie in Gravitationswellen um ein Vielfaches grösser ist als in elektromagnetischer Strahlung. Wir führen eine neue Methode ein, um die elektromagnetische Strahlung in unseren Simulationen zu messen und zeigen, dass diese dazu führt, dass sich die räumliche Struktur der Strahlung verändert. Abschliessend folgern wir, dass in der Kombination der Signale aus Gravitationswellen und elektromagnetischer Strahlung eine grosse Chance liegt, ein System aus zwei schwarzen Löchern zu detektieren und in einem weiteren Schritt zu analysieren. Im dritten und letzen Teil dieser Dissertation entwickeln wir ein verbessertes Suchverfahren für Gravitationswellen, dass in modernen Laser-Interferometerexperimenten genutzt werden kann. Wir zeigen, wie dieses Verfahren die Chancen für die Detektion eines Gravitationswellensignals deutlich erhöht, und auch, dass im Falle einer erfolgreichen Detektion eines solchen Signals, seine Parameter besser bestimmt werden können. Wir schliessen die Arbeit mit dem Fazit, dass die Kollision von zwei schwarzen Löchern ein hochinteressantes Phenomenon darstellt, das uns neue Möglichkeiten bietet die Gravitation sowie eine Vielzahl anderer fundamentaler Vorgänge in unserem Universum besser zu verstehen. KW - schwarze Löcher KW - elektromagnetische Strahlung KW - Allgemeine Relativitätstheorie KW - Gravitationswellen KW - Raumzeitgeometrie KW - black-holes KW - gravitational waves KW - electromagnetic counterparts KW - general relativity KW - space-time geometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59820 ER - TY - THES A1 - Seewald, Gunter T1 - Lineare und nichtlineare optische Untersuchungen am synthetischen Eumelanin und Entwicklung eines Kaskadenmodells T1 - Linear and nonlinear optical examinations of synthetical eumelanin and development of a cascade model N2 - Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden. N2 - Eumelanin is a fluorophor with some special spectral properties. In earlier publications for instance a difference between 1- and 2-photons-excited fluorescence (OPEF and TPEF) was observed. Therefore in the nonlinear case a stepwise excitation process was supposed. In this thesis extensive linear and nonlinear optical examinations of synthetical Eumelanin / 0,1M NaOH were done in order to reach a better understanding of this and further optical properties. A theoretical model could be formulated that describes the measured fluorescence behaviour consistently. In this so called cascade model the photonic energy of the excited molecule relaxes by a stepwise energy transfer between a multitude of electronic states with continuously decreasing energy. Examination of the nonlinear excited fluorescence of different aggregate sizes showed, that differences between the spectra of linear and nonlinear excited fluorescence can not only be explained by an stepwise excitation process by nonlinear excitation but also by the difference in the relation of quantum yields between smaller and bigger aggregates by the change from linear to nonlinear excitation. In spite of this a stepwise 2-photons-excitation-process via an intermediate state with a lifetime in the picosecond-range had also been proved by determinations of the excitation cross section and the TPEF-intensity dependency on the pulse duration. KW - synthetisches Eumelanin KW - Kaskade KW - Zustandsmodell KW - Transiente Absorption KW - Nichtlinear angeregte Fluoreszenz KW - synthetic eumelanin KW - cascade KW - state model KW - transient absorption KW - nonlinear excited fluorescence Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59967 ER - TY - THES A1 - Flores Suárez, Rosaura T1 - Three-dimensional polarization probing in polymer ferroelectrics, polymer-dispersed liquid crystals, and polymer ferroelectrets T1 - Dreidimensionale Polarisationsmessung in polymeren Ferroelektrika, polymerdispergierten Flüssigkristallen und polymeren Ferroelektreten N2 - A key non-destructive technique for analysis, optimization and developing of new functional materials such as sensors, transducers, electro-optical and memory devices is presented. The Thermal-Pulse Tomography (TPT) provides high-resolution three-dimensional images of electric field and polarization distribution in a material. This thermal technique use a pulsed heating by means of focused laser light which is absorbed by opaque electrodes. The diffusion of the heat causes changes in the sample geometry, generating a short-circuit current or change in surface potential, which contains information about the spatial distribution of electric dipoles or space charges. Afterwards, a reconstruction of the internal electric field and polarization distribution in the material is possible via Scale Transformation or Regularization methods. In this way, the TPT was used for the first time to image the inhomogeneous ferroelectric switching in polymer ferroelectric films (candidates to memory devices). The results shows the typical pinning of electric dipoles in the ferroelectric polymer under study and support the previous hypotheses of a ferroelectric reversal at a grain level via nucleation and growth. In order to obtain more information about the impact of the lateral and depth resolution of the thermal techniques, the TPT and its counterpart called Focused Laser Intensity Modulation Method (FLIMM) were implemented in ferroelectric films with grid-shaped electrodes. The results from both techniques, after the data analysis with different regularization and scale methods, are in total agreement. It was also revealed a possible overestimated lateral resolution of the FLIMM and highlights the TPT method as the most efficient and reliable thermal technique. After an improvement in the optics, the Thermal-Pulse Tomography method was implemented in polymer-dispersed liquid crystals (PDLCs) films, which are used in electro-optical applications. The results indicated a possible electrostatic interaction between the COH group in the liquid crystals and the fluorinate atoms of the used ferroelectric matrix. The geometrical parameters of the LC droplets were partially reproduced as they were compared with Scanning Electron Microscopy (SEM) images. For further applications, it is suggested the use of a non-strong-ferroelectric polymer matrix. In an effort to develop new polymerferroelectrets and for optimizing their properties, new multilayer systems were inspected. The results of the TPT method showed the non-uniformity of the internal electric-field distribution in the shaped-macrodipoles and thus suggested the instability of the sample. Further investigation on multilayers ferroelectrets was suggested and the implementation of less conductive polymers layers too. N2 - In dieser Arbeit wird eine zerstörungsfreie Technik zur Analyse, Optimierung, und Entwicklung neuer funktioneller Materialien für Sensoren, Wandler, Speicher und elektrooptische Anwendungen vorgestellt. Die Wärmepuls-Tomographie (engl. Thermal-Pulse Tomography, TPT) liefert dreidimensionale Abbildungen hoher Auflösung von elektrischen Feldern und Polarisationsverteilungen eines Materials. Bei dieser thermischen Methode wird ein fokussierter, gepulster Laserstrahl durch eine undurchsichtige Oberflächenelektrode absorbiert, welche sich dadurch aufheizt. Die einsetzende Wärmediffusion führt – aufgrund der Wärmeausdehnung des Materials – zu Änderungen der Probengeometrie, welche in pyroelektrischen Materialien einen Kurzschlussstrom oder eine Änderung des Oberflächenpotentials zur Folge hat. Diese wiederum enthalten wichtige Informationen über die räumliche Verteilung elektrischer Dipole und Raumladungen im untersuchten Material. Aus dem gemessenen Kurzsschlussstrom kann anschließend das interne elektrische Feld und die Polarisationsverteilung im Material mittels verschiedener Skalentransformations- und Regularisierungsmethoden rekonstruiert werden. Auf diese Weise ermöglichte die TPT-Methode erstmals die Darstellung inhomogener ferroelektrischer Schaltvorgänge in polymeren ferroelektrischen Filmen, welche mögliche Materialien für die Datenspeicherung sind. Die Ergebnisse zeigen eine typische Haftschicht im ferroelektrischen Polymer und unterstützen die Hypothese einer ferroelektrischen Umpolung auf einer der Korngröße äquivalenten Längenskala über Keimbildung und anschließendes Wachstum. Um die Lateral- und Tiefenauflösung zu untersuchen, wurden sowohl die TPT-Methode als auch die äquivalente Methode in der Zeitdomäne (Focused Laser Intensity Modulation Method, FLIMM) auf ferroelektrischen Filme mit Gitterelektroden angewendet. Die Ergebnisse beider Techniken zeigen nach der Datenauswertung mit unterschiedlichen Regularisierungs- und Scale-Methoden eine vollkommene Übereinstimmung. Des Weiteren stellte sich heraus, dass bisherige Untersuchungen der lateralen Auflösung von FLIMM diese möglicherweise überschätzen. Damit behauptet sich TPT als effiziente und verlässliche thermische Methode. Nach einer Optimierung der Optik wurde die TPT-Methode in polymerdispergierten Flüssigkristallen (polymer-dispersed liquid crystals, PDLC), welche in elektrooptischen Anwendungen von Interesse sind, angewendet. Die Ergebnisse deuten auf eine mögliche elektrostatischeWechselwirkung zwischen den COH-Gruppen des Flüssigkristalls und den Fluoratomen der verwendeten ferroelektrischen Matrix hin. Die durch rasterelektronenmikroskopische Aufnahmen (scanning electron microscopy, SEM) gewonnenen geometrischen Parameter der Flüssigkristalltröpfchen konnten mittels TPT reproduziert werden. Für weitere Anwendungen werden schwach ferroelektrische Polymermatrices vorgeschlagen. Im Bestreben neue polymere Ferroelektrete zu entwickeln und deren Eigenschaften zu optimieren, wurden neuartige Mehrschichtsysteme untersucht. Die Ergebnisse aus der TPT-Methode zeigen eine Abweichung der Uniformität der inneren Verteilung des elektrischen Feldes in den geformten Makrodipolen, was auf eine Instabilität der Probe hindeutet. Ebenfalls wurden weitere Untersuchungen an Mehrschicht-Ferroelektreten und die Anwendung von halbleitenden Polymerschichten vorgeschlagen. KW - Ferroelektrik KW - Ferroelektrete KW - Wärmepuls-Tomographie KW - Polarisationsverteilung KW - Flüssigkristalle KW - Polarization distribution KW - Ferroelectrics KW - PDLC KW - Ferroelectrets KW - Thermal-Pulse Tomography Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60173 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P

2 and that the continuum AGN luminosity is better correlated with the NLR size than the [OIII] luminosity. These affects may account for the different NLR size-luminosity relations reported in previous studies. On the other hand, we do not detect extended NLRs around all QSOs, and demonstrate that the detection of extended NLRs goes along with radio emission. We employ emission line ratios as a diagnostic for the abundance of heavy elements in the gas, i.e. its metallicity, and find that the radial metallicity gradients are always flatter than in inactive disc-dominated galaxies. This can be interpreted as evidence for radial gas flows from the outskirts of these galaxies to the nucleus. Recent or ongoing galaxy interactions are likely responsible for this effect and may turn out to be a common prerequisite for QSO activity. The metallicity of bulge-dominated hosts are systematically lower than their disc-dominated counterparts, which we interpret as evidence for minor mergers, supported by our detailed study of the bulge-dominated host of the luminous QSO HE 1029-1401, or smooth gas accretion from the environment. In this line another new discovery is that HE 2158-0107 at z=0.218 is the most metal poor luminous QSO ever observed. Together with a large (30kpc) extended structure of low metallicity ionised gas, we propose smooth cold gas accretion as the most likely scenario. Theoretical studies suggested that this process is much more important at earlier epochs of the universe, so that HE 2158-0107 might be an ideal laboratory to study this mechanism of galaxy and BH growth at low redshift more detailed in the furture. N2 - Aktive Galaxienkerne (AGN) entstehen durch die Akkretion von Gas auf massive Schwarze Löcher, welche im Zentrum jeder Galaxie mit einer spherodialen Komponente vermutet werden. Die Leuchtkraft eines AGN kann die seiner gesamten Muttergalaxie um Größenordnungen übersteigen. In diesem Fall werden AGN oft als Quasi-Stellare Objekte (Quasare) bezeichnet. Spezielle Mechanismen müssen für das Auslösen dieser Kernaktivität in Galaxien verantwortlich sein. Verschiedene Prozesse wurden bereits identifiziert, aber der entscheidende Mechanismus wurde bisher noch nicht entdeckt. Die Wechselwirkung mit einem AGN könnte außerdem einen entscheidenden Einfluss auf die Entwicklung von Galaxien haben. Es ist noch unklar wie diese Wechselwirkung genau abläuft und ob es die Sternentstehung in Galaxien beeinflusst. In dieser Arbeit studieren wir die Eigenschaften des ausgedehnten ionisierten Gases in AGN-Muttergalaxien, um mögliche Wechselwirkungen zu untersuchen. Wir benutzen dazu eine Stichprobe von ~50 Quasaren bei geringer Rotverschiebung (z<0.3), die mit der neuartigen Technik der Integralfeld-Spektroskopie beobachtet wurden. Diese Technik kombiniert bildgebende und spektroskopische Verfahren. Wir können mit unserer Analyse zeigen, dass die spezifische Sternentstehungsrate in einigen Scheiben-dominierten AGN-Muttergalaxien vergleichbar mit denen von normalen Galaxien ohne Kernaktivität ist. Allerdings können wir in einigen AGN-Muttergalaxien keine Anzeichen von Sternentstehung feststellen. Ob Sternentstehung in diesen Galaxien momentan durch die Wechselwirkung mit dem AGN unterdrückt wird, ist daher nicht eindeutig. Hinweise auf Gasausflüsse liefert die Kinematik des ionisierten Gases für einige wenige Objekte, doch die Kinematik für die meisten AGN-Muttergalaxien kann allein durch das Wirken der Gravitation erklärt werden. Daraus schließen wir, dass der Einfluss von AGN auf ihre Muttergalaxien geringer sein könnte als theoretisch angenommen wird. Die [OIII] Emissionslinie ist die stärkste optische Linie für AGN-ionisiertes Gas und kann sich über eine Region von mehreren kpc vom Kern erstrecken, die als "Narrow-Line Region" (NLR) bezeichnet wird. Durch eine systematische Untersuchung der NLR-Ausdehnung können wir eine Beziehung zwischen NLR-Radius und AGN-Leuchtkraft bestimmen. Diese Relation ist konsistent mit einem konstanten Ionisationsparameter über die gesamte Ausdehnung der NLR. Frühere Studien mit dem Hubble Weltraumteleskop unterschätzten die Größe der NLR um mehr als einen Faktor 2. Andererseits können wir nicht für alle Quasare eine ausgedehnte NLR nachweisen, wobei eine NLR-Detektion bei einer höheren Radioleuchtkraft des Quasars wahrscheinlicher ist. Dies deutet auf eine Wechselwirkung eines Radio-Jets mit dem kernumgebenden Gas hin. Wir benutzen Emissionslinien des ionisierten Gases, um den Anteil von schweren Elementen im Gas, die so genannte Metallizität, zu bestimmen. Dabei finden wir, dass die radialen Metallizitätsgradienten in Scheiben-dominierten AGN-Muttergalaxien deutlich flacher sind als in vergleichbaren Galaxien ohne Kernaktivität, was wir als Anzeichen für radialen Gastransport vom Rand der Galaxien zum Kern interpretieren. Dies könnte durch kürzliche oder immer noch andauernde gravitative Wechselwirkungen zwischen Nachbargalaxien entstanden sein und stellt eventuell eine Voraussetzung für Kernaktivität dar. Sehr interessant ist unser Ergebnis, dass die ellptischen AGN-Muttergalaxien eine geringere Metallizität aufweisen als die Spiralgalaxien. Dies könnte z.B. durch das Verschmelzen mit kleinen Nachbargalaxien induziert werden, welche eine intrinsisch geringe Metallizität aufweisen. Am Beispiel der elliptischen Muttergalaxie des Quasars HE 1029-1401 können wir durch eine detaillierte Analyse des ionisierten Gases verschiedene Indizien für einen solchen Prozess nachweisen. Eine weiteres Resultat dieser Arbeit ist die Entdeckung eines leuchtkräftigen Quasars mit der geringsten Metallizität, die bisher für solche Objekte nachgewiesen werden konnte. Wir interpretieren die geringe Metallizität und die Ausdehnung des ionisierten Gases über 30kpc als deutliche Indizien für die Akkretion von intergalaktischem Gas. Dieser Prozess findet viel häufiger im frühen Universum statt. HE 2158-0107 könnte daher ein ideales Objekt sein, um diesen Prozess im nahen Universum detaillierter studieren zu können. KW - Quasare KW - Integralfeld-Spectroskopie KW - Galaxien KW - Interstellares Medium KW - Quasars KW - Integral field spectroscopy KW - Galaxies KW - Interstellar medium Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55556 ER - TY - THES A1 - Schulze, Andreas T1 - Demographics of supermassive black holes T1 - Demgraphie supermassereicher Schwarzer Löcher N2 - Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence. N2 - Supermassereiche Schwarze Löcher sind ein fundamentaler Bestandteil unseres Universims im Allgemeinen, und von Galaxien im Besonderen. Fast jede massereiche Galaxie beherbergt ein supermassereiches Schwarzes Loch in seinem Zentrum. Außerdem existiert eine enge Beziehung zwischen dem Wachstum des Schwarzen Loches und der Entwicklung seiner umgebenden Galaxie. Diese zeigt sich besonders in der engen Beziehung zwischen der Masse eines Schwarzen Loches und den Eigenschaften der sphäroidalen Komponente der Galaxie, beispielsweise seiner stellaren Geschwindigkeitsdispersion, seiner Leuchtkraft und seiner Masse. Diese Beziehung erklären zu können, sowie das Wachstum von Schwarzen Löchern zu verstehen, liefert einen wichtigen Beitrag zu unserem Bild der Entstehung und Entwicklung von Galaxien. In dieser Arbeit steuere ich verschiedene Beiträge dazu bei unser Verständnis des Vorkommens Schwarzer Löcher und der Beziehung zu ihren Galaxien zu verbessern. Zunächst versuche ich ein vollständiges Bild der Anzahl und Eigenschaften Schwarzer Löcher zu erhalten. Dazu beschränke ich mich auf aktive Schwarze Löcher, wie man sie im Universum als Aktive Galaxienkerne (AGN) in großen Himmelsdurchmusterungen finden kann. Ich benutze eine solche Durchmusterung, das Hamburg/ESO Survey (HES), um die AGN Population im lokalen Universum zu studieren. Dazu habe ich die optische Leuchtkraftfunktion von AGN bestimmt. Diese habe ich mit anderen Ergebnissen leuchtschwächerer AGN kombiniert um die bisher beste AGN Leuchtkraftfunktion im lokalen Universum zu erhalten. Der Vergleich mit Ergebnissen bei höherer kosmischer Rotverschiebung bestätigt unser Bild des sogenannten "AGN downsizing". Dies sagt aus, dass leuchtkräftige AGN bei hoher Rotverschiebung am häufigsten vorkommen, während leuchtschwache AGN bei niedriger Rotverschiebung am häufigsten sind. Allerdings verrät uns die AGN Leuchtkraftfunktion allein noch nicht das ganze Bild der Demographie Schwarzer Löcher. Vielmehr sind wir an den zugrunde liegenden Eigenschaften, vor allem der Masse und der Akkretionsrate der Schwarzen Löcher, sowie deren statistischen Verteilungsfunktionen, interessiert. Ich habe eine Methode entwickelt um diese beiden Verteilungsfunktionen zu bestimmen, basierend auf der Maximum-Likelihood-Methode. Ich habe diese Methode benutzt um die aktive Massenfunktion Schwarzer Löcher, sowie die Verteilungsfunktion ihrer Akkretionsraten für das lokale Universum aus dem HES zu bestimmen. Sowohl die Akkretionsraten, als auch die Massen der Schwarzen Löcher zeigen intrinsisch eine breite Verteilung, im Gegensatz zur schmaleren beobachtbaren Verteilung. Der Vergleich der aktiven Massenfunktion mit der gesamten Massenfunktion Schwarzer Löcher zeigt ebenfalls Hinweise auf "AGN downsizing". Als nächstes habe ich mich mit Untersuchungen zur zeitlichen Entwicklung in den Beziehungen zwischen Schwarzem Loch und Galaxie beschäftigt. Diese kann helfen unser theoretisches Veständnis der physikalischen Vorgänge zu verbessern. Beobachtungen sind immer auch Auswahleffekten unterworfen. Diese können die Schlussfolgerungen aus den Beobachtungen zur Entwicklung in den Beziehungen beeinflussen, wenn sie nicht entsprechend berücksichtigt werden. Ich habe den Einfluss von Auswahleffekten auf AGN Stichproben im Detail untersucht, und verschiedende möchgliche Einflussquellen identifiziert, die die Beziehung verfälschen können. Wenn die Auswahlkriterien der Stichprobe, sowie die zugrunde liegenden Verteilungen bekannt sind, so ist es möglich für die Auswahleffekte zu korrigieren. Ich habe eine Methode entwickelt, mit der man die intrinsische Beziehung zwischem Schwarzem Loch und Galaxie aus den Beobachtungen rekonstruieren kann. Schließlich habe ich mich auch inaktiven Schwarzen Löchern und der Bestimmung ihrer Massen gewidmet. Eine der wichtigsten Methoden die Masse Schwarzer Löcher in normalen Galaxien zu bestimmen ist stellardynamische Modellierung. Diese Methode benutzt photometrische und kinematische Beobachtungen, und rekonstruiert daraus das Gravitationspotenzial aus der Analyse stellarer Orbits. Bisher wurde in diesen Modellen allerdings der Einfluss des Halos aus Dunkler Materie vernachlässigt. Dieser kann aber die Bestimmung der Masse des Schwarzen Loches beeinflussen. Ich habe 12 Galaxien mit Hilfe stellardynamischer Modellierung untersucht und dabei auch den Einfluss des Halos aus Dunkler Materie berücksichtigt. Für Galaxien bei denen der Einflussbereich des Schwarzen Loches nicht sehr gut räumlich aufgelöst war, wird die Masse des Schwarzen Loches systematisch unterschätzt, wenn der Dunkle Materie Halo nicht berücksichtigt wird. Auf der anderen Seite ist der Einfluss gering, wenn die Beobachtungen diesen Einflussbereich gut auflösen können. KW - Astrophysik KW - Quasare KW - Schwarze Löcher KW - AGN KW - Statistik KW - astrophysics KW - quasars KW - black holes KW - AGN KW - statistics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54464 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - THES A1 - Bierbaum, Veronika T1 - Chemomechanical coupling and motor cycles of the molecular motor myosin V T1 - Chemomechanische Kopplung und Motorzyklen für den molekularen Motor Myosin V N2 - In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments. N2 - Die hier vorgelegte Arbeit entwickelt unter Verwendung vieler verschiedener Aspekte der statistischen Physik eine Theorie der chemomechanischen Kopplung für den Energieumsatz des molekularen Motors Myosin V. Das Myosin V ist sowohl in chemokinetischen wie in Einzelmolekülexperimenten grundlegend untersucht worden. Seine Schrittgeschwindigkeit ist in Abhängigkeit verschiedener externer Parameter, wie der Nukleotidkonzentration und einer äußeren Kraft, experimentell bestimmt. Darüber hinaus ist eine große Anzahl verschiedener chemokinetischer Raten, die an der enzymatischen Reaktion des Moleküls beteiligt sind, quantitativ erfasst. Unter der Wirkung externer Kräfte, die seine Anhaltekraft überschreiten, verhält sich der Motor wie eine Ratsche: Für Kräfte, die entlang der Schrittbewegung des Motors wirken, hängt seine Geschwindigkeit von der ATP-Konzentration ab, für rückwärts angreifende Kräfte jedoch ist die Bewegung des Motors unabhängig von ATP. Auf der Grundlage der chemischen Zustände des Motors wird eine Netzwerktheorie aufgebaut, die die experimentellen Beobachtungen des Schrittverhaltens für Myosin V einschließt. Diese Netzwerkbeschreibung dient als Grundlage für einen Markovprozess, der die Dynamik des Motors beschreibt. Die Verwendung diskreter Zustände bietet den Vorteil der direkten Erfassung der chemischen Kinetik des Moleküls. Darüber hinaus werden chemische und mechanische Eigenschaften des Motors in gleichem Maße im Modell berücksichtigt. Durch die Erfassung der Enzymkinetik mittels eines stochastischen Prozesses lässt sich die Motordynamik mit Hilfe des stationären Zustands der Netzwerkdarstellung beschreiben. Um diesen zu bestimmen, verwenden wir eine graphentheoretische Methode, die auf Kirchhoff zurückgreift. Wir zeigen in Einklang mit den Gesetzen der Thermodynamik für Nichtgleichgewichtssysteme, dass das Schrittverhalten des Motors von mehreren chemomechanischen Zyklen beeinflusst wird. Weiterhin untersuchen wir das funktionale Verhalten mechanischer Schrittraten in Abhängigkeit der äußeren Kraft unter Verwendung einer geeigneten Fokker-Planck-Gleichung. Hierfür wird auf die Theorie einer kontinuierlichen Beschreibung von molekularen Methoden zurückgegriffen. Wir berechnen Größen wie die mittlere Schrittgeschwindigkeit, das Verhältnis von Vorwärts- und Rückwärtsschritten, und die Lauflänge des Motors in Abhängigkeit einer äußeren angreifenden Kraft sowie der Nukleotidkonzentration, und vergleichen diese mit experimentellen Daten. Für Kräfte, die kleiner als die Anhaltekraft des Motors sind, unterscheidet sich der chemomechanische Zyklus grundlegend von demjenigen, der für große Kräfte dominiert. Diese Eigenschaft resultiert in einem Schrittverhalten, das mit den experimentellen Beobachtungen übereinstimmt. Es ermöglicht weiterhin die Zerlegung des Netzwerks in einzelne Zyklen, die die Bewegung des Motors für verschiedene Bereiche externer Kräfte erfassen. Durch die Erweiterung unseres Modells auf Markovprozesse mit absorbierenden Zuständen können so die Wartezeitenverteilungen für einzelne Zyklen des Motors analytisch berechnet werden. Sie erteilen Aufschluss über die Koordination des Motors und enthalten zudem direkte Informationen über seine Rückwärtsschritte, die experimentell nicht erfasst sind. Für das gesamte Netzwerk werden die Wartezeitenverteilungen mit Hilfe eines Gillespie-Algorithmus bestimmt. Unsere Theorie liefert eine einheitliche Beschreibung der Eigenschaften von Myosin V, die in Einzelmolekülexperimenten erfasst werden können. KW - statistische Physik KW - Markov-Prozesse KW - molekulare Motoren KW - statistical physics KW - markov processes KW - molecular motors Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53614 ER - TY - THES A1 - Bergner, André T1 - Synchronization in complex systems with multiple time scales T1 - Synchronisation in komplexen Systemen mit mehreren Zeitskalen N2 - In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings. N2 - In der vorliegenden Arbeit wurden Synchronisationsphänomene in komplexen Systemen mit mehreren Zeitskalen untersucht. Es gibt mehrere Möglichkeiten wie diese verschiedenen Zeitskalen vorkommen können. Drei verschiedene Systeme, jedes mit einer anderen Art von zeitlicher Multiskalität, wurden mit unterschiedlichen Methoden der Datenanalyse untersucht. Das erste untersuchte System ist ein ausgedehntes heterogenes Netzwerk von Neuronen mit zwei dominanten Zeitskalen, zum einen die schnelle Folge von Aktionspotenzialen und zum anderen einer abwechselnden Folge von einer Phase von Aktionspotenzialen und einer Ruhephase. Dieses System wurde numerisch integriert und mit Methoden der Phasenraumrekurrenz untersucht. Ein interessantes Ergebnis ist der unterschiedliche Übergang zur Synchronisation der Neuronen auf den beiden verschiedenen Zeitskalen. Des weiteren kann auf der schnellen Zeitskala eine anomale Synchronisation beobachtet werden, d.h. es gibt einen Bereich der Kopplungsstärke in dem es zu einer Desynchronisation kommt. Als zweites wurde, sowohl numerisch als auch experimentell, ein System von gekoppelten CO₂ Lasern untersucht, welche in einem chaotischen bursting Modus arbeiten. Dieses System ist auch durch seine Äquivalenz zu Epidemiemodellen interessant. Wir erklären die Bursts durch unterschiedliche Zeitskalen, welche durch in den chaotischen Attraktor eingebettete instabile periodische Orbits generiert werden. Wir führen eine Synchronisationsanalyse mit Hilfe der kontinuierlichen Wavelettransformation durch und finden einen unterschiedlichen Übergang zur Synchronisation auf den unterschiedlichen Zeitskalen. Das dritte analysierte System ist ein Netzwerkmotiv von Grenzzyklusoszillatoren. Genauer handelt es sich um ein Nabenmotiv, welches einen elementaren Grundbaustein von skalenfreien Netzwerken darstellt, das sind Netzwerke die eine bedeutende Rolle in vielen realen Anwendungen spielen. Diese Naben sind von besonderer Bedeutung für die Kommunikation und den Informationstransport in komplexen Netzwerken. Hierbei wurde eine detaillierte Untersuchung des Synchronisationsmechanismus in oszillatorischen Netzwerken mit einer breiten Frequenzverteilung durchgeführt. Insbesondere beobachten wir eine Fernsynchronisation von Netzwerkknoten, die nur indirekt über andere Oszillatoren miteinander gekoppelt sind. Wir erklären den zu Grunde liegenden Mechanismus und zeigen dessen Grenzen und Bedingungen auf. Des weiteren leiten wir einen analytischen Ausdruck für den Mechanismus her und zeigen, dass eine Informationsübertragung in reinen Phasenoszillatoren, wie beispielsweise vom Kuramototyp, eingeschränkt ist. Diese Ergebnisse konnten wir durch Experimente mit elektrischen Schaltkreisen bestätigen. KW - Komplexe Systeme KW - Synchronisation KW - Nichtlineare Dynamik KW - Datenanalyse KW - complex systems KW - synchronization KW - nonlinear dynamics KW - data analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53407 ER - TY - THES A1 - Winkler, Michael T1 - Thinning and turbulence in aqueous films N2 - This thesis covers the topic ”Thinning and Turbulence in Aqueous Films”. Experimental studies in two-dimensional systems gained an increasing amount of attention during the last decade. Thin liquid films serve as paradigms of atmospheric convection, thermal convection in the Earth’s mantle or turbulence in magnetohydrodynamics. Recent research on colloids, interfaces and nanofluids lead to advances in the developtment of micro-mixers (lab-on-a-chip devices). In this project a detailed description of a thin film experiment with focus on the particular surface forces is presented. The impact of turbulence on the thinning of liquid films which are oriented parallel to the gravitational force is studied. An experimental setup was developed which permits the capturing of thin film interference patterns under controlled surface and atmospheric conditions. The measurement setup also serves as a prototype of a mixer on the basis of thermally induced turbulence in liquid thin films with thicknesses in the nanometer range. The convection is realized by placing a cooled copper rod in the center of the film. The temperature gradient between the rod and the atmosphere results in a density gradient in the liquid film, so that different buoyancies generate turbulence. In the work at hand the thermally driven convection is characterized by a newly developed algorithm, named Cluster Imaging Velocimetry (CIV). This routine determines the flow relevant vector fields (velocity and deformation). On the basis of these insights the flow in the experiment was investigated with respect to its mixing properties. The mixing characteristics were compared to theoretical models and mixing efficiency of the flow scheme calculated. The gravitationally driven thinning of the liquid film was analyzed under the influence of turbulence. Strong shear forces lead to the generation of ultra-thin domains which consist of Newton black film. Due to the exponential expansion of the thin areas and the efficient mixing, this two-phase flow rapidly turns into the convection of only ultra-thin film. This turbulence driven transition was observed and quantified for the first time. The existence of stable convection in liquid nanofilms was proven for the first time in the context of this work. N2 - Diese Diplomarbeit behandelt das Thema ”Dünnung und Turbulenz in wässrigen Filmen”. Experimente in zweidimensionalen Systemen erfuhren in den vergangenen Jahren zunehmend an Aufmerksamkeit. Dünne Flüssigkeitsschichten dienen als Modell für atmosphärische Konvektion, thermische Konvektion im Erdmantel oder Turbulenz in der Magnetohydrodynamik. Aktuelle Forschung im Bereich der Kolloide, Grenzflächen und Nanofluidik führt zu Fortschritten in der Entwicklung von Mikromixern (”lab-on-a-chip”). In diesem Projekt wird eine detaillierte Beschreibung eines Dünnfilmexperiments mit Fokus auf die besonderen Oberflächenkräfte vorgestellt. Die Auswirkung der Turbulenz auf die Dünnung von parallel zur Gravitationskraft orientierten Flüssigkeitsschichten wurde untersucht. Es wurde ein Experiment entwickelt, welches die Aufnahme von Dünnschichtinterferenzmustern unter kontrollierten Oberflächenbedingungen und Atmosphäre erlaubt. Der Messaufbau dient auch als Prototyp eines Mixers auf Basis von thermisch induzierter Turbulenz in Flüssigkeitsfilmen mit Dicken im Nanometerbereich. Die Konvektion wird durch das Platzieren eines gekühlten Kupferstabs in der Mitte des Films realisiert. Der Temperaturgradient zwischen Stab und äußerer Atmosphäre resultiert in einem Dichtegradienten in dem flüssigen Film, sodass durch unterschiedliche Auftriebskräfte Turbulenz erzeugt wird. In der vorliegenden Arbeit ist die thermisch getriebenen Konvektion an Hand eines neu entwickelten Verfahrens (Cluster Imaging Velocimetry - CIV) zur Ermittlung des strömungsrelevanten Vektorfelder (Geschwindigkeit und Deformation) charakterisiert worden. Auf Basis dieser Erkenntnisse wurde die im Experiment vorherrschende Strömung in Hinsicht auf ihre Mischungseigenschaften im Vergleich zu theoretischen Modellen untersucht und die Mischungseffizienz berechnet. Die gravitationsgetriebene Ausdünnung der Flüssigkeitsschicht unter Einfluss der Turbulenz wurde analysiert. Durch starke Scherkräfte kommt es lokal zur Bildung ultradünner Domänen bestehend aus ”Newton black film”. Diese Zweiphasenströmung geht durch das exponentielle Ausdehnen der dünnen Bereiche und die effiziente Mischung sehr schnell in eine Konvektion von ausschließlich ultradünnem Film im Gleichgewichtszustand über. Dieser turbulenzgetriebene Übergang wurde zum ersten Mal beobachtet und quantifiziert. Die Existenz stabiler Konvektion in flüssigen Nanofilmen ist zum ersten Mal im Rahmen dieser Arbeit belegt worden. KW - wässrige Filme KW - Nanofluid KW - Mischung KW - Konvektion KW - Dünnung KW - Thin Film KW - Nanofluid KW - Mixing KW - Convection KW - Rapid thinning Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53107 ER - TY - THES A1 - Boeche, Corrado T1 - Chemical gradients in the Milky Way from unsupervised chemical abundances measurements of the RAVE spectroscopic data set T1 - Chemische Gradienten in der Milchstraße aus unüberwachten chemischen Häufigkeitsmessungen aus dem RAVE spektroskopischen Datenset N2 - The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution. N2 - Die vorliegende Doktorarbeit wurde im Rahmen des RAdial Velocity Experiment (RAVE) angefertigt. Ihr Ziel ist es, chemische Elementhäufigkeiten an RAVE-Spektren zu messen und zur Untersuchung chemischer Gradienten in der Milchstrassenebene zu benutzen, um verschieden Szenarien der Galaxienentstehung einzugrenzen. RAVE ist eine große spektrokopische Durchmusterung, deren Ziel es ist, bis zum Ende des Jahres 2012 insgesamt 10^6 Sterne zu spektroskopieren, um deren Radialgeschwindigkeiten, sternatmosphärische Parameter und chemische Häufigkeiten zu messen. Das Projekt benutzt das UK Schmidt Teleskop am Australian Astronomical Observatory (AAO) in Siding Spring, Australien, welches mit dem Multiobjekt-Spektrographen 6dF bestückt ist. Bis heute hat RAVE die Spektren von mehr als 450,000 Sternen gesammelt und untersucht. Die Genauigkeit, mit der die Elementhäufigkeiten abgeschätzt werden können, hängt von der Zuverlässigkeit der verwendeten Parameter, (insbesondere der Oszillatorstärken der Absorptionslinien sowie von der effektiven Temperatur, Schwerebeschleunigung und der Metallizität des gemessenen Sterns) ab. Daher identifizierten wir zunächst 604 Absorptionslinien im Wellenlängenbereich von RAVE und verbesserten deren Oszillatorstärken durch eine inverse Spektralanalyse. Dann wurden die stellaren Parameter von RAVE verbessert, indem die RAVE Pipeline und die stellaren Parameter, auf denen sie beruht, modifiziert wurden. Die Änderungen eliminierten einen Teil der systematischen Fehler von stellaren Parametern, die im Laufe dieser Arbeit gefunden wurden. Um Elementhäufigkeiten zu bestimmen, haben wir zwei verschiedene Prozessierungs-Pipelines entwickelt. Beide berechnen die Elementhäufigkeiten unter der Annahme von Sternatmosphären im lokalen thermischen Gleichgewicht (local thermal equilibrium, LTE). Die erste Pipeline berechnete Elemenhäufigkeiten anhand der Äquivalentbreiten von Absorptionslinien. Da diese Methode eine geringe Empfindlichkeit für die Elementhäufigeiten relativ zu Eisen erreichte, wurde sie ersetzt. Die neue Pipeline benutzt chi^2-Fits von Modellspektren an die beobachteten Spektren. Dank Ihrer Präzision wurde diese für die Erstellung des RAVE-Katalogs von Elementhäufigkeiten verwendet. Diese Pipeline liefert Elementhäufigkeiten mit einer Genauigkeit von ~0.2dex, während für Spektren mit 20>S/N>40 immerhin noch ~0.3dex Genauigkeit erreicht werden. Für die vorliegende Arbeit wurden für 217.358 Sterne die Häufigkeiten von sieben chemischen Elementen bestimmt. Mit diesen Daten wurde der radiale chemische Gradient unserer Milchstraße untersucht. Wir finden, dass Sterne mit kleinen vertikalen Geschwindigkeiten |W|, die also nahe der galaktischen Ebene bleiben, einen radialen Gradienten der Eisenhäufigkeit zeigen, der mit früheren Studien übereinstimmt (~-0.07 dex Kpc^-1), während Sterne mit großen |W|, also solche, die größere galaktische Höhen erreichen, einen progressiv flachere Gradienten zeigen. Die Gradienten der anderen Element folgen dem gleichen Trend. Das lässt darauf schließen, dass entweder die Durchmischung der galaktischen dicken Scheibe effizient arbeitet oder aber dass die dicke Scheibe aus interstellarer Materie gebildet wurde, die chemisch recht homogen war. Speziell fanden wir hunderte von Sternen, die zwar kinematisch als zur dicken Scheibe zugehörig klassifiziert werden können, die aber die typische chemische Zusammensetzung der dünnen Scheibe aufweisen. Einige wenige dieser Sterne wurden bereits von anderen Autoren entdeckt, aber ihre Herkunft bleibt immer noch unklar. Eine Möglichkeit ist, dass die Sterne der dünnen Scheibe kinematische geheizt werden, sodass sie effizienter radial gemischt werden, was die chemischen Gradienten verwischt und auch flacher macht. Alternativ dazu könnten diese Sterne einer "Übergangspopulation" angehören, welche hinsichtlich der Scheibenevolution die Verbindung zwischen der dünnen und der dicken Scheibe darstellt. Unsere Untersuchung zeigt, dass sich diese beiden Erklärungen gegenseitig nicht ausschließen. Künftige Nachspektroskopierung mit hoher Auflösung wird die Rolle dieser Sterne in der Entwicklungsgeschichte der galaktischen Scheibe aufklären. KW - Galaxie KW - Milchstraße KW - Spektroskopie KW - chemische Häufigkeiten KW - Galaxy KW - Milky Way KW - Spectroscopy KW - Chemical Abundances Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52478 ER - TY - THES A1 - Hoffmann, Anne T1 - Comparative aerosol studies based on multi-wavelength Raman LIDAR at Ny-Ålesund, Spitsbergen T1 - Vergleichende Aerosolstudien mittels Mehrwellenlängen-Raman-LIDAR in Ny-Ålesund,Spitzbergen N2 - The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution. N2 - Die Arktis ist ein bezüglich Klimaveränderungen besonders sensitives Gebiet, d.h. die globale Erwärmung wirkt sich aufgrund der saisonal hochvariablen Strahlungsbedingungen und der Bodenalbedo dort verstärkt aus.Wolken und Aerosole als Bestandteile der arktischen Atmosphäre spielen dabei eine besondere Rolle im Strahlungsgleichgewicht. Die vorliegende Promotionsarbeit leistet mit Hilfe von LIDAR-Messungen (Light Detection and Ranging) einen Beitrag zum Verständnis von Vorkommen und Eigenschaften von Aerosolschichten über Ny-Ålesund, Spitzbergen. Besonderes Augenmerk liegt dabei auf der Analyse von Zeiträumen mit erhöhter Aerosolbelastung. Es wurde zum einen die arktische Troposphäre zweier Frühjahre (März und April der Jahre 2007 und 2009) untersucht, da im Frühjahr die Aerosol-optische Dicke (AOD) in der Arktis Maximalwerte erreicht. Zum anderen wurden stratosphärische Aerosolschichten vulkanischen Ursprungs analysiert, die in den Sommern 2008 und 2009 nach Ausbrüchen der Kasatochi und Sarychev Vulkane jeweils für mehrere Monate in der unteren Stratosphäre messbar waren. Das an der AWIPEV Forschungsstation betriebene Koldewey Aerosol Raman LIDAR (KARL), ein Instrument zur optischen Fernerkundung atmosphärischer Parameter mittels gepulster Laserstrahlung, wurde im Rahmen der Promotion grundlegend überarbeitet und mit einem neuen Teleskop sowie neuen Detektoroptiken versehen. Dies ermöglicht die Profilerfassung ab 450m über dem Meeresspiegel bis in die mittlere Stratosphäre. KARL liefert hochaufgelöste Messungen der Streueigenschaften von Aerosol- undWolkenteilchen (Rückstreuung, Extinktion und Depolarisation) sowieWasserdampfprofile in der unteren Troposphäre. Durch die Kombination von KARL Messungen mit Daten anderer Messgeräte an der AWIPEV Forschungsstation wie Radiosonden, Sonnenphotometer, Micro Pulse LIDAR und Fesselsonden wurde ein umfassender Datenbestand von Streuphänomenen in der arktischen Atmosphäre geschaffen. Die beiden genannten Frühjahreszeiträume März und April 2007 und 2009 wurden zunächst anhand meteorologischer Parameter, wie lokaler Temperatur- und Feuchteprofile sowie großskaliger Druckmuster und Luftmassenquellgebiete analysiert. Dabei konnte kein eindeutiger Zusammenhang zwischen Quellgebieten und erhöhter AOD festgestellt werden. In einem Vergleich zweier wolkenfreier Perioden im März 2007 und April 2009 war jedoch die höhere Aerosolbelastung in 2009 mit dem Transport von Luftmassen durch die innere Arktis verbunden. Aufgrund der begrenzten Lebensdauer von Aerosolen lässt das entweder Aerosol-Entstehungsprozesse in der Zentralarktis oder Transformationsprozesse während des Transportes nach Ny-Ålesund vermuten. Für Messungen am 4. April 2009 mit Maximalwerten der AOD von bis zu 0.12 konnte die Größe der Aerosolteilchen in verschiedenen Höhen mit Hilfe von Inversionsrechnungen abgeschätzt werden. Diese und andere betrachtete Fallstudien legen eine Unterscheidung von Aerosolereignissen in drei Kategorien nahe, die sich in ihrer Entstehung deutlich unterscheiden: Vertikal begrenzte Aeosolschichten in trockener Luft, zeitlich hochvariable feuchte Aerosolschichten in der planetaren Grenzschicht sowie eine erhöhte Aerosolbelastung über große Teile der Troposphäre. Für das sehr klare Frühjahr 2007 wurden die vorhandenen KARL-Daten mit Hilfe eines Klassifikationsschemas, das auf den optischen Eigenschaften der streuenden Teilchen beruht, statistisch ausgewertet. Das verwendete Schema wurde mit Hilfe von verschiedenen Fallstudien validiert und ermöglicht bei Anwendung auf größere Datenbestände eine aussagekräftige Analyse von jährlichen Schwankungen der Aerosol- und Wolkenvorkommen über Ny-Ålesund. Die Ausbrüche zweier Vulkane in der nördlichen Hemisphäre im August 2008 und im Juni 2009 erlaubten die Analyse vulkanischer Aerosolschichten in der Stratosphäre. Die zeitliche Entwicklung der stratosphärischen AOD verlief in beiden Jahren ähnlich mit Maximalwerten von über 0.1 etwa drei bis fünfWochen nach dem jeweiligen Ausbruch. In beiden Jahren wurden bis zum technisch bedingten Abbruch der Messungen jeweils Ende September erhöhte stratosphärische AOD Werte gemessen. Die niedrigste Aerosolschicht konnte jeweils direkt an der Tropopause detektiert werden. Im Jahr 2008 wurden bis zu drei Schichten detektiert, die Struktur 2009 war durch bis zu sechs schmale Schichten gekennzeichnet, die nach etwa zwei Monaten zu einer breiten Schicht verschmierten. Drei Fallstudien zu mikrophysikalischen Aerosoleigenschaften wurden durchgeführt. Dabei wurden für beide Jahre sehr große Brechungsindices von m=(1.53–1.55) - 0.02i ermittelt, die auf eine absorbierende Kohlenstoffkomponente der Vulkanaerosole hinweisen. Der errechnete Teilchenradius war ebenfalls in beiden Jahren vergleichbar mit Werten zwischen 0.16 und 0.19 μm. 2009 wurde zusätzlich ein zweites Maximum der Größenverteilung bei ca. 0.5μm gefunden. Die Langzeitmessungen mit dem Koldewey Aerosol Raman LIDAR KARL in Ny-Ålesund schaffen die Möglichkeit, arktische Aerosole in Troposphäre und Stratosphäre nicht nur in Fallstudien, sondern auch über längere Zeiträume hinweg zu analysieren. Im Rahmen dieser Promotionsarbeit konnten sowohl Aerosolvorkommen in der arktischen Troposphäre im Frühjahr als auch eine vulkanisch bedingte erhöhte Aerosolbelastung in der Stratosphäre qualitativ und quantitativ beschrieben werden. Fallstudien und die Kombination mit Daten anderer Messgeräte ermöglichten Analysen mikrophysikalischer Aerosolparameter und deren Entwicklungsprozesse. KW - Arktis KW - Lidar KW - Aerosole KW - Fernerkundung KW - Arctic KW - Lidar KW - Aerosols KW - Remote Sensing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52426 ER - TY - THES A1 - Stoyanov, Hristiyan T1 - Soft nanocomposites with enhanced electromechanical response for dielectric elastomer actuators T1 - Elastomer-Nanokomposite mit erhöhter elektro-mechanischer Sensitivität für dielektrische Elastomer Aktoren N2 - Electromechanical transducers based on elastomer capacitors are presently considered for many soft actuation applications, due to their large reversible deformation in response to electric field induced electrostatic pressure. The high operating voltage of such devices is currently a large drawback, hindering their use in applications such as biomedical devices and biomimetic robots, however, they could be improved with a careful design of their material properties. The main targets for improving their properties are increasing the relative permittivity of the active material, while maintaining high electric breakdown strength and low stiffness, which would lead to enhanced electrostatic storage ability and hence, reduced operating voltage. Improvement of the functional properties is possible through the use of nanocomposites. These exploit the high surface-to-volume ratio of the nanoscale filler, resulting in large effects on macroscale properties. This thesis explores several strategies for nanomaterials design. The resulting nanocomposites are fully characterized with respect to their electrical and mechanical properties, by use of dielectric spectroscopy, tensile mechanical analysis, and electric breakdown tests. First, nanocomposites consisting of high permittivity rutile TiO2 nanoparticles dispersed in thermoplastic block copolymer SEBS (poly-styrene-coethylene-co-butylene-co-styrene) are shown to exhibit permittivity increases of up to 3.7 times, leading to 5.6 times improvement in electrostatic energy density, but with a trade-off in mechanical properties (an 8-fold increase in stiffness). The variation in both electrical and mechanical properties still allows for electromechanical improvement, such that a 27 % reduction of the electric field is found compared to the pure elastomer. Second, it is shown that the use of nanofiller conductive particles (carbon black (CB)) can lead to a strong increase of relative permittivity through percolation, however, with detrimental side effects. These are due to localized enhancement of the electric field within the composite, which leads to sharp reductions in electric field strength. Hence, the increase in permittivity does not make up for the reduction in breakdown strength in relation to stored electrical energy, which may prohibit their practical use. Third, a completely new approach for increasing the relative permittivity and electrostatic energy density of a polymer based on 'molecular composites' is presented, relying on chemically grafting soft π-conjugated macromolecules to a flexible elastomer backbone. Polarization caused by charge displacement along the conjugated backbone is found to induce a large and controlled permittivity enhancement (470 % over the elastomer matrix), while chemical bonding, encapsulates the PANI chains manifesting in hardly any reduction in electric breakdown strength, and hence resulting in a large increase in stored electrostatic energy. This is shown to lead to an improvement in the sensitivity of the measured electromechanical response (83 % reduction of the driving electric field) as well as in the maximum actuation strain (250 %). These results represent a large step forward in the understanding of the strategies which can be employed to obtain high permittivity polymer materials with practical use for electro-elastomer actuation. N2 - Die Palette von elektro-mechanischen Aktuatoren, basierend auf dem Prinzip weicher dehnbarer Kondensatoren, scheint besonders für Anwendungen in der Medizin und für biomimetische Applikationen unbegrenzt. Diese Wandler zeichnen sich sowohl durch hohe Reversibilität bei großer mechanischer Deformation als auch durch ihre Flexibilität aus, wobei die mechanischen Deformationen durch elektrische Felder induziert werden. Die Notwendigkeit von hoher elektrischer Spannung zur Erzeugung dieser mechanischen Deformationen verzögert jedoch die technisch einfache und breite Markteinführung dieser Technologie. Diesem Problem kann durch eine gezielte Materialmodifikation begegnet werden. Eine Modifikation hat das Ziel, die relative Permittivität zu erhöhen, wobei die Flexibilität und die hohe elektrische Durchbruchsfeldstärke beibehalten werden sollten. Durch eine Materialmodifikation kann die Energiedichte des Materials bedeutend erhöht und somit die notwendige Betriebsspannung des Aktuators herabgesetzt werden. Eine Verbesserung der funktionalen Materialeigenschaften kann durch die Verwendung von Nanokompositen erzielt werden, welche die fundamentalen Eigenschaften der Nanopartikel, d.h. ein gutes Verhältnis von Oberfläche zu Volumen nutzen, um eine gezielte makroskopische Materialmodifikation zu bewirken. Diese Arbeit behandelt die Anwendung innovativer Strategien für die Erzeugung von Nanomaterialien mit hoher Permittivität. Die so erzeugten Materialien und deren relevante Aktuatorkenngrößen werden durch elektrische und mechanische Experimente vollständig erfasst. Mittels der klassischen Mischansätze zur Erzeugung von Kompositmaterialen mit hoher Permittivität konnte durch nichtleitendes Titaniumdioxid TiO2 (Rutile) in einem Thermoplastischen-Block-Co-Polymer SEBS (poly-styrene-co-ethylene-cobutylene-co-styrene) die Permittivität bereits um 370 % erhöht und die elektrische Energiedichte um 570 % gesteigert werden. Diese Veränderungen führten jedoch zu einem signifikanten Anstieg der Steifigkeit des Materials. Aufgrund der positiven Rückkopplung von elektrischen und mechanischen Eigenschaften des Kompositmaterials ermöglicht bereits dieser einfache Ansatz eine Verbesserung der Aktuation, bei einer 27 %-igen Reduktion der Aktuatorbetriebsspannung. Eine direkte Verwendung von leitfähigen Nanopartikeln kann ebenso zu einem Anstieg der relativen Permittivität beitragen, wobei jedoch die Leitfähigkeit dieser Nanopartikel bedeutende Wechselwirkungen verursacht, welche somit die Energiedichte des Materials negativ beeinflusst und die praktische Verwendung dieses Kompositsystems ausschließt. Als ein völlig neuer Ansatz zur Steigerung der relativen Permittivität und Energiedichte und abweichend vom klassischen Mischverfahren, wird die Herstellung eines "Molekularen Komposits", basierend auf einem chemischen Propfverfahren, präsentiert. In diesem Ansatz wird ein π-konjugiertes leitfähiges Polymer (PANI) an die Hauptkette des Elastomers der Polymermatrix gebunden. Die daraus resultierende Ladungsverteilung entlang der Elastomerhauptkette bewirkt eine 470 %-ige Steigerung der Permittivität des "Molekularen Komposits" im Vergleich zur Permittivität des unbehandelten Elastomermaterials. Aufgrund der Verkapselung der chemischen Bindungen der PANI-Kette entstehen kaum negative Rückwirkungen auf die elektrischen und mechanischen Eigenschaften des so erzeugten Komposits. Diese Materialeigenschaften resultieren in einem signifikanten Anstieg der Energiedichte des Materials. Das mittels dieses Verfahrens erzeugte Komposit zeigt sowohl eine Steigerung der Sensitivität der elektromechanischen Antwort (Reduktion des elektrischen Felds um 83 %) als auch eine bedeutende Steigerung der maximalen Aktuation (250 %). Die Ergebnisse und Ideen dieser Arbeit stellen einen wesentlichen Sprung im Verständnis zur Permittivitätssteigerung in Polymermaterialien dar und werden deshalb in der Erforschung und Entwicklung von Elastomeraktuatoren Beachtung finden. KW - dielektrische Elastomere KW - Nanokomposite KW - hohe Permittivität KW - elektrostatische Energiedichte KW - elektromechanische Reaktion KW - dielectric elastomers KW - nanocomposites KW - high permittivity KW - electrostatic energy density KW - electromechanical response Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51194 ER - TY - THES A1 - Robinson, Alexander T1 - Modeling the Greenland Ice Sheet response to climate change in the past and future T1 - Modellierung der Reaktion des Grönländischen Inlandeises auf den vergangenen und zukünftigen Klimawandel N2 - The Greenland Ice Sheet (GIS) contains enough water volume to raise global sea level by over 7 meters. It is a relic of past glacial climates that could be strongly affected by a warming world. Several studies have been performed to investigate the sensitivity of the ice sheet to changes in climate, but large uncertainties in its long-term response still exist. In this thesis, a new approach has been developed and applied to modeling the GIS response to climate change. The advantages compared to previous approaches are (i) that it can be applied over a wide range of climatic scenarios (both in the deep past and the future), (ii) that it includes the relevant feedback processes between the climate and the ice sheet and (iii) that it is highly computationally efficient, allowing simulations over very long timescales. The new regional energy-moisture balance model (REMBO) has been developed to model the climate and surface mass balance over Greenland and it represents an improvement compared to conventional approaches in modeling present-day conditions. Furthermore, the evolution of the GIS has been simulated over the last glacial cycle using an ensemble of model versions. The model performance has been validated against field observations of the present-day climate and surface mass balance, as well as paleo information from ice cores. The GIS contribution to sea level rise during the last interglacial is estimated to be between 0.5-4.1 m, consistent with previous estimates. The ensemble of model versions has been constrained to those that are consistent with the data, and a range of valid parameter values has been defined, allowing quantification of the uncertainty and sensitivity of the modeling approach. Using the constrained model ensemble, the sensitivity of the GIS to long-term climate change was investigated. It was found that the GIS exhibits hysteresis behavior (i.e., it is multi-stable under certain conditions), and that a temperature threshold exists above which the ice sheet transitions to an essentially ice-free state. The threshold in the global temperature is estimated to be in the range of 1.3-2.3°C above preindustrial conditions, significantly lower than previously believed. The timescale of total melt scales non-linearly with the overshoot above the temperature threshold, such that a 2°C anomaly causes the ice sheet to melt in ca. 50,000 years, but an anomaly of 6°C will melt the ice sheet in less than 4,000 years. The meltback of the ice sheet was found to become irreversible after a fraction of the ice sheet is already lost – but this level of irreversibility also depends on the temperature anomaly. N2 - Das grönländische Inlandeis (GIS) besteht aus einem Wasservolumen das ausreicht, um den globalen Meeresspiegel um 7 Meter ansteigen zu lassen. Es ist ein Relikt der vergangenen Eiszeit, das in einer zunehmend wärmer werdenden Welt stark in Mitleidenschaft gezogen werden könnte. In der vorliegenden Dissertation ist ein neues Verfahren zur Modellierung des Antwortverhaltens des Inlandeises auf Klimaänderungen entwickelt und angewendet worden. Die Vorteile des neuen Verfahrens im Vergleich zu den bisherigen Verfahren sind, (i) dass es über einen groen Bereich von Klimaszenarien (sowohl für die ferne Vergangenheit als auch für die Zukunft) anwendbar ist, (ii) dass es die wesentlichen Rückkopplungsprozesse zwischen Klima und Inlandeis enthält und (iii) dass es wegen seiner guten Rechenzeiteffizienz Simulationen über sehr lange Zeitskalen erlaubt. Das neue Modell (REMBO) ist für die Modellierung des Klimas und der Massenbilanz an der grönländischen Oberfläche entwickelt worden und stellt ein verbessertes Verfahren im Vergleich zu den bisherigen dar. Die Entwicklung von GIS über den letzten glazialen Zyklus ist mittels eines Ensembles von verschiedenen Modellversionen simuliert worden. Anschließend ist die Tauglichkeit der Modellversionen durch Vergleich mit Beobachtungsdaten des gegenwärtigen Klimas und der Oberflächenmassenbilanz, sowie mit paleoklimatischen Rekonstruktionen von Eisbohrkernen verifiziert worden. Der Anteil von GIS am Meeresspiegelanstieg während des letzten Interglazials ist im Bereich von 0.5 bis 4.1 m berechnet worden, was konsistent mit bisherigen Schätzungen ist. Von den Ensemblesimulationen sind diejenigen ausgewählt worden, deren Ergebnisse gut mit den Daten übereinstimmen. Durch die Auswahl von geeigneten Modellversionen sind gleichzeitig die Unsicherheiten der Parameterwerte begrenzt worden, so dass sich nun mit dem neuen Verfahren die Sensitivität von GIS auf Klimaänderungen bestimmen lässt. Mit den ausgewählten Modellversionen ist die Sensitivität von GIS auf langfristige Klimaänderungen untersucht worden. Es zeigt sich, dass das GIS ein Hystereseverhalten besitzt (d.h., eine Multistabilität für gewisse Klimazustände) und dass ein Temperaturschwellwert existiert. Bei Überschreiten des Schwellwertes bleibt das GIS nicht erhalten und wird langsam eisfrei werden. Der Temperaturschwellwert der globalen Mitteltemperatur relativ zur vorindustriellen Mitteltemperatur ist im Bereich 1.3-2.3°C ermittelt worden und liegt damit deutlich niedriger als bisher angenommen. Die Zeitdauer bis zum völligen Abschmelzen zeigt ein nichtlineares Verhalten hinsichtlich einer Erwärmung über den ermittelten Schwellwert. Eine Erwärmung von 2°C relativ zur vorindustriellen Zeit führt zu einem Abschmelzen nach 50.000 Jahren, aber eine Erwärmung um 6°C lässt das Inlandeis bereits nach 4.000 Jahren abschmelzen. Ein weiteres Ergebnis ist, dass der Abschmelzvorgang irreversibel werden kann, nachdem ein gewisser Anteil des Inlandeises abgeschmolzen ist – jedoch ist die Irreversibilität eines Abschmelzvorganges auch von der Temperaturanomalie abhängig. KW - Grönland KW - Inlandeis KW - Klimawandel KW - Stabilität KW - Hysterese KW - Greenland KW - ice sheet KW - climate change KW - stability KW - hysteresis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50430 ER -