TY - THES A1 - Kuckländer, Nina T1 - Synchronization via correlated noise and automatic control in ecological systems T1 - Synchronisation in ökologischen Systemen durch korreliertes Rauschen und automatische Kontrolle N2 - Subject of this work is the possibility to synchronize nonlinear systems via correlated noise and automatic control. The thesis is divided into two parts. The first part is motivated by field studies on feral sheep populations on two islands of the St. Kilda archipelago, which revealed strong correlations due to environmental noise. For a linear system the population correlation equals the noise correlation (Moran effect). But there exists no systematic examination of the properties of nonlinear maps under the influence of correlated noise. Therefore, in the first part of this thesis the noise-induced correlation of logistic maps is systematically examined. For small noise intensities it can be shown analytically that the correlation of quadratic maps in the fixed-point regime is always smaller than or equal to the noise correlation. In the period-2 regime a Markov model explains qualitatively the main dynamical characteristics. Furthermore, two different mechanisms are introduced which lead to a higher correlation of the systems than the environmental correlation. The new effect of "correlation resonance" is described, i. e. the correlation yields a maximum depending on the noise intensity. In the second part of the thesis an automatic control method is presented which synchronizes different systems in a robust way. This method is inspired by phase-locked loops and is based on a feedback loop with a differential control scheme, which allows to change the phases of the controlled systems. The effectiveness of the approach is demonstrated for controlled phase synchronization of regular oscillators and foodweb models. N2 - Gegenstand der Arbeit ist die Möglichkeit der Synchronisierung von nichtlinearen Systemen durch korreliertes Rauschen und automatische Kontrolle. Die Arbeit gliedert sich in zwei Teile. Der erste Teil ist motiviert durch Feldstudien an wilden Schafspopulationen auf zwei Inseln des St. Kilda Archipels, die starke Korrelationen aufgrund von Umwelteinflüssen zeigen. In einem linearen System entspricht die Korrelation der beiden Populationen genau der Rauschkorrelation (Moran-Effekt). Es existiert aber noch keine systematische Untersuchung des Verhaltens nichtlinearer Abbildungen unter dem Einfluss korrelierten Rauschens. Deshalb wird im ersten Teils dieser Arbeit systematisch die rauschinduzierte Korrelation zweier logistischer Abbildungen in den verschiedenen dynamischen Bereichen untersucht. Für kleine Rauschintensitäten wird analytisch gezeigt, dass die Korrelation von quadratischen Abbildungen im Fixpunktbereich immer kleiner oder gleich der Rauschkorrelation ist. Im Periode-2 Bereich beschreibt ein Markov-Modell qualitativ die wichtigsten dynamischen Eigenschaften. Weiterhin werden zwei unterschiedliche Mechanismen vorgestellt, die dazu führen, dass die beiden ungekoppelten Systeme stärker als ihre Umwelt korreliert sein können. Dabei wird der neue Effekt der "correlation resonance" aufgezeigt, d. h. es ergibt sich eine Resonanzkurve der Korrelation in Abbhängkeit von der Rauschstärke. Im zweiten Teil der Arbeit wird eine automatische Kontroll-Methode präsentiert, die es ermöglicht sehr unterschiedliche Systeme auf robuste Weise in Phase zu synchronisieren. Die Methode ist angelehnt an Phase-locked-Loops und basiert auf einer Rückkopplungsschleife durch einen speziellen Regler, der es erlaubt die Phasen der kontrollierten Systeme zu ändern. Die Effektivität dieser Methode zur Kontrolle der Phasensynchronisierung wird an regulären Oszillatoren und an Nahrungskettenmodellen demonstriert. KW - Markov-Prozess KW - Kontrolltheorie KW - Synchronisierung KW - Nichtlineare Dynamik KW - Theoretische Ökologie KW - Moran-Effekt KW - Stochastische Prozesse KW - Moran effect KW - Markov process KW - Theoretical ecology KW - Synchronisation KW - Nonlinear Dynamics Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10826 ER - TY - THES A1 - Kühn, Danilo T1 - Synchrotron-based angle-resolved time-of-flight electron spectroscopy for dynamics in dichalogenides Y1 - 2018 ER - TY - THES A1 - Raman Venkatesan, Thulasinath T1 - Tailoring applications-relevant properties in poly(vinylidene fluoride)-based homo-, co- and ter-polymers through modification of their three-phase structure T1 - Maßgeschneiderte anwendungsrelevante Eigenschaften in Homo-, Ko- und Ter-Polymeren auf der Basis von Poly(vinylidenfluorid) durch Modifikation ihrer Dreiphasenstruktur N2 - Poly(vinylidene fluoride) (PVDF)-based homo-, co- and ter-polymers are well-known for their ferroelectric and relaxor-ferroelectric properties. Their semi-crystalline morphology consists of crystalline and amorphous phases, plus interface regions in between, and governs the relevant electro-active properties. In this work, the influence of chemical, thermal and mechanical treatments on the structure and morphology of PVDF-based polymers and on the related ferroelectric/relaxor-ferroelectric properties is investigated. Polymer films were prepared in different ways and subjected to various treatments such as annealing, quenching and stretching. The resulting changes in the transitions and relaxations of the polymer samples were studied by means of dielectric, thermal, mechanical and optical techniques. In particular, the origin(s) behind the mysterious mid-temperature transition (T_{mid}) that is observed in all PVDF-based polymers was assessed. A new hypothesis is proposed to describe the T_{mid} transition as a result of multiple processes taking place within the temperature range of the transition. The contribution of the individual processes to the observed overall transition depends on both the chemical structure of the monomer units and the processing conditions which also affect the melting transition. Quenching results in a decrease of the overall crystallinity and in smaller crystallites. On samples quenched after annealing, notable differences in the fractions of different crystalline phases have been observed when compared to samples that had been slowly cooled. Stretching of poly(vinylidene fluoride-tetrafluoroethylene) (P(VDF-TFE)) films causes an increase in the fraction of the ferroelectric β-phase with simultaneous increments in the melting point (T_m) and the crystallinity (\chi_c) of the copolymer. While an increase in the stretching temperature does not have a profound effect on the amount of the ferroelectric phase, its stability appears to improve. Measurements of the non-linear dielectric permittivity \varepsilon_2^\prime in a poly(vinylidenefluoride-trifluoroethylene-chlorofluoroethylene) (P(VDF-TrFE- CFE)) relaxor-ferroelectric (R-F) terpolymer reveal peaks at 30 and 80 °C that cannot be identified in conventional dielectric spectroscopy. The former peak is associated with T_{mid}\ and may help to understand the non-zero \varepsilon_2^\prime values that are found for the paraelectric terpolymer phase. The latter peak can also be observed during cooling of P(VDF-TrFE) copolymer samples at 100 °C and is due to conduction processes and space-charge polarization as a result of the accumulation of real charges at the electrode-sample interface. Annealing lowers the Curie-transition temperature of the terpolymer as a consequence of its smaller ferroelectric-phase fraction, which by default exists even in terpolymers with relatively high CFE content. Changes in the transition temperatures are in turn related to the behavior of the hysteresis curves observed on differently heat-treated samples. Upon heating, the hysteresis curves evolve from those known for a ferroelectric to those of a typical relaxor-ferroelectric material. Comparing dielectric-hysteresis loops obtained at various temperatures, we find that annealed terpolymer films show higher electric-displacement values and lower coercive fields than the non-annealed samples − irrespective of the measurement temperature − and also exhibit ideal relaxor-ferroelectric behavior at ambient temperatures, which makes them excellent candidates for related applications at or near room temperature. However, non-annealed films − by virtue of their higher ferroelectric activity − show a larger and more stable remanent polarization at room temperature, while annealed samples need to be poled below 0 °C to induce a well-defined polarization. Overall, by modifying the three phases in PVDF-based polymers, it has been demonstrated how the preparation steps and processing conditions can be tailored to achieve the desired properties that are optimal for specific applications. N2 - Homo-, Ko- und Terpolymere auf der Basis von Poly(vinylidenfluorid) (PVDF) sind für ihre ferroelektrischen und relaxor-ferroelektrischen Eigenschaften bekannt. Die teilkristalline Morphologie dieser Fluorpolymere, bestehend aus kristallinen und amorphen sowie den dazwischen liegenden Grenzflächen, bestimmt die relevanten elektroaktiven Eigenschaften. In dieser Arbeit wird der Einfluss chemischer, thermischer und mechanischer Behandlungen auf die Struktur und Morphologie von Polymeren der PVDF-Familie untersucht, die wiederum direkt mit den ferroelektrischen/relaxor-ferroelektrischen Eigenschaften zusammenhängen. Daher wurden Polymerfilme mit verschiedenen Methoden hergestellt und vielfältigen Prozessschritten wie z.B. Tempern, Abschrecken und Recken unterzogen. Die sich daraus ergebenden Veränderungen bei Phasenübergängen und Relaxationen in den Proben wurden mit dielektrischen, thermischen, mechanischen und optischen Verfahren untersucht. Insbesondere wurden die Ursachen für den mysteriösen Übergang bei mittleren Temperaturen (T_{mid}) untersucht, der an allen PVDF-basierten Polymeren beobachtet werden kann. Es wurde eine neue Hypothese aufgestellt, die den T_{mid}-Übergang als Ergebnis mehrerer Prozesse beschreibt, die innerhalb eines Temperaturbereichs mehr oder weniger gleichzeitig ablaufen. Der Beitrag dieser einzelnen Übergänge zum Gesamtübergang hängt sowohl von der chemischen Struktur der Monomereinheiten als auch von den Verarbeitungsbedingungen ab. Die verschiedenen Verarbeitungsbedingungen wirken sich auch auf den Schmelzübergang der Polymere aus. Der Prozess des Abschreckens führt zu einer Abnahme der Gesamtkristallinität mit einer geringeren Kristallitgröße. Bei Proben, die nach dem Tempern abgeschreckt wurden, werden im Vergleich zu Proben, die langsam aus dem getemperten Zustand abgekühlt wurden, bemerkenswerte Unterschiede im Anteil der verschiedenen kristallinen Phasen festgestellt. Das Recken von Poly(vinylidenfluorid-Tetrafluorethylen) (P(VDF-TFE))-Filmen führt zu einem Anstieg des Anteils der ferroelektrischen β-Phase bei gleichzeitiger Erhöhung von Schmelzpunkt (T_m) und Kristallinität (\chi_c) des Kopolymers. Während eine Erhöhung der Strecktemperatur keinen tiefgreifenden Einfluss auf die Menge der ferroelektrischen Phase hat, scheint sich die Stabilität der ferroelektrischen Phase zu verbessern. Messungen der nichtlinearen dielektrischen Dielektrizitätskonstante \varepsilon_2^\prime zeigen in einem relaxor-ferroelektrischen (R-F) Terpolymer aus Poly(vinylidenfluorid-trifluorethylen-chlorfluorethylen) (P(VDF-TrFE- CFE)) Maxima bei 30 und 80 °C, die in der herkömmlichen dielektrischen Spektroskopie nicht identifiziert werden können. Das erste Maximum hängt mit T_{mid}\ zusammen und kann dabei helfen, die von Null verschiedenen \varepsilon_2^\prime-Werte zu verstehen, die an der paraelektrischen Phase des Terpolymers beobachtet werden. Das zweite Maximum kann auch während des Abkühlens von P(VDF-TrFE)-Kopolymerproben bei 100 °C beobachtet werden und ist auf elektrische Leitungsprozesse und Raumladungspolarisationen infolge der Ansammlung von realen Ladungen an den Grenzflächen der Elektroden zum Polymermaterial zurückzuführen. Das Tempern verringert die Curie-Übergangstemperatur des Terpolymers als Folge der Verringerung des ferroelektrischen Phasenanteils, der standardmäßig sogar in Terpolymeren mit relativ hohem CFE-Gehalt vorhanden ist. Die Änderungen der Übergangstemperaturen stehen wiederum im Zusammenhang mit dem Verhalten der Hysteresekurven bei unterschiedlich wärmebehandelten Proben. Während der Erwärmung kommt es zu einer deutlichen Veränderung der Hysteresekurven von einem typisch ferroelektrischen Verhalten hin zu relaxor-ferroelektrischem Verhalten. Vergleicht man die bei verschiedenen Temperaturen beobachteten dielektrischen Hystereseschleifen, so stellt man fest, dass getemperte Terpolymerfilme - unabhängig von der Messtemperatur - höhere dielektrische Verschiebungen und niedrigere Koerzitivfelder aufweisen als nicht getemperte Proben und dass sie auch bei Raumtemperatur ein ideales relaxor-ferroelektrisches Verhalten zeigen, was sie zu ausgezeichneten Kandidaten für Anwendungen in der Nähe der Raumtemperatur macht. Allerdings zeigen nicht getemperte Filme aufgrund ihrer höheren Ferroelektrizität einen höheren und stabilen Wert der remanenten Polarisation bei Raumtemperatur, während getemperte Proben unter 0 °C gepolt werden müssen, um eine eindeutige Polarisation aufzuweisen. Insgesamt konnte gezeigt werden, dass durch die Modifizierung der drei Phasen in PVDF-basierten Polymeren die Präparationsschritte und Verarbeitungsbedingungen so angepasst werden können, dass die gewünschten Eigenschaften für bestimmte Anwendungen optimal sind. KW - PVDF-based polymers KW - structure-property relationships KW - ferroelectric polymers KW - relaxor-ferroelectric polymers KW - mid-temperature transition KW - Polymere auf PVDF-Basis KW - ferroelektrische Polymere KW - Mitteltemperaturübergang KW - Relaxor-ferroelektrische Polymere KW - Struktur-Eigenschafts-Beziehungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549667 ER - TY - THES A1 - Jechow, Andreas T1 - Tailoring the emission of stripe-array diode lasers with external cavities to enable nonlinear frequency conversion T1 - Maßgeschneiderte Emission aus Breitstreifenlasern mit externen Resonatoren zur Ermöglichung nichtlinearer Frequenzkonversion N2 - A huge number of applications require coherent radiation in the visible spectral range. Since diode lasers are very compact and efficient light sources, there exists a great interest to cover these applications with diode laser emission. Despite modern band gap engineering not all wavelengths can be accessed with diode laser radiation. Especially in the visible spectral range between 480 nm and 630 nm no emission from diode lasers is available, yet. Nonlinear frequency conversion of near-infrared radiation is a common way to generate coherent emission in the visible spectral range. However, radiation with extraordinary spatial temporal and spectral quality is required to pump frequency conversion. Broad area (BA) diode lasers are reliable high power light sources in the near-infrared spectral range. They belong to the most efficient coherent light sources with electro-optical efficiencies of more than 70%. Standard BA lasers are not suitable as pump lasers for frequency conversion because of their poor beam quality and spectral properties. For this purpose, tapered lasers and diode lasers with Bragg gratings are utilized. However, these new diode laser structures demand for additional manufacturing and assembling steps that makes their processing challenging and expensive. An alternative to BA diode lasers is the stripe-array architecture. The emitting area of a stripe-array diode laser is comparable to a BA device and the manufacturing of these arrays requires only one additional process step. Such a stripe-array consists of several narrow striped emitters realized with close proximity. Due to the overlap of the fields of neighboring emitters or the presence of leaky waves, a strong coupling between the emitters exists. As a consequence, the emission of such an array is characterized by a so called supermode. However, for the free running stripe-array mode competition between several supermodes occurs because of the lack of wavelength stabilization. This leads to power fluctuations, spectral instabilities and poor beam quality. Thus, it was necessary to study the emission properties of those stripe-arrays to find new concepts to realize an external synchronization of the emitters. The aim was to achieve stable longitudinal and transversal single mode operation with high output powers giving a brightness sufficient for efficient nonlinear frequency conversion. For this purpose a comprehensive analysis of the stripe-array devices was done here. The physical effects that are the origin of the emission characteristics were investigated theoretically and experimentally. In this context numerical models could be verified and extended. A good agreement between simulation and experiment was observed. One way to stabilize a specific supermode of an array is to operate it in an external cavity. Based on mathematical simulations and experimental work, it was possible to design novel external cavities to select a specific supermode and stabilize all emitters of the array at the same wavelength. This resulted in stable emission with 1 W output power, a narrow bandwidth in the range of 2 MHz and a very good beam quality with M²<1.5. This is a new level of brightness and brilliance compared to other BA and stripe-array diode laser systems. The emission from this external cavity diode laser (ECDL) satisfied the requirements for nonlinear frequency conversion. Furthermore, a huge improvement to existing concepts was made. In the next step newly available periodically poled crystals were used for second harmonic generation (SHG) in single pass setups. With the stripe-array ECDL as pump source, more than 140 mW of coherent radiation at 488 nm could be generated with a very high opto-optical conversion efficiency. The generated blue light had very good transversal and longitudinal properties and could be used to generate biphotons by parametric down-conversion. This was feasible because of the improvement made with the infrared stripe-array diode lasers due to the development of new physical concepts. N2 - Für eine Vielzahl von interessanten Anwendungen z.B. in den Lebenswissenschaften werden kohärente Strahlquellen im sichtbaren Spektralbereich benötigt. Diese Strahlquellen sollen sich durch eine hohe Effizienz (d.h. Sparsamkeit), Mobilität und eine hohe Güte des emittierten Lichtes auszeichnen. Im Idealfall passt die Lichtquelle in die Hosentasche und kann mit herkömmlichen Batterien betrieben werden. Diodenlaser sind solche kleinen und sehr effizienten Strahlquellen. Sie sind heutzutage allgegenwärtig, begegnen uns in CD-Playern, Laserdruckern oder an Supermarktkassen im täglichen Leben. Diodenlaser zeichnen sich durch ihren extrem hohen Wirkungsgrad aus, da hier elektrischer Strom direkt in Licht umgewandelt wird. Jedoch können bisher noch nicht alle Wellenlängen im sichtbaren Bereich mit diesen Lasern realisiert werden. Eine Möglichkeit, diesen Wellenlängenbereich über einen Umweg zu erreichen, ist Frequenzkonversion von infrarotem in sichtbares Licht mit sogenannten nichtlinearen optischen Kristallen. Dies ist im Prinzip auch mit Diodenlasern möglich, konnte bisher jedoch nur sehr ineffizient oder mit erheblichem Aufwand umgesetzt werden. Allerdings kann mit Hilfe von externen Resonatoren die Emission solcher Standard-Laserdioden maßgeblich beeinflusst und die Qualität des Lichtes erheblich verbessert werden. Hier setzt die Zielsetzung dieser Arbeit an: Das Licht von infraroten Hochleistungslaserdioden, sogenannten „Streifen-Arrays“, sollte durch einen externen Resonator stabilisiert und für die Frequenzverdopplung erschlossen werden. Diese Arrays bestehen aus mehreren dicht nebeneinander angeordneten Einzelemittern und zeichnen sich dadurch aus, dass eine Kopplung dieser Emitter von außen möglich ist. Im ersten Schritt sollte eine solche Synchronisation der Emitter erreicht werden. In einem zweiten Schritt soll das von außen beeinflusste Licht des Arrays mit einer hohen Effizienz in sichtbares (blaues) Licht konvertiert werden um den Wirkungsgrad der Diodenlaser voll auszunutzen. Dafür war es notwendig die Physik der Streifen-Arrays sorgfältig zu untersuchen. Es mussten Methoden entwickelt werden, durch die eine gezielte Beeinflussung der Emitter möglich ist, damit es zu einer globalen Kopplung und Synchronisation der Array Emitter kommt. Dafür wurden mit Hilfe von mathematischen Modellierungen und Experimenten verschiedene Resonatorkonzepte entwickelt und realisiert. Schlussendlich war es möglich, die Emissionseigenschaften der Arrays um mehrere Größenordnungen zu verbessern und sehr effizient kohärentes blaues Licht sehr hoher Güte zu erzeugen. In einem weiteren Experiment ist es zusätzlich gelungen nichtklassisches Licht bzw. Paarphotonen zu generieren, die ebenfalls interessant für die Lebenswissenschaften sind. KW - Diodenlaser KW - Frequenzkonversion KW - Kopplung KW - Modellierung KW - externe Resonatoren KW - diode-lasers KW - diode-laser-arrays KW - external cavities KW - modeling Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39653 SN - 978-3-86956-031-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Dixit, Sneha T1 - Tension-induced conformational changes of the Piezo protein-membrane nano-dome N2 - Mechanosensation is a fundamental biological process that provides the basis for sensing touch and pain as well as for hearing and proprioception. A special class of ion-channel proteins known as mechanosensitive proteins convert the mechanical stimuli into electrochemical signals to mediate this process. Mechanosensitive proteins undergo conformational changes in response to mechanical force, which eventually leads to the opening of the proteins' ion channel. Mammalian mechanosensitive proteins remained a long sought-after mystery until 2010 when a family of two proteins - Piezo1 and Piezo2 - was identifed as mechanosensors [1]. The cryo-EM structures of Piezo1 and Piezo2 protein were resolved in the last years and reveal a propeller-shaped homotrimer with 114 transmembrane helices [2, 3, 4, 5]. The protein structures are curved and have been suggested to deform the surrounding membrane into a nano-dome, which mechanically responds to membrane tension resulting from external forces [2]. In this thesis, the conformations of membrane-embedded Piezo1 and Piezo2 proteins and their tension-induced conformational changes are investigated using molecular dynamics simulations. Our coarse-grained molecular dynamics simulations show that the Piezo proteins induce curvature in the surrounding membrane and form a stable protein-membrane nano-dome in the tensionless membrane. These membrane-embedded Piezo proteins, however, adopt substantially less curved conformations in our simulations compared to the cryo-EM structures solved in detergent micelles, which agrees with recent experimental investigations of the overall Piezo nano-dome shape in membrane vesicles [6, 7, 8]. At high membrane tension, the Piezo proteins attain nearly planar conformations in our simulations. Our systematic investigation of Piezo proteins under different membrane tensions indicates a half-maximal conformational response at membrane tension values rather close to the experimentally suggested values of Piezo activation [9, 10]. In addition, our simulations indicate a widening of the Piezo1 ion channel at high membrane tension, which agrees with the channel widening observed in recent nearly flattened cryo-EM structures of Piezo1 in small membrane vesicles [11]. In contrast, the Piezo2 ion channel does not respond to membrane tension in our simulations. These different responses of the Piezo1 and Piezo2 ion channels in our simulations are in line with patch-clamp experiments, in which Piezo1, but not Piezo2, was shown to be activated by membrane tension alone [12]. N2 - Mechanosensitivität ist ein fundamentaler biologischer Prozess, der sowohl dem Empfinden von Berührung und Schmerz als auch dem Hören und der Propriozeption zu Grunde liegt. Ein Klasse von Ionenkanalproteinen, die mechanosensitiven Proteine, wandeln dazu mechanische Reize in elektrochemische Signal um. Mechanische Kräfte führen zu Konformationsänderungen dieser mechanosensitiven Proteine, die dann wiederum die Öffnung der Ionenkanäle in den Proteinen bewirken. Die mechanosensitiven Proteine von Säugetieren wurden über viele Jahre gesucht und 2010 schließlich als Familie zweier Proteine – Piezo1 und Piezo2 – entdeckt. Die cryo-EM-Strukturen dieser Proteine wurden in den letzten Jahren entschlüsselt und zeigen einen propellerförmigen Homotrimer, der 114 Transmembranhelizes aufweist. Die Proteinstrukturen sind gekrümmt, was zu dem Vorschlag führte, dass die Proteine die umgebende Membran in eine Nanokuppel überführen, die mechanisch auf durch äußere Krafte induzierte Membranspannungen reagiert. In dieser Doktorarbeit werden die Konformationen von Piezo1 und Piezo2 in Membranen und die spannungsinduzierten Konformationsänderungen dieser Proteine in Molekulardynamiksimulationen untersucht. Unsere vergröberten Molekulardynamiksimulationen zeigen, dass die Piezo-Proteine zu Membrankrümmung und einer stabilen Protein-Membran-Nanokuppel führen. Die Piezo-Proteine nehmen in Membranen jedoch deutlich schwächer gekrümmte Konformationen an als in den aus Detergenzien bestehen Mizellen der cryo-EM-Strukturen, was mit jüngsten experimentellen Befunden zur Form der Piezo-Nanokuppel in Membranvesikeln übereinstimmt. Bei hohen Membranspannungen nehmen die Piezo-Proteine nahezu flache Konformationen in unseren Simulationen an. Unsere systematische Untersuchung von Piezo-Proteinen bei verschiedenen Membranspannungen zeigen halbmaximale Konformationsänderungen bei Werten der Membranspannung, die nahe bei experimentell gefundenen Aktivierungsspannungswerten von Piezo1 liegen. Zudem ist in unseren Simulationen eine Aufweitung des Ionenkanals von Piezo1 bei hohen Membranspannungen zu sehen, die mit Ionenkanalkonformationen in jüngsten, nahezu flachen cryo-EM-Strukuren von Piezo1 in kleinen Membranvesikeln übereinstimmt. In Gegensatz dazu zeigt der Ionenkanal von Piezo2 keine Konformationsänderungen bei hohen Membranspannungen. Diese unterschiedlichen Reaktionen der Ionenkanäle von Piezo1 und Piezo2 wiederum stimmen mit Befunden aus Patch-Clamp-Experimenten überein, in denen Piezo1, aber nicht Piezo2, alleinig durch Membranspannung aktiviert werden konnte. KW - Piezo1 KW - Piezo2 KW - Mechanosensitive proteins KW - Membrane tension KW - MD simulations KW - Piezo1 KW - Piezo2 KW - Mechanosensitiven Proteine KW - Membranspannung KW - MD-Simulationen Y1 - 2023 ER - TY - THES A1 - Rätzel, Dennis T1 - Tensorial spacetime geometries and background-independent quantum field theory T1 - Tensorielle Raumzeit-Geometrien und hintergrundunabhängige Quantenfeldtheorie N2 - Famously, Einstein read off the geometry of spacetime from Maxwell's equations. Today, we take this geometry that serious that our fundamental theory of matter, the standard model of particle physics, is based on it. However, it seems that there is a gap in our understanding if it comes to the physics outside of the solar system. Independent surveys show that we need concepts like dark matter and dark energy to make our models fit with the observations. But these concepts do not fit in the standard model of particle physics. To overcome this problem, at least, we have to be open to matter fields with kinematics and dynamics beyond the standard model. But these matter fields might then very well correspond to different spacetime geometries. This is the basis of this thesis: it studies the underlying spacetime geometries and ventures into the quantization of those matter fields independently of any background geometry. In the first part of this thesis, conditions are identified that a general tensorial geometry must fulfill to serve as a viable spacetime structure. Kinematics of massless and massive point particles on such geometries are introduced and the physical implications are investigated. Additionally, field equations for massive matter fields are constructed like for example a modified Dirac equation. In the second part, a background independent formulation of quantum field theory, the general boundary formulation, is reviewed. The general boundary formulation is then applied to the Unruh effect as a testing ground and first attempts are made to quantize massive matter fields on tensorial spacetimes. N2 - Bekanntermaßen hat Albert Einstein die Geometrie der Raumzeit an den Maxwell-Gleichungen abgelesen. Heutzutage nehmen wie diese Geometrie so ernst, dass unsere fundamentale Materietheorie, das Standardmodell der Teilchenphysik, darauf beruht. Sobald es jedoch um die Physik außerhalb des Sonnensystems geht, scheinen einige Dinge unverstanden zu sein. Unabhängige Beobachtungsreihen zeigen, dass wir Konzepte wie dunkle Materie und dunkle Energie brauchen um unsere Modelle mit den Beobachtungen in Einklang zu bringen. Diese Konzepte passen aber nicht in das Standardmodell der Teilchenphysik. Um dieses Problem zu überwinden, müssen wir zumindest offen sein für Materiefelder mit Kinematiken und Dynamiken die über das Standardmodell hinaus gehen. Diese Materiefelder könnten dann aber auch durchaus zu anderen Raumzeitgeometrien gehören. Das ist die Grundlage dieser Arbeit: sie untersucht die zugehörigen Raumzeitgeometrien und beschäftigt sich mit der Quantisierung solcher Materiefelder unabhängig von jeder Hintergrundgeometrie. Im ersten Teil dieser Arbeit werden Bedingungen identifiziert, die eine allgemeine tensorielle Geometrie erfüllen muss um als sinnvolle Raumzeitgeometrie dienen zu können. Die Kinematik masseloser und massiver Punktteilchen auf solchen Raumzeitgeometrien werden eingeführt und die physikalischen Implikationen werden untersucht. Zusätzlich werden Feldgleichungen für massive Materiefelder konstruiert, wie zum Beispiel eine modifizierte Dirac-Gleichung. Im zweiten Teil wird eine hintergrundunabhängige Formulierung der Quantenfeldtheorie, die General Boundary Formulation, betrachtet. Die General Boundary Formulation wird dann auf den Unruh-Effekt angewendet und erste Versuche werden unternommen massive Materiefelder auf tensoriellen Raumzeiten zu quantisieren. KW - Quantenfeldtheorie KW - Raumzeitgeometrie KW - Hochenergiephysik KW - Elementarteilchen KW - Unruh-Effekt KW - quantum field theory KW - spacetime geometry KW - high energy physics KW - elementary particles KW - Unruh effect Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65731 ER - TY - THES A1 - Rivera Hernández, Sergio T1 - Tensorial spacetime geometries carrying predictive, interpretable and quantizable matter dynamics T1 - Tensorielle Raumzeit-Geometrien, welche prädiktive, interpretierbare und quantisierbare Materiefeld-Dynamiken tragen können N2 - Which tensor fields G on a smooth manifold M can serve as a spacetime structure? In the first part of this thesis, it is found that only a severely restricted class of tensor fields can provide classical spacetime geometries, namely those that can carry predictive, interpretable and quantizable matter dynamics. The obvious dependence of this characterization of admissible tensorial spacetime geometries on specific matter is not a weakness, but rather presents an insight: it was Maxwell theory that justified Einstein to promote Lorentzian manifolds to the status of a spacetime geometry. Any matter that does not mimick the structure of Maxwell theory, will force us to choose another geometry on which the matter dynamics of interest are predictive, interpretable and quantizable. These three physical conditions on matter impose three corresponding algebraic conditions on the totally symmetric contravariant coefficient tensor field P that determines the principal symbol of the matter field equations in terms of the geometric tensor G: the tensor field P must be hyperbolic, time-orientable and energy-distinguishing. Remarkably, these physically necessary conditions on the geometry are mathematically already sufficient to realize all kinematical constructions familiar from Lorentzian geometry, for precisely the same structural reasons. This we were able to show employing a subtle interplay of convex analysis, the theory of partial differential equations and real algebraic geometry. In the second part of this thesis, we then explore general properties of any hyperbolic, time-orientable and energy-distinguishing tensorial geometry. Physically most important are the construction of freely falling non-rotating laboratories, the appearance of admissible modified dispersion relations to particular observers, and the identification of a mechanism that explains why massive particles that are faster than some massless particles can radiate off energy until they are slower than all massless particles in any hyperbolic, time-orientable and energy-distinguishing geometry. In the third part of the thesis, we explore how tensorial spacetime geometries fare when one wants to quantize particles and fields on them. This study is motivated, in part, in order to provide the tools to calculate the rate at which superluminal particles radiate off energy to become infraluminal, as explained above. Remarkably, it is again the three geometric conditions of hyperbolicity, time-orientability and energy-distinguishability that allow the quantization of general linear electrodynamics on an area metric spacetime and the quantization of massive point particles obeying any admissible dispersion relation. We explore the issue of field equations of all possible derivative order in rather systematic fashion, and prove a practically most useful theorem that determines Dirac algebras allowing the reduction of derivative orders. The final part of the thesis presents the sketch of a truly remarkable result that was obtained building on the work of the present thesis. Particularly based on the subtle duality maps between momenta and velocities in general tensorial spacetimes, it could be shown that gravitational dynamics for hyperbolic, time-orientable and energy distinguishable geometries need not be postulated, but the formidable physical problem of their construction can be reduced to a mere mathematical task: the solution of a system of homogeneous linear partial differential equations. This far-reaching physical result on modified gravity theories is a direct, but difficult to derive, outcome of the findings in the present thesis. Throughout the thesis, the abstract theory is illustrated through instructive examples. N2 - Welche Tensorfelder G auf einer glatten Mannigfaltigkeit M können eine Raumzeit-Geometrie beschreiben? Im ersten Teil dieser Dissertation wird es gezeigt, dass nur stark eingeschränkte Klassen von Tensorfeldern eine Raumzeit-Geometrie darstellen können, nämlich Tensorfelder, die eine prädiktive, interpretierbare und quantisierbare Dynamik für Materiefelder ermöglichen. Die offensichtliche Abhängigkeit dieser Charakterisierung erlaubter tensorieller Raumzeiten von einer spezifischen Materiefelder-Dynamik ist keine Schwäche der Theorie, sondern ist letztlich genau das Prinzip, das die üblicherweise betrachteten Lorentzschen Mannigfaltigkeiten auszeichnet: diese stellen die metrische Geometrie dar, welche die Maxwellsche Elektrodynamik prädiktiv, interpretierbar und quantisierbar macht. Materiefeld-Dynamiken, welche die kausale Struktur von Maxwell-Elektrodynamik nicht respektieren, zwingen uns, eine andere Geometrie auszuwählen, auf der die Materiefelder-Dynamik aber immer noch prädiktiv, interpretierbar und quantisierbar sein muss. Diesen drei Voraussetzungen an die Materie entsprechen drei algebraische Voraussetzungen an das total symmetrische kontravariante Tensorfeld P, welches das Prinzipalpolynom der Materiefeldgleichungen (ausgedrückt durch das grundlegende Tensorfeld G) bestimmt: das Tensorfeld P muss hyperbolisch, zeitorientierbar und energie-differenzierend sein. Diese drei notwendigen Bedingungen an die Geometrie genügen, um alle aus der Lorentzschen Geometrie bekannten kinematischen Konstruktionen zu realisieren. Dies zeigen wir im ersten Teil der vorliegenden Arbeit unter Verwendung eines teilweise recht subtilen Wechselspiels zwischen konvexer Analysis, der Theorie partieller Differentialgleichungen und reeller algebraischer Geometrie. Im zweiten Teil dieser Dissertation erforschen wir allgemeine Eigenschaften aller solcher hyperbolischen, zeit-orientierbaren und energie-differenzierenden Geometrien. Physikalisch wichtig sind der Aufbau von frei fallenden und nicht rotierenden Laboratorien, das Auftreten modifizierter Energie-Impuls-Beziehungen und die Identifizierung eines Mechanismus, der erklärt, warum massive Teilchen, die sich schneller als einige masselosse Teilchen bewegen, Energie abstrahlen können, aber nur bis sie sich langsamer als alle masselossen Teilchen bewegen. Im dritten Teil der Dissertation ergründen wir die Quantisierung von Teilchen und Feldern auf tensoriellen Raumzeit-Geometrien, die die obigen physikalischen Bedingungen erfüllen. Eine wichtige Motivation dieser Untersuchung ist es, Techniken zur Berechnung der Zerfallsrate von Teilchen zu berechnen, die sich schneller als langsame masselose Teilchen bewegen. Wir finden, dass es wiederum die drei zuvor im klassischen Kontext identifizierten Voraussetzungen (der Hyperbolizität, Zeit-Orientierbarkeit und Energie-Differenzierbarkeit) sind, welche die Quantisierung allgemeiner linearer Elektrodynamik auf einer flächenmetrischen Raumzeit und die Quantizierung massiver Teilchen, die eine physikalische Energie-Impuls-Beziehung respektieren, erlauben. Wir erkunden auch systematisch, wie man Feldgleichungen aller Ableitungsordnungen generieren kann und beweisen einen Satz, der verallgemeinerte Dirac-Algebren bestimmt und die damit Reduzierung des Ableitungsgrades einer physikalischen Materiefeldgleichung ermöglicht. Der letzte Teil der vorliegenden Schrift skizziert ein bemerkenswertes Ergebnis, das mit den in dieser Dissertation dargestellten Techniken erzielt wurde. Insbesondere aufgrund der hier identifizierten dualen Abbildungen zwischen Teilchenimpulsen und -geschwindigkeiten auf allgemeinen tensoriellen Raumzeiten war es möglich zu zeigen, dass man die Gravitationsdynamik für hyperbolische, zeit-orientierbare und energie-differenzierende Geometrien nicht postulieren muss, sondern dass sich das Problem ihrer Konstruktion auf eine rein mathematische Aufgabe reduziert: die Lösung eines homogenen linearen Differentialgleichungssystems. Dieses weitreichende Ergebnis über modifizierte Gravitationstheorien ist eine direkte (aber schwer herzuleitende) Folgerung der Forschungsergebnisse dieser Dissertation. Die abstrakte Theorie dieser Doktorarbeit wird durch mehrere instruktive Beispiele illustriert. KW - refined spacetime geometries KW - modified dispersion relations KW - modified gravitational dynamics KW - Finsler geometry KW - quantization of field theories Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61869 ER - TY - THES A1 - Mergenthaler, Konstantin K. T1 - The control of fixational eye movements T1 - Die Kontrolle fixationaler Augenbewegungen N2 - In normal everyday viewing, we perform large eye movements (saccades) and miniature or fixational eye movements. Most of our visual perception occurs while we are fixating. However, our eyes are perpetually in motion. Properties of these fixational eye movements, which are partly controlled by the brainstem, change depending on the task and the visual conditions. Currently, fixational eye movements are poorly understood because they serve the two contradictory functions of gaze stabilization and counteraction of retinal fatigue. In this dissertation, we investigate the spatial and temporal properties of time series of eye position acquired from participants staring at a tiny fixation dot or at a completely dark screen (with the instruction to fixate a remembered stimulus); these time series were acquired with high spatial and temporal resolution. First, we suggest an advanced algorithm to separate the slow phases (named drift) and fast phases (named microsaccades) of these movements, which are considered to play different roles in perception. On the basis of this identification, we investigate and compare the temporal scaling properties of the complete time series and those time series where the microsaccades are removed. For the time series obtained during fixations on a stimulus, we were able to show that they deviate from Brownian motion. On short time scales, eye movements are governed by persistent behavior and on a longer time scales, by anti-persistent behavior. The crossover point between these two regimes remains unchanged by the removal of microsaccades but is different in the horizontal and the vertical components of the eyes. Other analyses target the properties of the microsaccades, e.g., the rate and amplitude distributions, and we investigate, whether microsaccades are triggered dynamically, as a result of earlier events in the drift, or completely randomly. The results obtained from using a simple box-count measure contradict the hypothesis of a purely random generation of microsaccades (Poisson process). Second, we set up a model for the slow part of the fixational eye movements. The model is based on a delayed random walk approach within the velocity related equation, which allows us to use the data to determine control loop durations; these durations appear to be different for the vertical and horizontal components of the eye movements. The model is also motivated by the known physiological representation of saccade generation; the difference between horizontal and vertical components concurs with the spatially separated representation of saccade generating regions. Furthermore, the control loop durations in the model suggest an external feedback loop for the horizontal but not for the vertical component, which is consistent with the fact that an internal feedback loop in the neurophysiology has only been identified for the vertical component. Finally, we confirmed the scaling properties of the model by semi-analytical calculations. In conclusion, we were able to identify several properties of the different parts of fixational eye movements and propose a model approach that is in accordance with the described neurophysiology and described limitations of fixational eye movement control. N2 - Während des alltäglichen Sehens führen wir große (Sakkaden) und Miniatur- oder fixationale Augenbewegungen durch. Die visuelle Wahrnehmung unserer Umwelt geschieht jedoch maßgeblich während des sogenannten Fixierens, obwohl das Auge auch in dieser Zeit ständig in Bewegung ist. Es ist bekannt, dass die fixationalen Augenbewegungen durch die gestellten Aufgaben und die Sichtbedingungen verändert werden. Trotzdem sind die Fixationsbewegungen noch sehr schlecht verstanden, besonders auch wegen ihrer zwei konträren Hauptfunktionen: Das stabilisieren des Bildes und das Vermeiden der Ermüdung retinaler Rezeptoren. In der vorliegenden Dissertation untersuchen wir die zeitlichen und räumlichen Eigenschaften der Fixationsbewegungen, die mit hoher zeitlicher und räumlicher Präzision aufgezeichnet wurden, während die Versuchspersonen entweder einen sichtbaren Punkt oder aber den Ort eines verschwundenen Punktes in völliger Dunkelheit fixieren sollten. Zunächst führen wir einen verbesserten Algorithmus ein, der die Aufspaltung in schnelle (Mikrosakkaden) und langsame (Drift) Fixationsbewegungen ermöglicht. Den beiden Typen von Fixationsbewegungen werden unterschiedliche Beiträge zur Wahrnehmung zugeschrieben. Anschließend wird für die Zeitreihen mit und ohne Mikrosakkaden das zeitliche Skalenverhalten untersucht. Für die Fixationsbewegung während des Fixierens auf den Punkt konnten wir feststellen, dass diese sich nicht durch Brownsche Molekularbewegung beschreiben lässt. Stattdessen fanden wir persistentes Verhalten auf den kurzen und antipersistentes Verhalten auf den längeren Zeitskalen. Während die Position des Übergangspunktes für Zeitreihen mit oder ohne Mikrosakkaden gleich ist, unterscheidet sie sich generell zwischen horizontaler und vertikaler Komponente der Augen. Weitere Analysen zielen auf Eigenschaften der Mikrosakkadenrate und -amplitude, sowie Auslösemechanismen von Mikrosakkaden durch bestimmte Eigenschaften der vorhergehenden Drift ab. Mittels eines Kästchenzählalgorithmus konnten wir die zufällige Generierung (Poisson Prozess) ausschließen. Des weiteren setzten wir ein Modell auf der Grundlage einer Zufallsbewegung mit zeitverzögerter Rückkopplung für den langsamen Teil der Augenbewegung auf. Dies erlaubt uns durch den Vergleich mit den erhobenen Daten die Dauer des Kontrollkreislaufes zu bestimmen. Interessanterweise unterscheiden sich die Dauern für vertikale und horizontale Augenbewegungen, was sich jedoch dadurch erklären lässt, dass das Modell auch durch die bekannte Neurophysiologie der Sakkadengenerierung, die sich räumlich wie auch strukturell zwischen vertikaler und horizontaler Komponente unterscheiden, motiviert ist. Die erhaltenen Dauern legen für die horizontale Komponente einen externen und für die vertikale Komponente einen internen Kontrollkreislauf dar. Ein interner Kontrollkreislauf ist nur für die vertikale Kompoente bekannt. Schließlich wird das Skalenverhalten des Modells noch semianalytisch bestätigt. Zusammenfassend waren wir in der Lage, unterschiedliche Eigenschaften von Teilen der Fixationsbewegung zu identifizieren und ein Modell zu entwerfen, welches auf der bekannten Neurophysiologie aufbaut und bekannte Einschränkungen der Kontrolle der Fixationsbewegung beinhaltet. KW - Mikrosakkaden KW - rückgekoppelte Zufallsprozesse KW - Augenbewegungen KW - Sakkadendetektion KW - Fixation KW - microsaccades KW - delayed random walks KW - visual fixation KW - eye movements KW - saccade detection Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29397 ER - TY - THES A1 - Khosravi, Sara T1 - The effect of new turbulence parameterizations for the stable surface layer on simulations of the Arctic climate T1 - Die Auswirkung neuer Turbulenzparametrisierungen auf die stabile Grenzschicht in Simulationen des arktischen Klimas N2 - Arctic climate change is marked by intensified warming compared to global trends and a significant reduction in Arctic sea ice which can intricately influence mid-latitude atmospheric circulation through tropo- and stratospheric pathways. Achieving accurate simulations of current and future climate demands a realistic representation of Arctic climate processes in numerical climate models, which remains challenging. Model deficiencies in replicating observed Arctic climate processes often arise due to inadequacies in representing turbulent boundary layer interactions that determine the interactions between the atmosphere, sea ice, and ocean. Many current climate models rely on parameterizations developed for mid-latitude conditions to handle Arctic turbulent boundary layer processes. This thesis focuses on modified representation of the Arctic atmospheric processes and understanding their resulting impact on large-scale mid-latitude atmospheric circulation within climate models. The improved turbulence parameterizations, recently developed based on Arctic measurements, were implemented in the global atmospheric circulation model ECHAM6. This involved modifying the stability functions over sea ice and ocean for stable stratification and changing the roughness length over sea ice for all stratification conditions. Comprehensive analyses are conducted to assess the impacts of these modifications on ECHAM6's simulations of the Arctic boundary layer, overall atmospheric circulation, and the dynamical pathways between the Arctic and mid-latitudes. Through a step-wise implementation of the mentioned parameterizations into ECHAM6, a series of sensitivity experiments revealed that the combined impacts of the reduced roughness length and the modified stability functions are non-linear. Nevertheless, it is evident that both modifications consistently lead to a general decrease in the heat transfer coefficient, being in close agreement with the observations. Additionally, compared to the reference observations, the ECHAM6 model falls short in accurately representing unstable and strongly stable conditions. The less frequent occurrence of strong stability restricts the influence of the modified stability functions by reducing the affected sample size. However, when focusing solely on the specific instances of a strongly stable atmosphere, the sensible heat flux approaches near-zero values, which is in line with the observations. Models employing commonly used surface turbulence parameterizations were shown to have difficulties replicating the near-zero sensible heat flux in strongly stable stratification. I also found that these limited changes in surface layer turbulence parameterizations have a statistically significant impact on the temperature and wind patterns across multiple pressure levels, including the stratosphere, in both the Arctic and mid-latitudes. These significant signals vary in strength, extent, and direction depending on the specific month or year, indicating a strong reliance on the background state. Furthermore, this research investigates how the modified surface turbulence parameterizations may influence the response of both stratospheric and tropospheric circulation to Arctic sea ice loss. The most suitable parameterizations for accurately representing Arctic boundary layer turbulence were identified from the sensitivity experiments. Subsequently, the model's response to sea ice loss is evaluated through extended ECHAM6 simulations with different prescribed sea ice conditions. The simulation with adjusted surface turbulence parameterizations better reproduced the observed Arctic tropospheric warming in vertical extent, demonstrating improved alignment with the reanalysis data. Additionally, unlike the control experiments, this simulation successfully reproduced specific circulation patterns linked to the stratospheric pathway for Arctic-mid-latitude linkages. Specifically, an increased occurrence of the Scandinavian-Ural blocking regime (negative phase of the North Atlantic Oscillation) in early (late) winter is observed. Overall, it can be inferred that improving turbulence parameterizations at the surface layer can improve the ECHAM6's response to sea ice loss. N2 - Der Klimawandel in der Arktis ist durch eine im Vergleich zum globalen Klimawandel verstärkte Erwärmung und einem damit verbundenen starken Rückgang des arktischen Meereises gekennzeichnet. Da dieser verstärkte Klimawandel in der Arktis die atmosphärische Zirkulation in den mittleren Breiten auf komplexe Weise über tropo- und stratosphärische Pfade beeinflussen kann, ist eine realistische Darstellung arktischer Prozesse in numerischen Klimamodellen für zuverlässige Simulationen gegenwärtiger und zukünftiger Klimaänderungen notwendig, stellt aber nach wie vor eine Herausforderung dar. Ein wesentlicher Grund für Modelldefizite bei der Reproduktion der beobachteten arktischen Klimaprozesse sind Unzulänglichkeiten bei der Darstellung von turbulenten Grenzschichtprozessen, die die Wechselwirkung zwischen Atmosphäre, Meereis und Ozean bestimmen. Gegenwärtige Klimamodelle verwenden für die Darstellung von turbulenten Grenzschichtprozessen in der Arktis häufig Parametrisierungen, die für Bedingungen in mittleren Breiten entwickelt wurden. Diese Arbeit zielt auf eine bessere Darstellung arktischer atmosphärischer Prozesse in Klimamodellen und ein besseres Verständnis der daraus resultierenden Auswirkungen auf die simulierte großskalige atmosphärische Zirkulation in mittleren Breiten ab. Aus diesem Grund wurde in dieser Arbeit eine Hierarchie von verbesserten Turbulenzparametrisierungen in das globale atmosphärische Zirkulationsmodell ECHAM6 implementiert, die basierend auf arktischen Messungen kürzlich entwickelt wurden. Dabei wurden die Stabilitätsfunktionen über Meereis und Ozean für stabile Schichtung sowie die Rauhigkeitslänge über dem Meereis für alle Schichtungsbedingungen modifiziert. Anschließend wurde eine umfassende Analyse der jeweiligen Sensitivitätsexperimente durchgeführt, um den Einfluss dieser Modifikationen auf die Simulationen der arktischen Grenzschicht, der großräumigen atmosphärischen Zirkulation und der dynamischen Verbindungswege zwischen der Arktis und den mittleren Breiten in ECHAM6 zu bewerten. Durch eine schrittweise Implementierung der Hierarchie von verbesserten Turbulenzparameterisierungen in ECHAM6 wurden in einer Reihe von Sensitivitätsexperimenten folgende Erkenntnisse gewonnen: Die kombinierte Auswirkung der reduzierten Rauhigkeitslänge und der modifizierten Stabilitätsfunktionen ist nichtlinear. Dennoch zeigt sich, dass beide Modifikationen zu einer besseren Darstellung arktischer Grenzschichtprozesse führen, insbesondere stimmt die Verringerung des Transferkoeffizienten für Wärme gut mit den Beobachtungen überein. Im Vergleich zu den Referenzbeobachtungen zeigt das ECHAM6-Modell jedoch eine unrealistische Darstellung des Auftretens labiler und stark stabiler Schichtungsbedingungen. Die geringere Häufigkeit von stark stabilen Bedingungen begrenzt den Einfluss der modifizierten Stabilitätsfunktionen. Wenn in den Modelldaten nur die Fälle mit stark stabiler Schichtung analysiert werden, führt die Verwendung der modifizierten Stabilitätsfunktionen zu sehr kleinen turbulenten sensiblen Wärmeflüssen in guter Übereinstimmung mit den Beobachtungen. Dieses Verhalten wurde in den Modellsimulationen mit der Standardturbulenzparametrisierung nicht reproduziert. Es wurde zudem festgestellt, dass die Änderungen in den Turbulenzparametrisierungen einen statistisch signifikanten Einfluss auf die großskaligen Temperatur- und Windfelder in verschiedenen Höhen bis in die Stratosphäre sowohl in der Arktis als auch in den mittleren Breiten haben. Diese signifikanten Signale variieren in ihrer Stärke und Lage je nach Monat und Jahr, was eine starke Abhängigkeit vom Hintergrundzustand anzeigt. Des Weiteren wird in dieser Arbeit untersucht, wie die modifizierten Turbulenzparametrisierungen die Reaktion der troposphärischen und stratosphärischen Zirkulation auf den Rückgang des arktischen Meereises beeinflussen. Dafür wurden die geeignetsten Parametrisierungen zur Darstellung der arktischen Grenzschichtturbulenz anhand der Sensitivitätsexperimente identifiziert. Anschließend wurde die Reaktion des Modells ECHAM6 auf den Meereisverlust durch weitere lange Simulationen mit unterschiedlichen vorgegebenen Meereisbedingungen bewertet. Dabei simuliert die ECHAM6 Modellversion mit verbesserter Turbulenzparametrisierung eine größere vertikale Ausdehnung der arktischen troposphärischen Erwärmung bei Meereisrückgang und zeigt somit eine verbesserte Übereinstimmung mit den Reanalyse-Daten. Darüber hinaus treten in dieser Simulation im Gegensatz zu den Kontrollexperimenten häufiger bevorzugte Zirkulationsmuster auf, die dafür bekannt sind, dass sie Änderungen in der Arktis dynamisch mit den mittleren Breiten verknüpfen. Insbesondere treten blockierende Hochdrucklagen über Skandinavien/Ural im Frühwinter und die negative Phase der Nordatlantischen Oszillation im Spätwinter häufiger auf. Daher lässt sich ableiten, dass durch eine Verbesserung der Turbulenzparametrisierung der Effekt von Meereisverlust in ECHAM6 realistischer dargestellt werden kann. KW - boundary layer KW - atmosphere KW - atmospheric modelling KW - turbulence parameterizations KW - Atmosphäre KW - Atmosphärenmodellierung KW - Grenzschicht KW - Turbulenzparametrisierungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643520 ER - TY - THES A1 - Heinig, Peter T1 - The geometry of interacting liquid domains in Langmuir monolayers N2 - Es werden die Strukturbildung und Benetzung zweidimensionaler (2D) Phasen von Langmuir-Monolagen im lokalen thermodynamischen Gleichgewicht untersucht. Eine Langmuir-Monolage ist ein isoliertes 2D System von Surfaktanten an der Wasser/Luft-Grenzfläche, in dem kristalline, flüssigkristalline, flüssige oder gasförmige Phasen auftreten, die sich in Positionsordnung und/oder Orientierungsordnung unterscheiden. Permanente elektrische Dipolmomente der Surfaktanten führen zu einer langreichweitigen repulsiven Selbstwechselwirkung der Monolage und zur Bildung mesoskopischer Strukturen. Es wird ein Wechselwirkungsmodell verwendet, das die Strukturbildung als Wechselspiel kurzreichweitiger Anziehung (nackte Linienspannung) und langreichweitiger Abstoßung (Oberflächenpotential) auf einer Skala Delta beschreibt. Physikalisch trennt Delta die beiden Längenskalen der lang- und kurzreichweitigen Wechselwirkung. In dieser Arbeit werden die thermodynamischen Stabilitätsbedingungen für die Form einer Phasengrenzlinie (Young-Laplace-Gleichung) und Dreiphasenkontaktpunkt (Young-Bedingung) hergeleitet und zur Beschreibung experimenteller Daten genutzt: Die Linienspannung benetzender 2D Tropfen wird mit Hilfe hängender-Tropfen-Tensiometrie gemessen. Die Blasenform und -größe von 2D Schäumen wird theoretisch modelliert und mit experimentellen 2D Schäumen verglichen. Kontaktwinkel werden durch die Anpassung von experimentellen Tropfen mit numerischen Lösungen der Young-Laplace-Gleichung auf Mikrometerskalen gemessen. Das Skalenverhalten des Kontaktwinkels ermöglicht die Bestimmung einer unteren Schranke von Delta. Weiterhin wird diskutiert, inwieweit das Schalten von 2D Benetzungsmodi in biologischen Membranen zur Steuerung der Reaktionskinetik ein Rolle spielen könnte. Hierzu werden Experimente aus unserer Gruppe, die in einer Langmuir-Monolage durchgeführt wurden, herangezogen. Abschließend wird die scheinbare Verletzung der Gibbs′schen Phasenregel in Langmuir-Monolagen (nicht-horizontales Plateau der Oberflächendruck-Fläche Isotherme, ausgedehntes Dreiphasengebiet in Einkomponentensystemen) quantitativ untersucht. Eine Verschmutzung der verwendeten Substanzen ist demnach die wahscheinlichste Erklärung, während Finite-Size-Effekte oder der Einfluss der langreichweitigen Elektrostatik die Größenordnung des Effektes nicht beschreiben können. N2 - The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect. KW - Langmuir KW - Monolage KW - 2D KW - langreichweitig KW - Benetzung KW - Schäume KW - Phasenregel KW - Langmuir monolayer KW - 2D KW - long range KW - wetting KW - foams KW - phase rule Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000814 ER - TY - THES A1 - Yin, Chunhong T1 - The interplay of nanostructure and efficiency of polymer solar cells T1 - Einfluss der Nanostruktur auf die Effizienz von Polymer-Solarzellen N2 - The aim of this thesis is to achieve a deep understanding of the working mechanism of polymer based solar cells and to improve the device performance. Two types of the polymer based solar cells are studied here: all-polymer solar cells comprising macromolecular donors and acceptors based on poly(p-phenylene vinylene) and hybrid cells comprising a PPV copolymer in combination with a novel small molecule electron acceptor. To understand the interplay between morphology and photovoltaic properties in all-polymer devices, I compared the photocurrent characteristics and excited state properties of bilayer and blend devices with different nano-morphology, which was fine tuned by using solvents with different boiling points. The main conclusion from these complementary measurements was that the performance-limiting step is the field-dependent generation of free charge carriers, while bimolecular recombination and charge extraction do not compromise device performance. These findings imply that the proper design of the donor-acceptor heterojunction is of major importance towards the goal of high photovoltaic efficiencies. Regarding polymer-small molecular hybrid solar cells I combined the hole-transporting polymer M3EH-PPV with a novel Vinazene-based electron acceptor. This molecule can be either deposited from solution or by thermal evaporation, allowing for a large variety of layer architectures to be realized. I then demonstrated that the layer architecture has a large influence on the photovoltaic properties. Solar cells with very high fill factors of up to 57 % and an open circuit voltage of 1V could be achieved by realizing a sharp and well-defined donor-acceptor heterojunction. In the past, fill factors exceeding 50 % have only been observed for polymers in combination with soluble fullerene-derivatives or nanocrystalline inorganic semiconductors as the electron-accepting component. The finding that proper processing of polymer-vinazene devices leads to similar high values is a major step towards the design of efficient polymer-based solar cells. N2 - Ziel dieser Dissertation ist es, die grundlegende Arbeitsweise von polymerbasierten Solarzellen zu verstehen und ihre Leistungsfähigkeit zu erhöhen. Zwei Arten von organischen Solarzellen werden untersucht: Solarzellen, bei denen sowohl Elektronendonator und akzeptor auf Poly(p-phenylen-vinylen) basieren sowie Zellen, bei denen ein PPV-Copolymer als Elektronendonator und organische kleine Moleküle als Elektronenakzeptor fungierten. Um die Zusammenhänge zwischen Morphologie und photovoltaischen Eigenschaften zu verstehen, untersuchte ich Photoströme sowie die Eigenschaften angeregter Zustände in Zweischicht- und Mischsolarzellen mit unterschiedlicher Nano-Morphologie, welche durch die Verwendung von Lösungsmitteln mit unterschiedlichen Siedetemperaturen modifiziert wurde. Die Hauptschlussfolgerung aus diesen Messungen ist, dass der effizienzlimitierende Faktor die feldabhängige Generation freier Ladungsträger ist, wohingegen bimolekulare Rekombination oder die Extraktion der Ladungsträger die Leistungsfähigkeit von Polymer-Polymer- Solarzellen nicht beeinträchtigen. Diese Ergebnisse legen nahe, dass die gezielte Einstellung der Donator-Akzeptor-Grenzfläche von besonderer Bedeutung zum Erreichen hoher Effizienzen ist. In Hybridsolarzellen aus Polymeren und kleinen Molekülen kombinierte ich das lochleitende konjugierte Polymer M3EH-PPV mit einem neuartigen Vinazen-Molekül als Elektronen-akzeptor. Dieses Molekül bietet die Möglichkeit, entweder aus einer Lösung heraus verarbeitet oder im Hochvakuum verdampft zu werden, wodurch eine Vielzahl an unterschiedlichen Probenstrukturen realisiert werden kann. Dadurch konnte ich zeigen, dass die Struktur der aktiven Schicht einen großen Einfluss auf die photovoltaischen Eigenschaften hat. Die Solarzellen erreichten einen Füllfaktor von bis zu 57% und eine Kurzschluss¬spannung von 1 V. In der Vergangenheit konnten bei polymerbasierten Solarzellen Füllfaktoren über 50% nur in Verbindung mit Fullerenen oder nanokristallinen anorganischen Halbleitern als Akzeptoren erreicht werden. Das Resultat, dass bei geeigneter Präparation der Polymer-Vinazen-Schicht vergleichbare Ergebnisse erzielt werden können, ist ein bedeutender Schritt hin zu effizienteren Polymersolarzellen. KW - Nanostruktur KW - Polymer-Solarzelle KW - Effizienz KW - Morphologie KW - Polymer solar cells KW - nanostructure KW - efficiency KW - morphology Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29054 ER - TY - THES A1 - Ruppert, Jan T1 - The Low-Mass Young Stellar Content in the Extended Environment of the Galactic Starburst Region NGC3603 Y1 - 2016 ER - TY - THES A1 - Schlemm, Tanja T1 - The marine ice cliff instability of the Antarctic ice sheet T1 - Die marine Eisklippeninstabilität des antarktischen Eisschildes BT - a theory of mélange-buttressed cliff calving and its application in the Parallel Ice Sheet Model BT - eine Theorie des Mélange-gebremsten Klippenkalbens und ihre Anwendung im Parallel Ice Sheet Model N2 - The Antarctic ice sheet is the largest freshwater reservoir worldwide. If it were to melt completely, global sea levels would rise by about 58 m. Calculation of projections of the Antarctic contribution to sea level rise under global warming conditions is an ongoing effort which yields large ranges in predictions. Among the reasons for this are uncertainties related to the physics of ice sheet modeling. These uncertainties include two processes that could lead to runaway ice retreat: the Marine Ice Sheet Instability (MISI), which causes rapid grounding line retreat on retrograde bedrock, and the Marine Ice Cliff Instability (MICI), in which tall ice cliffs become unstable and calve off, exposing even taller ice cliffs. In my thesis, I investigated both marine instabilities (MISI and MICI) using the Parallel Ice Sheet Model (PISM), with a focus on MICI. N2 - Der antarktische Eisschild ist das größte Süßwasserreservoir der Welt. Würde er vollständig schmelzen, würde der globale Meeresspiegel um etwa 58 m ansteigen. Die Ermittlung von Prognosen über den Beitrag der Antarktis zum Anstieg des Meeresspiegels infolge der globalen Erwärmung ist ein fortlaufender Prozess, der große Unterschiede in den Vorhersagen zur Folge hat. Einer der Gründe dafür sind Ungewissheiten im Zusammenhang mit der Physik der Eisschildmodellierung. Zu diesen Unsicherheiten gehören zwei Prozesse, die zu einem unkontrollierten Eisrückzug führen könnten: die Marine Ice Sheet Instability (MISI), die zu einem schnellen Rückzug der Grundlinie auf rückläufigem Grundgestein führt, und die Marine Ice Cliff Instability (MICI), bei der hohe Eisklippen instabil werden und abkalben, wodurch noch höhere Eisklippen freigelegt werden. In meiner Dissertation untersuchte ich beide marinen Instabilitäten (MISI und MICI) mit Hilfe des Parallel Ice Sheet Model (PISM), wobei der Schwerpunkt auf MICI lag. KW - Antarctica KW - ice sheet modelling KW - iceberg calving KW - Antarktis KW - Eisschildmodellierung KW - Eisbergkalbung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586333 ER - TY - THES A1 - De Andrade Queiroz, Anna Barbara T1 - The Milky Way disks, bulge, and bar sub-populations T1 - Die Scheiben, der Bulge und der Balken der Milchstraße Subpopulationen BT - a chemo-dynamical view of our Galaxy in the APOGEE + Gaia era BT - ein chemodynamischer Blick auf unsere Galaxie in der APOGEE + Gaia Ära N2 - In recent decades, astronomy has seen a boom in large-scale stellar surveys of the Galaxy. The detailed information obtained about millions of individual stars in the Milky Way is bringing us a step closer to answering one of the most outstanding questions in astrophysics: how do galaxies form and evolve? The Milky Way is the only galaxy where we can dissect many stars into their high-dimensional chemical composition and complete phase space, which analogously as fossil records can unveil the past history of the genesis of the Galaxy. The processes that lead to large structure formation, such as the Milky Way, are critical for constraining cosmological models; we call this line of study Galactic archaeology or near-field cosmology. At the core of this work, we present a collection of efforts to chemically and dynamically characterise the disks and bulge of our Galaxy. The results we present in this thesis have only been possible thanks to the advent of the Gaia astrometric satellite, which has revolutionised the field of Galactic archaeology by precisely measuring the positions, parallax distances and motions of more than a billion stars. Another, though not less important, breakthrough is the APOGEE survey, which has observed spectra in the near-infrared peering into the dusty regions of the Galaxy, allowing us to determine detailed chemical abundance patterns in hundreds of thousands of stars. To accurately depict the Milky Way structure, we use and develop the Bayesian isochrone fitting tool/code called StarHorse; this software can predict stellar distances, extinctions and ages by combining astrometry, photometry and spectroscopy based on stellar evolutionary models. The StarHorse code is pivotal to calculating distances where Gaia parallaxes alone cannot allow accurate estimates. We show that by combining Gaia, APOGEE, photometric surveys and using StarHorse, we can produce a chemical cartography of the Milky way disks from their outermost to innermost parts. Such a map is unprecedented in the inner Galaxy. It reveals a continuity of the bimodal chemical pattern previously detected in the solar neighbourhood, indicating two populations with distinct formation histories. Furthermore, the data reveals a chemical gradient within the thin disk where the content of 𝛼-process elements and metals is higher towards the centre. Focusing on a sample in the inner MW we confirm the extension of the chemical duality to the innermost regions of the Galaxy. We find stars with bar shape orbits to show both high- and low-𝛼 abundances, suggesting the bar formed by secular evolution trapping stars that already existed. By analysing the chemical orbital space of the inner Galactic regions, we disentangle the multiple populations that inhabit this complex region. We reveal the presence of the thin disk, thick disk, bar, and a counter-rotating population, which resembles the outcome of a perturbed proto-Galactic disk. Our study also finds that the inner Galaxy holds a high quantity of super metal-rich stars up to three times solar suggesting it is a possible repository of old super-metal-rich stars found in the solar neighbourhood. We also enter into the complicated task of deriving individual stellar ages. With StarHorse, we calculate the ages of main-sequence turn-off and sub-giant stars for several public spectroscopic surveys. We validate our results by investigating linear relations between chemical abundances and time since the 𝛼 and neutron capture elements are sensitive to age as a reflection of the different enrichment timescales of these elements. For further study of the disks in the solar neighbourhood, we use an unsupervised machine learning algorithm to delineate a multidimensional separation of chrono-chemical stellar groups revealing the chemical thick disk, the thin disk, and young 𝛼-rich stars. The thick disk is shown to have a small age dispersion indicating its fast formation contrary to the thin disk that spans a wide range of ages. With groundbreaking data, this thesis encloses a detailed chemo-dynamical view of the disk and bulge of our Galaxy. Our findings on the Milky Way can be linked to the evolution of high redshift disk galaxies, helping to solve the conundrum of galaxy formation. N2 - In den letzten Jahrzehnten hat die Astronomie mit großen galaktischen Durchmusterungen einen Boom erlebt. Die dadurch gewonnenen detaillierten Informationen über Millionen von Einzelsternen in der Milchstraße bringen uns der Beantwortung einer der wichtigsten Fragen der Astrophysik einen Schritt näher: Wie entstehen und entwickeln sich Galaxien? Die Milchstraße ist die einzige Galaxie, in der wir viele Sterne in ihre hochdimensionale chemische Zusammensetzung und ihren vollständigen Phasenraum zerlegen können, was analog zu fossilen Aufzeichnungen die Entstehungsgeschichte der Galaxie enthüllen kann. Für kosmologische Modelle ist es von entscheidender Bedeutung, die Prozesse zu verstehen, die zur Bildung großer Strukturen wie der Milchstraße führen; wir nennen diese Studienrichtung Galaktische Archäologie oder Nahfeldkosmologie. Im Mittelpunkt dieser Arbeit stehen die Bemühungen, die Scheiben und den Bulge unserer Galaxie chemisch und dynamisch zu charakterisieren. Die Ergebnisse, die wir in dieser Arbeit vorstellen, waren nur dank des starts des astrometrischen Satelliten Gaia möglich, der das Gebiet der galaktischen Archäologie durch die präzise Messung der Positionen, Parallaxenwinkel und Eigenbewegungen von mehr als einer Milliarde Sterne revolutioniert hat. Ein weiterer, aber nicht minder wichtiger Durchbruch ist die APOGEE-Durchmusterung, die Spektren im nahen Infrarot beobachtet hat, was es uns erlaubt, durch die staubigen Regionen der Milchstraße hindurchzublicken und die chemischen Fingerabdrücke von Hunderttausenden von Sternen zu bestimmen. Um die Struktur der Milchstraße genau darzustellen, verwenden und entwickeln wir das Isochrone-fitting-Tool StarHorse; diese Software kann Sternentfernungen, Aussterbezeiten und Alter vorhersagen, indem sie Astrometrie, Photometrie und Spektroskopie auf der Grundlage von Modellen der Sternentwicklung kombiniert. Der Code StarHorse ist von zentraler Bedeutung für die Berechnung von Entfernungen, bei denen Gaia -Parallaxen allein keine Bestimmung ermöglichen. Wir zeigen, dass wir durch die Kombination von Gaia, APOGEE und StarHorse eine chemische Kartographie der Milchstraßenscheiben von ihrem äußersten bis zum innersten Teil erstellen können. Eine solche Karte ist in der inneren Galaxis beispiellos und zeigt ein bimodales chemisches Muster, das auf zwei Populationen mit unterschiedlichen Entstehungsgeschichten hinweist. Darüber hinaus bestätigen die Daten einen chemischen Gradienten innerhalb der dünnen Scheibe, bei dem der Gehalt an Elementen und Metallen aus 𝛼-Prozessen zum Zentrum hin zunimmt ist. Eine Überdichte in der Anzahl der Sterne bestätigt zudem die Signatur eines Balkens in der inneren Galaxie. Modelle der Galaxienentstehung sagen gewöhnlich deren Beginn im galaktischen Zentrum voraus. Wir konzentrieren uns auf eine Stichprobe in der inneren Galaxie und erwarten, dass wir primordiale stellare Populationen finden. Wir bestätigen die chemische Bimodalität der inneren Galaxie und dass der galaktische Balken sowohl aus Sternen mit hohem als auch mit niedrigem 𝛼 besteht, was darauf hindeutet, dass sich der Balken durch säkulare Evolution gebildet hat, bei der bereits existierende Sterne eingefangen wurden. Durch die Analyse des chemischen Orbitalraums der inneren galaktischen Regionen können wir die verschiedenen Populationen, die diese komplexe Region bewohnen, unterscheiden. Wir zeigen das Vorhandensein einer dünnen Scheibe, einer dicken Scheibe, eines Balkens und einer gegenläufig rotierenden Population, die dem Ergebnis einer gestörten proto-galaktischen Scheibe ähnelt. Unsere Studie zeigt auch, dass die innere Galaxie eine große Menge an supermetallreichen Sternen enthält, die bis zum Dreifachen der solaren Metallizität reichen. Möglicherweise handelt es sich bei der Gruppe alter supermetallreicher Sterne, die in der Sonnenumgebung gefunden wurden um Kandidaten für Migranten aus den innersten Regionen. Wir befassen uns auch mit der komplizierten Aufgabe der Bestimmung individueller Sternalter. Mit StarHorse berechnen wir das Alter von Hauptreihenabzweig- und Unterriesensternen für mehrere öffentliche spektroskopische Durchmusterungen. Wir validieren unsere Ergebnisse, indem wir lineare Abhängigkeiten zwischen den chemischen Häufigkeiten und der Zeit untersuchen, da die 𝛼- und Neutroneneinfang-Elemente empfindlich auf das Alter reagieren, was auf die unterschiedlichen Zeitskalen der Anreicherung dieser Elemente zurückzuführen ist. Zur weiteren Untersuchung der Scheiben in der Sonnenumgebung verwenden wir einen nicht überwachten Algorithmus für maschinelles Lernen, um eine mehrdimensionale Trennung der chrono-chemischen Sterngruppen vorzunehmen. Dies macht die chemisch dicke Scheibe, die dünne Scheibe und junge 𝛼 Sterne erkennbar. Es zeigt sich, dass die dicke Scheibe eine geringe Altersstreuung aufweist, was auf ihre schnelle Entstehung hindeutet, während die dünne Scheibe eine große Altersspanne abdeckt. Mit bahnbrechenden Daten liefert diese Arbeit ein detailliertes chemodynamisches Bild der Scheibe und des Bulge der Galaxis. Unsere Erkenntnisse über die Milchstraße können mit der Entwicklung von Scheibengalaxien mit hoher Rotverschiebung in Verbindung gebracht werden und so zur Lösung des Rätsels der Galaxienbildung beitragen. KW - stars: distances KW - fundamental parameters KW - statistics KW - galaxy: general KW - disc KW - bulge KW - stellar content KW - Bulge KW - Scheibe KW - fundamentale Parameter KW - Galaxie: allgemein KW - Sterne: Entfernungen KW - Statistik KW - stellarer Inhalt Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590615 ER - TY - THES A1 - Haase, Nadin T1 - The nascent peptide chain in the ribosomal exit tunnel Y1 - 2019 ER - TY - THES A1 - Sposini, Vittoria T1 - The random diffusivity approach for diffusion in heterogeneous systems N2 - The two hallmark features of Brownian motion are the linear growth < x2(t)> = 2Ddt of the mean squared displacement (MSD) with diffusion coefficient D in d spatial dimensions, and the Gaussian distribution of displacements. With the increasing complexity of the studied systems deviations from these two central properties have been unveiled over the years. Recently, a large variety of systems have been reported in which the MSD exhibits the linear growth in time of Brownian (Fickian) transport, however, the distribution of displacements is pronouncedly non-Gaussian (Brownian yet non-Gaussian, BNG). A similar behaviour is also observed for viscoelastic-type motion where an anomalous trend of the MSD, i.e., ~ ta, is combined with a priori unexpected non-Gaussian distributions (anomalous yet non-Gaussian, ANG). This kind of behaviour observed in BNG and ANG diffusions has been related to the presence of heterogeneities in the systems and a common approach has been established to address it, that is, the random diffusivity approach. This dissertation explores extensively the field of random diffusivity models. Starting from a chronological description of all the main approaches used as an attempt of describing BNG and ANG diffusion, different mathematical methodologies are defined for the resolution and study of these models. The processes that are reported in this work can be classified in three subcategories, i) randomly-scaled Gaussian processes, ii) superstatistical models and iii) diffusing diffusivity models, all belonging to the more general class of random diffusivity models. Eventually, the study focuses more on BNG diffusion, which is by now well-established and relatively well-understood. Nevertheless, many examples are discussed for the description of ANG diffusion, in order to highlight the possible scenarios which are known so far for the study of this class of processes. The second part of the dissertation deals with the statistical analysis of random diffusivity processes. A general description based on the concept of moment-generating function is initially provided to obtain standard statistical properties of the models. Then, the discussion moves to the study of the power spectral analysis and the first passage statistics for some particular random diffusivity models. A comparison between the results coming from the random diffusivity approach and the ones for standard Brownian motion is discussed. In this way, a deeper physical understanding of the systems described by random diffusivity models is also outlined. To conclude, a discussion based on the possible origins of the heterogeneity is sketched, with the main goal of inferring which kind of systems can actually be described by the random diffusivity approach. N2 - Die zwei grundlegenden Eigenschaften der Brownschen Molekularbewegung sind das lineare Wachstum < x2(t)> = 2Ddt der mittleren quadratischen Verschiebung (mean squared displacement, MSD) mit dem Diffusionskoeffizienten D in Dimension d und die Gauß Verteilung der räumlichen Verschiebung. Durch die zunehmende Komplexität der untersuchten Systeme wurden in den letzten Jahren Abweichungen von diesen zwei grundlegenden Eigenschaften gefunden. Hierbei, wurde über eine große Anzahl von Systemen berichtet, in welchen die MSD das lineare Wachstum der Brownschen Bewegung (Ficksches Gesetzt) zeigt, jedoch die Verteilung der Verschiebung nicht einer Gaußverteilung folgt (Brownian yet non-Gaussian, BNG). Auch in viskoelastischen Systemen Bewegung wurde ein analoges Verhalten beobachtet. Hier ist ein anomales Verhalten des MSD, ~ ta, in Verbindung mit einer a priori unerwarteten nicht gaußchen Verteilung (anomalous yet non-Gaussian, ANG). Dieses Verhalten, welches sowohl in BNG- als auch in ANG-Diffusion beobachtet wird, ist auf eine Heterogenität in den Systemen zurückzuführen. Um diese Systeme zu beschreiben, wurde ein einheitlicher Ansatz, basierend auf den Konzept der zufälligen Diffusivität, entwickelt. Die vorliegende Dissertation widmet sich ausführlich Modellen mit zufälligen Diffusivität. Ausgehend von einem chronologischen Überblick der grundlegenden Ansätze der Beschreibung der BNG- und ANG-Diffusion werden mathematische Methoden entwickelt, um die verschiedenen Modelle zu untersuchen. Die in dieser Arbeit diskutierten Prozesse können in drei Kategorien unterteil werden: i) randomly-scaled Gaussian processes, ii) superstatistical models und iii) diffusing diffusivity models, welche alle zu den allgemeinen Modellen mit zufälligen Diffusivität gehören. Der Hauptteil dieser Arbeit ist die Untersuchung auf die BNG Diffusion, welche inzwischen relativ gut verstanden ist. Dennoch werden auch viele Beispiele für die Beschreibung von ANG-Diffusion diskutiert, um die Möglichkeiten der Analyse solcher Prozesse aufzuzeigen. Der zweite Teil der Dissertation widmet sich der statistischen Analyse von Modellen mit zufälligen Diffusivität. Eine allgemeine Beschreibung basierend auf dem Konzept der momenterzeugenden Funktion wurde zuerst herangezogen, um grundsätzliche statistische Eigenschaften der Modelle zu erhalten. Anschließend konzentriert sich die Diskussion auf die Analyse der spektralen Leistungsdichte und der first passage Statistik für einige spezielle Modelle mit zufälligen Diffusivität. Diese Ergebnisse werden mit jenen der normalen Brownschen Molekularbewegung verglichen. Dadurch wird ein tiefergehendes physikalisches Verständnis über die Systeme erlangt, welche durch ein Modell mit zufälligen Diffusivität beschrieben werden. Abschließend, zeigt eine Diskussion mögliche Ursachen für die Heterogenität auf, mit dem Ziel darzustellen, welche Arten von Systemen durch den Zufalls-Diffusivitäts-Ansatz beschrieben werden können. N2 - Las dos características distintivas del movimiento Browniano son el crecimiento lineal < x2(t)> = 2Ddt del desplazamiento cuadrático medio (mean squared displacement}, MSD) con el coeficiente de difusión D en dimensiones espaciales d, y la distribución Gaussiana de los desplazamientos. Con los continuos avances en tecnologías experimentales y potencia de cálculo, se logra estudiar con mayor detalle sistemas cada vez más complejos y algunos sistemas revelan desviaciones de estas dos propiedades centrales. En los últimos años se ha observado una gran variedad de sistemas en los que el MSD presenta un crecimiento lineal en el tiempo (típico del transporte Browniano), no obstante, la distribución de los desplazamientos es pronunciadamente no Gaussiana (Brownian yet non-Gaussian diffusion}, BNG). Un comportamiento similar se observa asimismo en el caso del movimiento de tipo viscoelástico, en el que se combina una tendencia anómala del MSD, es decir, ~ ta, con a, con distribuciones inesperadamente no Gaussianas (Anomalous yet non-Gaussian diffusion, ANG). Este tipo de comportamiento observado en las difusiones BNG y ANG se ha relacionado con la presencia de heterogeneidades en los sistemas y se ha establecido un enfoque común para abordarlo: el enfoque de difusividad aleatoria. En la primera parte de esta disertación se explora extensamente el área de los modelos de difusividad aleatoria. A través de una descripción cronológica de los principales enfoques utilizados para caracterizar las difusiones BNG y ANG, se definen diferentes metodologías matemáticas para la resolución y el estudio de estos modelos. Los procesos expuestos en este trabajo, pertenecientes a la clase más general de modelos de difusividad aleatoria, pueden clasificarse en tres subcategorías: i) randomly-scaled Gaussian processes, ii) superstatistical models y iii) diffusing diffusivity models. Fundamentalmente el enfoque de este trabajo se centra en la difusión BNG, bien establecida y ampliamente estudiada en los últimos años. No obstante, múltiples ejemplos son examinados para la descripción de la difusión ANG, a fin de remarcar los diferentes modelos de estudio disponibles hasta el momento. En la segunda parte de la disertación se desarolla el análisis estadístico de los procesos de difusividad aleatoria. Inicialmente se expone una descripción general basada en el concepto de la función generadora de momentos para obtener las propiedades estadísticas estándar de los modelos. A continuación, la discusión aborda el estudio de la densidad espectral de potencia y la estadística del tiempo de primer paso para algunos modelos de difusividad aleatoria. Adicionalmente, los resultados del método de difusividad aleatoria se comparan junto a los de movimiento browniano estándar. Como resultado, se obtiene una mayor comprensión física de los sistemas descritos por los modelos de difusividad aleatoria. Para concluir, se presenta una discusión acerca de los posibles orígenes de la heterogeneidad, con el objetivo principal de inferir qué tipo de sistemas pueden describirse apropiadamente según el enfoque de la difusividad aleatoria. KW - diffusion KW - non-gaussianity KW - random diffusivity KW - power spectral analysis KW - first passage KW - Diffusion KW - zufälligen Diffusivität KW - spektrale Leistungsdichte KW - first passage KW - Heterogenität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487808 ER - TY - THES A1 - Dominis, Dijana T1 - The role of binary stars in searches for extrasolar planets by microlensing and astrometry T1 - Die Rolle der Doppelsterne bei der Suche nach extrasolaren Planeten durch Mikrogravitationslinseneffekte und Astrometrie N2 - When Galactic microlensing events of stars are observed, one usually measures a symmetric light curve corresponding to a single lens, or an asymmetric light curve, often with caustic crossings, in the case of a binary lens system. In principle, the fraction of binary stars at a certain separation range can be estimated based on the number of measured microlensing events. However, a binary system may produce a light curve which can be fitted well as a single lens light curve, in particullary if the data sampling is poor and the errorbars are large. We investigate what fraction of microlensing events produced by binary stars for different separations may be well fitted by and hence misinterpreted as single lens events for various observational conditions. We find that this fraction strongly depends on the separation of the binary components, reaching its minimum at between 0.6 and 1.0 Einstein radius, where it is still of the order of 5% The Einstein radius is corresponding to few A.U. for typical Galactic microlensing scenarios. The rate for misinterpretation is higher for short microlensing events lasting up to few months and events with smaller maximum amplification. For fixed separation it increases for binaries with more extreme mass ratios. Problem of degeneracy in photometric light curve solution between binary lens and binary source microlensing events was studied on simulated data, and data observed by the PLANET collaboration. The fitting code BISCO using the PIKAIA genetic algorithm optimizing routine was written for optimizing binary-source microlensing light curves observed at different sites, in I, R and V photometric bands. Tests on simulated microlensing light curves show that BISCO is successful in finding the solution to a binary-source event in a very wide parameter space. Flux ratio method is suggested in this work for breaking degeneracy between binary-lens and binary-source photometric light curves. Models show that only a few additional data points in photometric V band, together with a full light curve in I band, will enable breaking the degeneracy. Very good data quality and dense data sampling, combined with accurate binary lens and binary source modeling, yielded the discovery of the lowest-mass planet discovered outside of the Solar System so far, OGLE-2005-BLG-390Lb, having only 5.5 Earth masses. This was the first observed microlensing event in which the degeneracy between a planetary binary-lens and an extreme flux ratio binary-source model has been successfully broken. For events OGLE-2003-BLG-222 and OGLE-2004-BLG-347, the degeneracy was encountered despite of very dense data sampling. From light curve modeling and stellar evolution theory, there was a slight preference to explain OGLE-2003-BLG-222 as a binary source event, and OGLE-2004-BLG-347 as a binary lens event. However, without spectra, this degeneracy cannot be fully broken. No planet was found so far around a white dwarf, though it is believed that Jovian planets should survive the late stages of stellar evolution, and that white dwarfs will retain planetary systems in wide orbits. We want to perform high precision astrometric observations of nearby white dwarfs in wide binary systems with red dwarfs in order to find planets around white dwarfs. We selected a sample of observing targets (WD-RD binary systems, not published yet), which can possibly have planets around the WD component, and modeled synthetic astrometric orbits which can be observed for these targets using existing and future astrometric facilities. Modeling was performed for the astrometric accuracy of 0.01, 0.1, and 1.0 mas, separation between WD and planet of 3 and 5 A.U., binary system separation of 30 A.U., planet masses of 10 Earth masses, 1 and 10 Jupiter masses, WD mass of 0.5M and 1.0 Solar masses, and distances to the system of 10, 20 and 30 pc. It was found that the PRIMA facility at the VLTI will be able to detect planets around white dwarfs once it is operating, by measuring the astrometric wobble of the WD due to a planet companion, down to 1 Jupiter mass. We show for the simulated observations that it is possible to model the orbits and find the parameters describing the potential planetary systems. N2 - Bei von Sternen verursachten Mikrolinsen-Ereignissen beobachtet man meist symmetrische Lichtkurven einer einzelnen Linse oder asymmetrische Lichtkurven (oftmals mit Kaustik-Crossing), die durch Doppel-Linsen hervorgerufen werden. Im Prinzip kann aus der Zahl der gemessenen unsymmetrischen Ereignisse der Anteil der Doppelstern-Systeme in Abhängigkeit vom Winkelabstand abgeschätzt werden. Allerdings kann auch ein Doppelsystem Lichtkurven erzeugen, die gut mit einer Einzellinsen-Lichtkurve gefittet werden können. Die gilt insbesondere bei lückenhafter Messung oder grossen Messfehlern. In dieser Arbeit wird für verschiedene Beobachtungsbedingungen untersucht, wie häufig Lichtkurven, die von Doppellinsen mit unterschiedlichen Abständen erzeugt werden, gut mit Einzellinsen-Lichtkurven gefittet werden können und damit fehlinterpretiert werden. Es wurde herausgefunden, dass der Anteil fehlinterpretierter Lichtkurven stark von der Separation der Komponenten abhängig ist: das Minimum liegt zwischen 2 A.E. and 5 A.E. , wobei der Anteil immer noch 5% beträgt. Die Rate der Fehlinterpretationen ist höher für kurze Mikrolinsen-Ereignisse (bis zu wenigen Monaten) und für Ereignisse mit geringer Maximalverstärkung. Bei gleicher Separation steigt die Rate mit extremeren Massenverhältnissen an. Das Problem der Degenerierung zwischen den Lichtkurven für doppelte Linsensysteme und doppelte Hintergrund-Quellen wurde anhand simulierter Daten und mit Beobachtungsdaten des PLANET Projekts untersucht. Der Fit-Code BISCO, der den genetischen Algorithmus PIKAIA nutzt, wurde geschrieben, um Doppel-Linsen Lichtkurven, die von verschiedenen Observatorien in den photometrischen Bändern I, B, und V gemessen wurden, zu modellieren. Tests mit simulierten Daten haben gezeigt, dass BISCO in der Lage ist, in einem sehr weiten Parameterbereich die korrekte Lösung für die Lichtkurve einer Doppel-Linsen zu finden. In dieser Arbeit wird die Flussverhältnis-Methode empfohlen, um die Degenerierung zwischen Doppel-Linse und Doppel-Quelle aufzulösen. Modellierungen zeigen, dass nur wenige zusätzliche Datenpunkte im V-Band genügen, um zusammen mit einer vollständigen Lichtkurve im I-Band die Degenerierung aufzubrechen. Mit sehr guter Datenqualität und zeitlich dichten Messungen, kombiniert mit genauer Modellierung von Doppel-Linsen und Doppel-Quellen, gelang die Entdeckung des bisher masseärmsten Planeten ausserhalb des Sonnensystems: OGLE-2005-BLG-390Lb, mit nur 5.5 Erdmassen. Dies war das erste Mikrolinsen-Ereignis, bei dem die Degenerierung zwischen plantarer Doppel-Linse und einer Doppel-Quelle mit extremem Flussverhältnis erfolgreich aufgelöst wurde. Für die Ereignisse OGLE-2003-BLG-222 und OGLE-2004-BLG-347 besteht die Degenerierung trotz sehr dichter Messungen. Aufgrund der Lichtkurvenmodellierung und Argumenten aus der Theorie der Sternentwicklung ist die Erklärung von OGLE-2003-BLG-222 als Doppel-Quelle und OGLE-2004-BLG-347 als Doppel-Linsen Ereignis vorzuziehen. Allerdings kann die Degenerierung ohne spektrale Daten nicht vollständig aufgelöst werden. Bisher wurde kein Planet als Begleiter eines Weissen Zwerges gefunden, obwohl es möglich sein sollte, dass jupiterähnliche Planeten die Spätstadien der Sternentwicklung überleben und dass sich Weisse Zwerge Planetensysteme mit weiten Umlaufbahnen erhalten können. Wir planen hochgenaue astrometrische Beobachtungen von nahen Weissen Zwergen in weiten Doppelsystemen, um Planeten um Weisse Zwerge zu finden. Wir haben eine Stichprobe von Systemen zusammengestellt, in denen möglicherweise Planeten gefunden werden könnten. Wir haben synthetische astrometrische Orbits modelliert, die für diese Systeme mit existierenden und zukünftigen astrometrischen Instrumenten beobachtbar sind. Die Modellierungen wurden für astrometrische Genauigkeiten von 0.01, 0.1, 1.0 Mikrobogensekunden gerechnet. Als Abstände zwischen weissem Zwerg und Planet wurden 3, 5 und 10 Astronomische Einheiten angenommen, für den Abstand zwischen den Doppelsternkomponenten 30 A.E. Als Planetenmassen wurden 10 Erdmassen, bzw. 1 und 10 Jupitermassen gewählt, als Masse für den weissen Zwerg 0.5 und 1.0 Sonnenmassen. Die Distanzen zum System betragen 10 und 20 parsec. Als Resultat dieser Untersuchung wurde herausgefunden, dass das PRIMA Instrument am VLTI in der Lage sein wird, die astrometrischen Oszillationen, die ein Planet ab einer Jupitermasse verursacht, zu detektieren. Wir zeigen, dass es möglich sein wird, die Umlaufbahnen solcher Planeten zu modellieren und damit die Parameter dieser Planetensysteme zu bestimmen. KW - Mikrogravitationslinseneffekt KW - Astrometrie KW - Extrasolare Planeten KW - Microlensing KW - astrometry KW - extrasolar planets Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10814 ER - TY - THES A1 - Hainich, Rainer T1 - The Wolf-Rayet stars of the nitrogen sequence in environments of different metallicities Y1 - 2015 ER - TY - THES A1 - Deneke, Carlus T1 - Theory of mRNA degradation T1 - Theoretische Beschreibung des Abbaus von mRNA N2 - One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model. N2 - Ein zentrales Ziel der modernen Biologie ist es, ein umfassendes Verständnis der Genexpression zu erlangen. Die fundamentalen Prozesse sind im zentralen Dogma der Genexpression zusammengefasst: Die genetische Information wird von DNA in Boten-RNAs (mRNA) transkribiert und im Prozess der Translation von mRNA in Proteine übersetzt. Zum Erhalt ihrer Funktionalität und der Möglichkeit von Wachstum und Fortpflanzung muss in jeder Zelle und für jedes Gen die optimale Proteinkonzentration akkurat eingestellt werden. Hierzu hat jeder Organismus detaillierte Regulationsmechanismen entwickelt. Regulation kann auf allen Stufen der Genexpression erfolgen, insbesondere liefert der Abbau der mRNA-Moleküle einen effizienten und direkten Kontrollmechanismus. Daher sind in allen Lebewesen spezifische Mechanismen - die Degradationsmechanismen - entstanden, welche aktiv den Abbau befördern. Um ein besseres Verständnis von den zugrunde liegenden Prozessen zu erlangen, untersuchen Biochemiker die Degradationsmechanismen im Detail. Gleichzeitig erlauben moderne molekularbiologische Verfahren die simultane Bestimmung der Zerfallskurven von mRNA für alle untersuchten Gene einer Zelle. Aus theoretischer Perspektive wird der Zerfall der mRNA-Menge als exponentieller Zerfall mit konstanter Rate betrachtet. Diese Betrachtung dient der Interpretation der zugrunde liegenden Experimente, berücksichtigt aber nicht die fundierten Kenntnisse über die molekularen Mechanismen der Degradation. Zudem zeigen viele experimentelle Studien ein deutliches Abweichen von einem exponentiellen Zerfall. In der vorliegenden Doktorarbeit wird daher eine erweiterte theoretische Beschreibung für die Expression von mRNA-Molekülen eingeführt. Insbesondere lag der Schwerpunkt auf einer verbesserten Beschreibung des Prozesses der Degradation. Die Genexpression kann als ein stochastischer Prozess aufgefasst werden, in dem alle Einzelprozesse auf zufällig ablaufenden chemischen Reaktionen basieren. Die Beschreibung erfolgt daher im Rahmen von Methoden der stochastischen Modellierung. Die fundamentale Annahme besteht darin, dass jedes mRNA-Molekül eine zufällige Lebenszeit hat und diese Lebenszeit für jedes Gen durch eine statistische Lebenszeitverteilung gegeben ist. Ziel ist es nun, spezifische Lebenszeitverteilungen basierend auf den molekularen Degradationsmechanismen zu finden. In dieser Arbeit wurden theoretische Modelle für die Degradation in zwei verschiedenen Organismen entwickelt. Zum einen ist bekannt, dass in eukaryotischen Zellen wie dem Hefepilz S. cerevisiae mehrere Mechanismen zum Abbau der mRNA-Moleküle in Konkurrenz zueinander stehen. Zudem ist der Abbau durch mehrere geschwindigkeitsbestimmende biochemische Schritte charakterisiert. In der vorliegenden Arbeit wurden diese Feststellungen durch ein theoretisches Modell beschrieben. Eine Markow-Kette stellte sich als sehr erfolgreich heraus, um diese Komplexität in eine mathematisch-fassbare Form abzubilden. Zum anderen wird in Kolibakterien die Degradation überwiegend durch einen initialen Schnitt in der kodierenden Sequenz der mRNA eingeleitet. Des Weiteren gibt es komplexe Wechselwirkungen mit dem Prozess der Translation. Die dafür verantwortlichen Enzyme - die Ribosomen - schützen Teile der mRNA und vermindern dadurch deren Zerfall. In der vorliegenden Arbeit wurden diese Zusammenhänge im Rahmen eines weiteren spezifischen, theoretischen Modells untersucht. Beide Mechanismen konnten an experimentellen Daten verifiziert werden. Unter anderem konnten dadurch die Interpretation der Zerfallsexperimente deutlich verbessert und fundamentale Eigenschaften der mRNA-Moleküle bestimmt werden. Ein Vorteil der statistischen Herangehensweise in dieser Arbeit liegt darin, dass theoretische Konzepte für das molekulare Altern der mRNAs entwickelt werden konnten. Mit Hilfe dieser neuentwickelten Methode konnte gezeigt werden, dass sich die Komplexität der Abbaumechanismen in einem Alterungsprozess manifestiert. Dieser kann mit der Lebenserwartung von einzelnen mRNA-Molekülen beschrieben werden. In dieser Doktorarbeit wurde eine verallgemeinerte theoretische Beschreibung des Abbaus von mRNAMolek ülen entwickelt. Die zentrale Idee basiert auf der Verknüpfung von experimentellen Zerfallsmessungen mit den biochemischen Mechanismen der Degradation. In zukünftigen experimentellen Untersuchungen können die entwickelten Verfahren angewandt werden, um eine genauere Interpretation der Befunde zu ermöglichen. Insbesondere zeigt die Arbeit auf, wie verschiedene Hypothesen über den Degradationsmechanismus anhand eines geeigneten mathematischen Modells durch quantitative Experimente verifiziert oder falsifiziert werden können. KW - Abbau von Boten-RNS KW - Stochastische Genexpression KW - Posttranskriptionale Genregulation KW - Nichtexponentieller Zerfall von mRNA KW - Molekulares Altern KW - Degradation of messenger RNA KW - Stochastic gene expression KW - Post-transcriptional gene regulation KW - Non-exponential mRNA decay KW - Molecular Aging Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61998 ER - TY - THES A1 - Daschewski, Maxim T1 - Thermophony in real gases T1 - Das Thermophon BT - theory and applications BT - Theorie und Anwendung N2 - A thermophone is an electrical device for sound generation. The advantages of thermophones over conventional sound transducers such as electromagnetic, electrostatic or piezoelectric transducers are their operational principle which does not require any moving parts, their resonance-free behavior, their simple construction and their low production costs. In this PhD thesis, a novel theoretical model of thermophonic sound generation in real gases has been developed. The model is experimentally validated in a frequency range from 2 kHz to 1 MHz by testing more then fifty thermophones of different materials, including Carbon nano-wires, Titanium, Indium-Tin-Oxide, different sizes and shapes for sound generation in gases such as air, argon, helium, oxygen, nitrogen and sulfur hexafluoride. Unlike previous approaches, the presented model can be applied to different kinds of thermophones and various gases, taking into account the thermodynamic properties of thermophone materials and of adjacent gases, degrees of freedom and the volume occupied by the gas atoms and molecules, as well as sound attenuation effects, the shape and size of the thermophone surface and the reduction of the generated acoustic power due to photonic emission. As a result, the model features better prediction accuracy than the existing models by a factor up to 100. Moreover, the new model explains previous experimental findings on thermophones which can not be explained with the existing models. The acoustic properties of the thermophones have been tested in several gases using unique, highly precise experimental setups comprising a Laser-Doppler-Vibrometer combined with a thin polyethylene film which acts as a broadband and resonance-free sound-pressure detector. Several outstanding properties of the thermophones have been demonstrated for the first time, including the ability to generate arbitrarily shaped acoustic signals, a greater acoustic efficiency compared to conventional piezoelectric and electrostatic airborne ultrasound transducers, and applicability as powerful and tunable sound sources with a bandwidth up to the megahertz range and beyond. Additionally, new applications of thermophones such as the study of physical properties of gases, the thermo-acoustic gas spectroscopy, broad-band characterization of transfer functions of sound and ultrasound detection systems, and applications in non-destructive materials testing are discussed and experimentally demonstrated. N2 - Ein Thermophon ist ein elektrisches Gerät zur Schallerzeugung. Aufgrund der fehlenden beweglichen Teile verfügen Thermophone über mehrere Vorteile gegenüber den herkömmlichen elektromagnetischen, elektrostatischen oder piezoelektrischen Schallwandlern. Besonders bemerkenswert sind das resonanz- und nachschwingungsfreie Verhalten, die einfache Konstruktion und die niedrigen Herstellungskosten. Im Rahmen dieser Doktorarbeit wurde ein neuartiges theoretisches Modell der thermophonischen Schallerzeugung in Gasen entwickelt und experimentell verifiziert. Zur Validierung des Modells wurden mehr als fünfzig Thermophone unterschiedlicher Größen, Formen und Materialien, darunter Kohlenstoff-Nanodrähte, Titan und Indium-Zinnoxid zur Erzeugung von Schall in Gasen wie Luft, Argon, Helium, Sauerstoff, Stickstoff und Schwefelhexafluorid in einem Frequenzbereich von 2 kHz bis 1 MHz eingesetzt. Das präsentierte Modell unterscheidet sich von den bisherigen Ansätzen durch seine hohe Flexibilität, wobei die thermodynamischen Eigenschaften des Thermophons und des umgebenden Gases, die Freiheitsgrade und das Eigenvolumen der Gasatome und Moleküle, die Schallschwächungseffekte, die Form und Größe des Thermophons, sowie die Verringerung der erzeugten akustischen Leistung aufgrund der Photonenemission berücksichtigt werden. Infolgedessen zeigt das entwickelte Modell eine um bis zu einem Faktor 100 höhere Vorhersagegenauigkeit als die bisher veröffentlichten Modelle. Das präsentierte Modell liefert darüber hinaus eine Erklärung zu den Ergebnissen aus den Vorarbeiten, die von den bisherigen Modellen nicht abschließend geklärt werden konnten. Die akustischen Eigenschaften der Thermophone wurden unter Verwendung von einzigartigen hochpräzisen Versuchsaufbauten getestet. Dafür wurde ein Laser-Doppler-Vibrometer in Kombination mit einer dünnen Polyethylenfolie verwendet, welche als breitbrandiger und resonanzfreier Schalldruckdetektor fungiert. Somit konnten mehrere herausragende akustische Eigenschaften der Thermophone zum ersten Mal demonstriert werden, einschließlich der Möglichkeit, beliebig geformte akustische Signale zu erzeugen, eine größere akustische Wirksamkeit im Vergleich zu herkömmlichen Luftultraschallwandlern und die Anwendbarkeit als leistungsfähige beliebig abstimmbare Schallquellen mit einer Bandbreite bis in den Megahertz-Bereich. Zusätzlich werden neue Anwendungen von Thermophonen wie die Untersuchung der physikalischen Eigenschaften von Gasen, die thermoakustische Gasspektroskopie, eine breitbandige Charakterisierung der Übertragungsfunktionen von Schall- und Ultraschallmesssystemen und Anwendungen in der zerstörungsfreien Materialprüfung demonstriert. KW - thermophone KW - thermoacoustics KW - thermoacoustic effect KW - photoacoustic effect KW - Thermophon KW - Thermoakustik KW - thermoakustischer Effekt KW - photoakustischer Effekt Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98866 ER -