TY - THES A1 - Zaks, Michael A. T1 - Fractal Fourier spectra in dynamical systems N2 - Eine klassische Art, die Dynamik nichtlinearer Systeme zu beschreiben, besteht in der Analyse ihrer Fourierspektren. Für periodische und quasiperiodische Prozesse besteht das Fourierspektrum nur aus diskreten Deltafunktionen. Das Spektrum einer chaotischen Bewegung ist hingegen durch das Vorhandensein einer stetigen Komponente gekennzeichnet. In der Arbeit geht es um einen eigenartigen, weder regulären noch vollständig chaotischen Zustand mit sogenanntem singulärstetigen Leistungsspektrum. Unsere Analyse ergab verschiedene Fälle aus weit auseinanderliegenden Gebieten, in denen singulär stetige (fraktale) Spektren auftreten. Die Beispiele betreffen sowohl physikalische Prozesse, die auf iterierte diskrete Abbildungen oder gar symbolische Sequenzen reduzierbar sind, wie auch Prozesse, deren Beschreibung auf den gewöhnlichen oder partiellen Differentialgleichungen basiert. N2 - One of the classical ways to describe the dynamics of nonlinear systems is to analyze theur Fourier spectra. For periodic and quasiperiodic processes the Fourier spectrum consists purely of discrete delta-functions. On the contrary, the spectrum of a chaotic motion is marked by the presence of the continuous component. In this work, we describe the peculiar, neither regular nor completely chaotic state with so called singular-continuous power spectrum. Our investigations concern various cases from most different fields, where one meets the singular continuous (fractal) spectra. The examples include both the physical processes which can be reduced to iterated discrete mappings or even symbolic sequences, and the processes whose description is based on the ordinary or partial differential equations. KW - Nichtlineares dynamisches System / Harmonische Analyse / Fraktal KW - Dynamische Systeme KW - Leistungsspektrum KW - Autokorrelation KW - dynamical systems KW - power spectrum KW - autocorrelation Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000500 ER - TY - THES A1 - Feldmeier, Achim T1 - Hydrodynamics of astrophysical winds driven by scattering in spectral lines N2 - Liniengetriebene Winde werden durch Impulsübertrag von Photonen auf ein Plasma bei Absorption oder Streuung in zahlreichen Spektrallinien beschleunigt. Dieser Prozess ist besonders effizient für ultraviolette Strahlung und Plasmatemperaturen zwischen 10^4 K und 10^5 K. Zu den astronomischen Objekten mit liniengetriebenen Winden gehören Sterne der Spektraltypen O, B und A, Wolf-Rayet-Sterne sowie Akkretionsscheiben verschiedenster Größenordnung, von Scheiben um junge Sterne und in kataklysmischen Veränderlichen bis zu Quasarscheiben. Es ist bislang nicht möglich, das vollständige Windproblem numerisch zu lösen, also die Hydrodynamik, den Strahlungstransport und das statistische Gleichgewicht dieser Strömungen gleichzeitig zu behandeln. Die Betonung liegt in dieser Arbeit auf der Windhydrodynamik, mit starken Vereinfachungen in den beiden anderen Gebieten. Wegen persönlicher Beteiligung betrachte ich drei Themen im Detail. 1. Windinstabilität durch Dopplerde-shadowing des Gases. Die Instabilität bewirkt, dass Windgas in dichte Schalen komprimiert wird, die von starken Stoßfronten begrenzt sind. Schnelle Wolken entstehen im Raum zwischen den Schalen und stoßen mit diesen zusammen. Dies erzeugt Röntgenflashes, die die beobachtete Röntgenstrahlung heißer Sterne erklären können. 2. Wind runway durch radiative Wellen. Der runaway zeigt, warum beobachtete liniengetriebene Winde schnelle, kritische Lösungen anstelle von Brisenlösungen (oder shallow solutions) annehmen. Unter bestimmten Bedingungen stabilisiert der Wind sich auf masseüberladenen Lösungen, mit einem breiten, abbremsenden Bereich und Knicken im Geschwindigkeitsfeld. 3. Magnetische Winde von Akkretionsscheiben um Sterne oder in aktiven Galaxienzentren. Die Linienbeschleunigung wird hier durch die Zentrifugalkraft entlang korotierender poloidaler Magnetfelder und die Lorentzkraft aufgrund von Gradienten im toroidalen Feld unterstützt. Ein Wirbelblatt, das am inneren Scheibenrand beginnt, kann zu stark erhöhten Massenverlustraten führen. N2 - Line driven winds are accelerated by the momentum transfer from photons to a plasma, by absorption and scattering in numerous spectral lines. Line driving is most efficient for ultraviolet radiation, and at plasma temperatures from 10^4 K to 10^5 K. Astronomical objects which show line driven winds include stars of spectral type O, B, and A, Wolf-Rayet stars, and accretion disks over a wide range of scales, from disks in young stellar objects and cataclysmic variables to quasar disks. It is not yet possible to solve the full wind problem numerically, and treat the combined hydrodynamics, radiative transfer, and statistical equilibrium of these flows. The emphasis in the present writing is on wind hydrodynamics, with severe simplifications in the other two areas. I consider three topics in some detail, for reasons of personal involvement. 1. Wind instability, as caused by Doppler de-shadowing of gas parcels. The instability causes the wind gas to be compressed into dense shells enclosed by strong shocks. Fast clouds occur in the space between shells, and collide with the latter. This leads to X-ray flashes which may explain the observed X-ray emission from hot stars. 2. Wind runaway, as caused by a new type of radiative waves. The runaway may explain why observed line driven winds adopt fast, critical solutions instead of shallow (or breeze) solutions. Under certain conditions the wind settles on overloaded solutions, which show a broad deceleration region and kinks in their velocity law. 3. Magnetized winds, as launched from accretion disks around stars or in active galactic nuclei. Line driving is assisted by centrifugal forces along co-rotating poloidal magnetic field lines, and by Lorentz forces due to toroidal field gradients. A vortex sheet starting at the inner disk rim can lead to highly enhanced mass loss rates. KW - Hydrodynamik KW - Strahlungstransport KW - Sternwinde KW - Akkretionsscheiben KW - hydrodynamics KW - radiative transfer KW - stellar winds KW - accretion disks Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000388 ER - TY - THES A1 - Schwarz, Ulrich Sebastian T1 - Forces and elasticity in cell adhesion T1 - - N2 - Das Verhalten adhärenter Zellen hängt stark von den chemischen, topographischen und mechanischen Eigenschaften ihrer Umgebung ab. Experimentelle Untersuchungen der letzten Jahre haben gezeigt, dass adhärente Zellen aktiv die elastischen Eigenschaften ihrer Umgebung erkunden, indem sie an dieser ziehen. Der resultierende Kraftaufbau hängt von den elastischen Eigenschaften der Umgebung ab und wird an den Adhäsionskontakten in entsprechende biochemische Signale umgewandelt, die zelluläre Programme wie Wachstum, Differenzierung, programmierten Zelltod und Zellbewegung mitbestimmen. Im Allgemeinen sind Kräfte wichtige Einflussgrößen in biologischen Systemen. Weitere Beispiele dafür sind Hör- und Tastsinn, Wundheilung sowie die rollende Adhäsion von weißen Blutkörperchen auf den Wänden der Blutgefäße. In der Habilitationsschrift von Ulrich Schwarz werden mehrere theoretische Projekte vorgestellt, die die Rolle von Kräften und Elastizität in der Zelladhäsion untersuchen. (1) Es wurde eine neue Methode entwickelt, um die Kräfte auszurechnen, die Zellen an den Kontaktpunkten auf mikro-strukturierte elastische Substrate ausüben. Das Hauptergebnis ist, dass Zell-Matrix-Kontakte als Mechanosensoren funktionieren, an denen interne Kräfte in Proteinaggregation umgewandelt werden. (2) Eine Ein-Schritt-Master-Gleichung, die die stochastische Dynamik von Adhäsionsclustern als Funktion von Clustergröße, Rückbindungsrate und Kraft beschreibt, wurde sowohl analytisch als auch numerisch gelöst. Zudem wurde dieses Modell auf Zell-Matrix-Kontakte, dynamische Kraftspektroskopie sowie die rollende Adhäsion angewandt. (3) Im Rahmen der linearen Elastizitätstheorie und mit Hilfe des Konzepts der Kraftdipole wurde ein Modell formuliert und gelöst, das die Positionierung und Orientierung von Zellen in weicher Umgebung vorhersagt. Diese Vorhersagen sind in guter Übereinstimmung mit zahlreichen experimentellen Beobachtungen für Fibroblasten auf elastischen Substraten und in Kollagen-Gelen. N2 - The behaviour of an adhering cell is strongly influenced by the chemical, topographical and mechanical properties of the surface it attaches to. During recent years, it has been found experimentally that adhering cells actively sense the elastic properties of their environment by pulling on it through numerous sites of adhesion. The resulting build-up of force at sites of adhesion depends on the elastic properties of the environment and is converted into corresponding biochemical signals, which can trigger cellular programmes like growth, differentiation, apoptosis, and migration. In general, force is an important regulator of biological systems, for example in hearing and touch, in wound healing, and in rolling adhesion of leukocytes on vessel walls. In the habilitation thesis by Ulrich Schwarz, several theoretical projects are presented which address the role of forces and elasticity in cell adhesion. (1) A new method has been developed for calculating cellular forces exerted at sites of focal adhesion on micro-patterned elastic substrates. The main result is that cell-matrix contacts function as mechanosensors, converting internal force into protein aggregation. (2) A one-step master equation for the stochastic dynamics of adhesion clusters as a function of cluster size, rebinding rate and force has been solved both analytically and numerically. Moreover this model has been applied to the regulation of cell-matrix contacts, to dynamic force spectroscopy, and to rolling adhesion. (3) Using linear elasticity theory and the concept of force dipoles, a model has been introduced and solved which predicts the positioning and orientation of mechanically active cells in soft material, in good agreement with experimental observations for fibroblasts on elastic substrates and in collagen gels. T2 - Forces and elasticity in cell adhesion KW - Biophysik KW - Zelladhäsion KW - elastische Substrate KW - Elastizitätstheorie KW - Kraftdipole KW - stochastische Dynamik KW - Master-Gleichungen KW - rollende Adhäsion KW - dyna KW - biophysics KW - cell adhesion KW - elastic substrates KW - elasticity theory KW - force dipoles KW - stochastic dynamics KW - master equations KW - rolling adhesion KW - dynamic forc Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001343 ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Rimmelé, Gaëtan T1 - Structural and metamorphic evolution of the Lycian Nappes and the Menderes Massif (southwest Turkey) : geodynamic implications and correlations with the Aegean domain N2 - West Anatolien, welches die östliche laterale Verlängerung der ägäischen Domäne darstellt, besteht aus mehreren tektono-metamorphen Einheiten, die Hochdruck/Niedrigtemperatur (HP/LT) Gesteine aufweisen. Einige dieser metamorphen Gesteine Zeugen der panafrikanischen oder der kimmerischen Orogenese sind, entstanden andere während die jüngere Alpine Orogenese. Das Menderes Massiv, in der SW Türkei, wird im N von Decken der Izmir-Ankara Suturzone, im E von der Afyon Zone sowie im S von den Lykischen Decken tektonisch überlagert. In den Metasedimenten der Lykischen Decken und dem darunterliegenden Menderes Massiv treten weitverbreitete Vorkommen von Fe-Mg-Carpholith-führenden Gesteinen auf. Diese neue Entdeckung belegt, dass beide Deckenkomplexe während der alpinen Orogenese unter HP/LT Bedingungen überprägt wurden. Die P-T Bedingungen für die HP-Phase liegen bei 10-12 kbar/400°C in den Lykischen Decken und 12-14 kbar/470-500°C im südlichen Menderes Massiv, was eine Versenkung von min. 30 km während der Subduktion und Deckenstapelung dokumentiert. Die Analyse der duktilen Deformation sowie thermobarometrische Berechnungen zeigen, dass die Lykischen Metasedimente unterschiedliche Exhumierungspfade nach der gemeinsamen HP-Phase durchliefen. In Gesteinen, die weiter entfernt vom Kontakt der Lykischen Decken mit dem Menderes Massiv liegen, lässt sich lediglich ein Hochdruck-Abkühlungspfad belegen, der mit einer „top-NNE“ Bewegung an die Akçakaya Scherzone gebunden ist. Diese Scherzone ist ein Intra-Deckenkontakt, der in den frühen Stadien, innerhalb des Stabilitätsfeldes von Fe-Mg-Carpholith, der Exhumierung aktiv war. Die nahe am Kontakt mit dem Menderes Massiv gelegenen Gesteine weisen wärmere Exhumierungspfade auf, die mit einer „top-E“ Scherung assoziiert sind. Diese Deformation erfolgte nach dem S-Transport der Lykischen Decken und somit zeitgleich mit der Reaktivierung des Kontakts der Lykischen Decken/Menderes Massiv als Hauptscherzone (der Gerit Scherzone), die eine späte Exhumierung der HP-Gesteine unter wärmeren Bedingungen erlaubte. Die Hochdruckgesteine des südlichen Menderes Massiv weisen eine einfache isothermale Dekompression bei etwa 450°C während der Exhumierung nach. Die begleitende Deformation während der Hochdruckphase und der Exhumierung ist durch eine starke N-S bis NE-SW–Dehnung charakterisiert. Das Alter der Hochdruckmetamorphose in den Lykischen Decken kann zwischen oberster Kreide (jüngste Sedimente in der Lykischen allochthonen Einheit) und Eozän (Kykladische Blauschiefer) festgelegt werden. Ein mögliches Paläozänes Alter kann somit angenommen werden. Das Alter der Hochdruckmetamorphose in den Deckschichten des Menderes Massiv liegt demnach zwischen mittlerem Paläozän (oberste Metaolistostrome der Menderes „Cover“-Einheit) und dem mittleren Eozän (HP-Metamorphose in der Dilek-Selçuk Region des Kykladenkomplex). Apatit-Spaltspur-Daten von beiden Seiten des Kontakts der Lykischen Decken/Menderes Massiv lassen darauf schließen, daß diese Gesteine im späten Oligozän/frühen Miozän sehr nahe der Paläo-Oberfläche waren. Die hier dargestellten Arbeiten in den Lykischen Decken und im Menderes Massiv lassen auf die Existenz eines ausgedehnten alpinen HP-Metamorphose-Gürtels im SW der Türkei schließen. Die Hochdruckgesteine wurden im Akkretionskomplex einer N-wärtigen Subduktion des Neo-Tethys Ozeans gebildet, der spät-Kretazisch obduziert und dann in die früh-Tertiäre Kontinentalkollision des passiven Randes (Anatolid-Taurid Block) mit der nördlichen Platte (Sakarya Mikrokontinent) miteinbezogen war. Im Eozän bestand der Akkretionskomplex aus drei gestapelten Hochdruckeinheiten. Die Unterste entspricht dem eingeschuppten Kern und Hochdruck-„Cover“ des Menderes Massivs. Die Mittlere besteht aus dem Kykladischen Blauschiefer-Komplex (Dilek-Selçuk Einheit) und die oberste Einheit wird von den Hochdruck Lykischen Decken gebildet. Während die Basiseinheiten der ägäischen und anatolischen Region tektonisch unterschiedliche Prä-mesozoische Geschichten durchliefen, wurden sie wahrscheinlich am Ende des Paläozikums zusammengeführt und durchliefen dann ein gemeinsame mesozoische Geschichte. Dann wurden die Basis und ihre Deckschichten, ebenso wie die Kykladischen Blauschiefer und Lykischen Decken, in ähnlich entstandene akkretionäre Komplexe während des Eozäns und Oligozäns involviert. N2 - Western Anatolia that represents the eastward lateral continuation of the Aegean domain is composed of several tectono-metamorphic units showing occurrences of high-pressure/low-temperature (HP-LT) rocks. While some of these metamorphic rocks are vestiges of the Pan-African or Cimmerian orogenies, others are the result of the more recent Alpine orogenesis. In southwest Turkey, the Menderes Massif occupies an extensive area tectonically overlain by nappe units of the Izmir-Ankara Suture Zone in the north, the Afyon Zone in the east, and the Lycian Nappes in the south. In the present study, investigations in the metasediments of the Lycian Nappes and underlying southern Menderes Massif revealed widespread occurrences of Fe-Mg-carpholite-bearing rocks. This discovery leads to the very first consideration that both nappe complexes recorded HP-LT metamorphic conditions during the Alpine orogenesis. P-T conditions for the HP metamorphic peak are about 10-12 kbar/400°C in the Lycian Nappes, and 12-14 kbar/470-500°C in the southern Menderes Massif, documenting a burial of at least 30 km during subduction and nappe stacking. Ductile deformation analysis in concert with multi-equilibrium thermobarometric calculations reveals that metasediments from the Lycian Nappes recorded distinct exhumation patterns after a common HP metamorphic peak. The rocks located far from the contact separating the Lycian Nappes and the Menderes Massif, where HP parageneses are well preserved, retained a single HP cooling path associated with top-to-the-NNE shearing related to the Akçakaya shear zone. This zone of strain localization is an intra-nappe contact that was active in the early stages of exhumation of HP rocks, within the stability field of Fe-Mg-carpholite. The rocks located close to the contact with the Menderes Massif, where HP parageneses are completely retrogressed into chlorite and mica, recorded warmer exhumation paths associated with top-to-the-E intense shearing. This deformation occurred after the southward emplacement of Lycian Nappes, and is contemporaneous with the reactivation of the ’Lycian Nappes-Menderes Massif′ contact as a major shear zone (the Gerit shear zone) that allowed late exhumation of HP parageneses under warmer conditions. The HP rocks from the southern Menderes Massif recorded a simple isothermal decompression at about 450°C during exhumation, and deformation during HP event and its exhumation is characterized by a severe N-S to NE-SW stretching. The age of the HP metamorphism recorded in the Lycian Nappes is assumed to range between the Latest Cretaceous (age of the youngest sediments in the Lycian allochthonous unit) and the Eocene (age of the Cycladic Blueschists). A probable Palaeocene age is suggested. The age of the HP metamorphism that affected the cover series of the Menderes Massif is constrained between the Middle Palaeocene (age of the uppermost metaolistostrome of the Menderes ’cover′) and the Middle Eocene (age of the HP metamorphism in the Dilek-Selçuk region that belongs to the Cycladic Complex). Apatite fission track data for the rocks on both sides of the ’Lycian Nappes/Menderes Massif’ contact suggest that these rocks were very close to the paleo-Earth surface in the Late Oligocene-Early Miocene time. This study in the Lycian Nappes and in the Menderes Massif establishes the existence of an extensive Alpine HP metamorphic belt in southwest Turkey. HP rocks were involved in the accretionary complex related to northward-verging subduction of the Neo-Tethys Ocean, Late Cretaceous obduction and subsequent Early Tertiary continental collision of the passive margin (Anatolide-Tauride block) beneath the active margin of the northern plate (Sakarya micro-continent). During the Eocene, the accretionary complex was made of three stacked HP units. The lowermost corresponds to the imbricated ’core′ and HP ’cover′ of the Menderes Massif, the intermediate one consists of the Cycladic Blueschist Complex (Dilek-Selçuk unit), and the uppermost unit is made of the HP Lycian Nappes. Whereas the basement units of both Aegean and Anatolian regions underwent a different pre-Mesozoic tectonic history, they were probably juxtaposed by the end of the Paleozoic and underwent a common Mesozoic history. Then, the basements and their cover, as well as the Cycladic Blueschists and the Lycian Nappes were involved in similar evolutional accretionary complexes during the Eocene and Oligocene times. KW - Fe-Mg-carpholite KW - Menderes Massiv KW - Lykischen Decken KW - West Türkei KW - Hochdruck/Niedrigtemperatur Gesteine KW - Fe-Mg-carpholite KW - Menderes Massif KW - Lycian Nappes KW - West Turkey KW - High-pressure/low-temperature rocks Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001094 ER - TY - THES A1 - Uyaver, Sahin T1 - Simulation of annealed polyelectrolytes in poor solvents N2 - Polymere sind lange kettenartige Moleküle. Sie bestehen aus vielen elementaren chemischen Einheiten, den Monomeren, die durch kovalente Bindungen aneinander gekettet sind. Polyelektrolyte sind Polymere, die ionisierbare Monomeren enthalten. Aufgrund ihrer speziellen Eigenschaften sind Polyelektrolyte sowohl in der Molekular- und Zellbiologie von großen Bedeutung als auch in der Chemie großtechnisch relevant. Verglichen mit ungeladenen Polymeren sind Polyelektrolyte theoretisch noch wenig verstanden. Insbesondere gilt dies für Polyelektrolyte in sogenanntem schlechten Lösungsmittel. Ein schlechtes Lösungsmittel bewirkt eine effektive Anziehung zwischen den Monomeren. Für Polyelektrolyte in schlechtem Lösungsmittel kommt es daher zu einer Konkurrenz zwischen dieser Anziehung und der elektrostatischen Abstoßung. Geladene Polymere werden im Rahmen der chemischen Klassifikation in starke und schwache Polyelektrolyte unterschieden. Erstere zeigen vollständige Dissoziation unabhängig vom pH-Wert der Lösung. Die Position der Ladungen auf der Kette wird ausschließlich während der Polymersynthese festgelegt. In der Physik spricht man deshalb von Polyelektrolyten mit eingefrorener Ladungsverteilung (quenched polyelectrolytes). Im Falle von schwachen Polyelektrolyten ist die Ladungsdichte auf der Kette nicht konstant, sondern wird durch der pH-Wert der Lösung kontrolliert. Durch Rekombinations- und Dissoziationsprozesse sind die Ladungen auf der Kette beweglich. Im allgemeinen stellt sich eine inhomogene Gleichgewichtsverteilung ein, die mit der Struktur der Kette gekoppelt ist. Diese Polymere werden deshalb auch Polyelektrolyte mit Gleichgewichtsladungsverteilung (annealed polyelectrolytes) genannt. Wegen des zusätzlichen Freiheitsgrades in der Ladungsverteilung werden eine Reihe ungewöhnlicher Eigenschaften theoretisch vorhergesagt. Mit Hilfe von Simulationen ist es zum ersten Mal gelungen, zu zeigen daß 'annealed' Polyelektrolyte in relativ schlechtem Lösungsmittel einen diskontinuierlichen Phasenübergang durchlaufen, wenn ein kritischer pH-Werts der Lösung überschritten wird. Bei diesem Phasenübergang, gehen die Polyelektolyte von einer schwach geladenen kompakten globulären Struktur zu einer stark geladenen gestreckten Konfiguration über. Aufgrund theoretischer Vorhersagen wird erwartet, daß die globuläre Struktur in weniger schlechtem Lösungsmittel instabil wird und sich eine Perlenkettenkonfiguration ausbildet. Diese Vorhersage konnte für 'annealed' Polyelektrolyte mit den durchgeführten Simulationen zum ersten Mal bestätigt werden - inzwischen auch durch erste experimentelle Ergebnisse. Schließlich zeigen die Simulationen auch, daß annealed Polyelektrolyte bei einer kritischen Salzkonzentration in der Lösung einen scharfen Übergang zwischen einem stark geladenen gestreckten Zustand und einem schwach geladenen globulären Zustand aufweisen, wiederum in Übereinstimmung mit theoretischen Erwartungen. N2 - A polymer is a large molecule made up of many elementary chemical units, joined together by covalent bonds (for example, polyethylene). Polyelectrolytes (PELs) are polymer chains containing a certain amount of ionizable monomers. With their specific properties PELs acquire big importance in molecular and cell biology as well as in technology. Compared to neutral polymers the theory of PELs is less understood. In particular, this is valid for PELs in poor solvents. A poor solvent environment causes an effective attraction between monomers. Hence, for PELs in a poor solvent, there occurs a competition between attraction and repulsion. Strong or quenched PELs are completely dissociated at any accessible pH. The position of charges along the chain is fixed by chemical synthesis. On the other hand, in weak or annealed PELs dissociation of charges depends on solution pH. For the first time the simulation results have given direct evidence that at rather poor solvents an annealed PEL indeed undergoes a first-order phase transition when the chemical potential (solution pH) reaches at a certain value. The discontinuous transition occurs between a weakly charged compact globular structure and a strongly charged stretched configuration. At not too poor solvents theory predicts that globule would become unstable with respect to the formation of pearl-necklaces. The results show that pearl-necklaces exist in annealed PELs indeed. Furthermore, as predicted by theory, the simulation results have shown that annealed PELs display a sharp transition from a highly charged stretched state to a weakly charged globule at a critical salt concentration. KW - Polymer-Plastik KW - Polyelektrolyte KW - Simulation KW - polymer KW - polyelectrolytes KW - simulation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001488 ER - TY - THES A1 - Pál, Andrea T1 - The role of cross-linguistic formal similarity in Hungarian-German bilingual learners of English as a foreign language N2 - Gegenstand der Dissertation ist die Untersuchung interlingualer lexikalischer Prozesse von Worterkennung und-zugriff bei ungarndeutschen Bilingualen, die Englisch als Fremdsprache erlernen, unter besonderer Berücksichtigung der Rolle von Kognaten. Ziel der Studie ist es, die Prozesse lexikalischer Aktivierung in einem polyglotten System zu beschreiben und sowohl die mentalen Lexika, als auch die Verknüpfung und gegenseitige Aktivierung (z. B. durch 'direct word association' oder durch 'concept mediation') zu modellieren. Drei abhängige Variablen werden in einer quantitativen und qualitativen Analyse empirischer Daten untersucht: Genauigkeit, Antwortzeitlatenzen und phonologische Interferenz. Die Resultate der Experimente werden im Rahmen eines multilingualen Netzwerkmodells interpretiert. N2 - The dissertation examines aspects of the interlingual lexical processes of word recognition and word retrieval in Hungarian-German bilinguals learning English as a foreign language, with particular respect to the role of cognates. The purpose of the study is to describe the process of lexical activaton in a polyglot system and to model the mental lexicons and the ways entries in the lexicons are connected and activated (e.g. activation through direct word association or through concept mediation). Three dependent variables are studied in quantitative and qualitative analysis of empirical data taken from experiments: rate of accurate responses, response latencies and phonological interference. The results of the experiments are interpreted in the framework of a multiple language network model. KW - Hungarian-German bilinguals KW - cognates KW - interference KW - language transfer KW - foreign language acquisition Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000189 ER - TY - THES A1 - Zöller, Gert T1 - Analyse raumzeitlicher Muster in Erdbebendaten N2 - Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung von Seismizität anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss darüber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus für die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen häufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die Möglichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird häufig als Vorläuferphaenomen für starke Erdbeben gedeutet. Es wird eine neue Methode präsentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen ermöglicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erhält man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz dafür nicht hoch genug, um eine Vorhersage im Sinne einer Aussage über den Ort, die Zeit und die Stärke eines zu erwartenden Hauptbebens zu ermöglichen. KW - Erdbeben KW - nichtlineare Dynamik Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000122 ER - TY - THES A1 - Daub, Carsten Oliver T1 - Analysis of integrated transcriptomics and metabolomics data : a systems biology approach N2 - Moderne Hochdurchsatzmethoden erlauben die Messung einer Vielzahl von komplementären Daten und implizieren die Existenz von regulativen Netzwerken auf einem systembiologischen Niveau. Ein üblicher Ansatz zur Rekonstruktion solcher Netzwerke stellt die Clusteranalyse dar, die auf einem Ähnlichkeitsmaß beruht. Wir verwenden das informationstheoretische Konzept der wechselseitigen Information, das ursprünglich für diskrete Daten definiert ist, als Ähnlichkeitsmaß und schlagen eine Erweiterung eines für gewöhnlich für die Anwendung auf kontinuierliche biologische Daten verwendeten Algorithmus vor. Wir vergleichen unseren Ansatz mit bereits existierenden Algorithmen. Wir entwickeln ein geschwindigkeitsoptimiertes Computerprogramm für die Anwendung der wechselseitigen Information auf große Datensätze. Weiterhin konstruieren und implementieren wir einen web-basierten Dienst fuer die Analyse von integrierten Daten, die durch unterschiedliche Messmethoden gemessen wurden. Die Anwendung auf biologische Daten zeigt biologisch relevante Gruppierungen, und rekonstruierte Signalnetzwerke zeigen Übereinstimmungen mit physiologischen Erkenntnissen. N2 - Recent high-throughput technologies enable the acquisition of a variety of complementary data and imply regulatory networks on the systems biology level. A common approach to the reconstruction of such networks is the cluster analysis which is based on a similarity measure. We use the information theoretic concept of the mutual information, that has been originally defined for discrete data, as a measure of similarity and propose an extension to a commonly applied algorithm for its calculation from continuous biological data. We compare our approach to previously existing algorithms. We develop a performance optimised software package for the application of the mutual information to large-scale datasets. Furthermore, we design and implement a web-based service for the analysis of integrated data measured with different technologies. Application to biological data reveals biologically relevant groupings and reconstructed signalling networks show agreements with physiological findings. KW - Transinformation KW - wechselseitige Information KW - Ähnlichkeitsmaß KW - Genexpression KW - mutual information KW - distance measure KW - gene expression Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001251 ER - TY - THES A1 - Ramírez Ríos, Liliana Patricia T1 - Superpara- and paramagnetic polymer colloids by miniemulsion processes N2 - Polymerverkapselte magnetische Nanopartikel versprechen, in der Zukunft sehr erfolgreich bei Anwendungen in der Biologie und der Medizin eingesetzt werden zu können z. B. in der Krebstherapie und als Kontrastmittel bei der magnetischen Kernspinresonanztomographie. Diese Arbeit zeigt, dass durch die interdisziplinäre Kombination verschiedener Techniken Herstellungsverfahren und Eigenschaften solcher Partikel verbessert werden können. Unter Miniemulsionen versteht man wässrige Dispersionen relativ stabiler Öltröpfchen, zwischen 30 und 50 nm Größe. Ein Nanometer (nm) ist der 1.000.000.000ste Teil eines Meters. Ein Haar ist ungefähr 60.000 Nanometer breit. Hergestellt werden Miniemulsionen durch Scherung eines Systems bestehend aus Öl, Wasser, Tensid (Seife) und einer weiteren Komponente, dem Hydrophob, das die Tröpfchen stabilisieren soll. Die Polymerisation von Miniemulsionen ermöglicht die Verkapselung anorganischer Materialen z. B. magnetischer Teilchen oder Gadolinium-haltiger Komponenten. Zu Optimierung des Verkapselung, ist es notwendig, die richtige Menge eines geeigneten Tensids zu finden. Die magnetischen polymerverkapselten Nanopartikel, die in einer wässrigen Trägerflüssigkeit dispergiert sind, zeigen in Abhängigkeit von Partikelgröße, Zusammensetzung, elektronischer Beschaffenheit, etc. ein sogenanntes superpara- oder paramagnetisches Verhalten. Superpara- oder paramagnetisches Verhalten bedeutet, dass die Flüssigkeiten in Anwesenheit äußerer Magnetfeldern ihre Fließfähigkeit beibehalten. Wenn das Magnetfeld entfernt wird, haben sie keine Erinnerung mehr daran, unter dem Einfluss eines Magnetfeldes gestanden zu haben, d. h., dass sie nach Abschalten des Magnetfeldes selbst nicht mehr magnetisch sind. Die Vorteile des Miniemulsionsverfahrens sind der hohe Gehalt und die homogene Verteilung magnetischer Teilchen in den einzelnen Nanopartikeln. Außerdem ermöglicht dieses Verfahren nanostrukturierte Kompositpartikel herzustellen, wie z. B polymerverkapselte Nanopartikel mit Nanoschichten bestehend aus magnetischen Molekülen. N2 - Combining the magnetic properties of a given material with the tremendous advantages of colloids can exponentially increase the advantages of both systems. This thesis deals with the field of magnetic nanotechnology. Thus, the design and characterization of new magnetic colloids with fascinating properties compared with the bulk materials is presented. Ferrofluids are referred to either as water or organic stable dispersions of superparamagnetic nanoparticles which respond to the application of an external magnetic field but lose their magnetization in the absence of a magnetic field. In the first part of this thesis, a three-step synthesis for the fabrication of a novel water-based ferrofluid is presented. The encapsulation of high amounts of magnetite into polystyrene particles can efficiently be achieved by a new process including two miniemulsion processes. The ferrofluids consist of novel magnetite polystyrene nanoparticles dispersed in water which are obtained by three-step process including coprecipitation of magnetite, its hydrophobization and further surfactant coating to enable the redispersion in water and the posterior encapsulation into polystyrene by miniemulsion polymerization. It is a desire to take advantage of a potential thermodynamic control for the design of nanoparticles, and the concept of "nanoreactors" where the essential ingredients for the formation of the nanoparticles are already in the beginning. The formulation and application of polymer particles and hybrid particles composed of polymeric and magnetic material is of high interest for biomedical applications. Ferrofluids can for instance be used in medicine for cancer therapy and magnetic resonance imaging. Superparamagnetic or paramagnetic colloids containing iron or gadolinium are also used as magnetic resonance imaging contrast agent, for example as a important tool in the diagnosis of cancer, since they enhance the relaxation of the water of the neighbouring zones. New nanostructured composites by the thermal decomposition of iron pentacarbonyl in the monomer phase and thereafter the formation of paramagnetic nanocomposites by miniemulsion polymerization are discussed in the second part of this thesis. In order to obtain the confined paramagnetic nanocomposites a two-step process was used. In the first step, the thermal decomposition of the iron pentacarbonyl was obtained in the monomer phase using oleic acid as stabilizer. In the second step, this iron-containing monomer dispersion was used for making a miniemulsion polymerization thereof. The addition of lanthanide complexes to ester-containing monomers such as butyl acrylate and subsequent polymerization leading to the spontaneous formation of highly organized layered nanocomposites is presented in the final part of this thesis. By an one-step miniemulsion process, the formation of a lamellar structure within the polymer nanoparticles is achieved. The magnetization and the NMR relaxation measurements have shown these new layered nanocomposites to be very apt for application as contrast agent in magnetic resonance imaging. T2 - Superpara- and paramagnetic polymer colloids by miniemulsion processes KW - Magnetisch KW - superparamagnetisch KW - paramagnetisch KW - Kolloid KW - Miniemulsion KW - Polymerisation KW - Ferrofluid KW - Überstrukturierte Komposite KW - Gadolinium KW - Lanthano KW - Magnetic KW - superparamagnetic KW - paramagnetic KW - colloid KW - miniemulsion KW - polymerization KW - ferrofluid KW - nanostructured composite KW - gadolinium KW - lanthanide Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001267 ER - TY - THES A1 - Henkel, Carsten T1 - Coherence theory of atomic de Broglie waves and electromagnetic near fields N2 - Die Arbeit untersucht theoretisch die Wechselwirkung neutraler Teilchen (Atome, Moleküle) mit Oberflächen, soweit sie durch das elektromagnetische Feld vermittelt wird. Spektrale Energiedichten und Kohärenzfunktionen werden hergeleitet und liefern eine umfassende Charakterisierung des Felds auf der sub-Wellenlängen-Skala. Die Ergebnisse finden auf zwei Teilgebieten Anwendung: in der integrierten Atomoptik, wo ultrakalte Atome an thermische Oberflächen koppeln, und in der Nahfeldoptik, wo eine Auflösung unterhalb der Beugungsbegrenzung mit einzelnen Molekülen als Sonden und Detektoren erzielt werden kann. N2 - We theoretically discuss the interaction of neutral particles (atoms, molecules) with surfaces in the regime where it is mediated by the electromagnetic field. A thorough characterization of the field at sub-wavelength distances is worked out, including energy density spectra and coherence functions. The results are applied to typical situations in integrated atom optics, where ultracold atoms are coupled to a thermal surface, and to single molecule probes in near field optics, where sub-wavelength resolution can be achieved. KW - Kohärenztheorie KW - Quantenoptik KW - Quanten-Elektrodynamik (QED) KW - Atomoptik KW - Atomchip KW - Spektroskopie KW - Oberfläche KW - coherence theory KW - quantum optics KW - quantum electrodynamics (QED) KW - atom optics KW - atom chip KW - spectroscopy KW - surface Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001272 ER - TY - THES A1 - Koppitz, Michael T1 - Numerical studies of Black Hole initial data N2 - Diese Doktorarbeit behandelt neue Methoden der numerischen Evolution von Systemen mit binären Schwarzen Löchern. Wir analysieren und vergleichen Evolutionen von verschiedenen physikalisch motivierten Anfangsdaten und zeigen Resultate der ersten Evolution von so genannten 'Thin Sandwich' Daten, die von der Gruppe in Meudon entwickelt wurden. Zum ersten Mal wurden zwei verschiedene Anfangsdaten anhand von dreidimensionalen Evolutionen verglichen: die Puncture-Daten und die Thin-Sandwich Daten. Diese zwei Datentypen wurden im Hinblick auf die physikalischen Eigenschaften während der Evolution verglichen. Die Evolutionen zeigen, dass die Meudon Daten im Vergleich zu Puncture Daten wesentlich mehr Zeit benötigen bevor sie kollidieren. Dies deutet auf eine bessere Abschätzung der Parameter hin. Die Kollisionszeiten der numerischen Evolutionen sind konsistent mit unabhängigen Schätzungen basierend auf Post-Newtonschen Näherungen die vorhersagen, dass die Schwarzen Löcher ca. 60% eines Orbits rotieren bevor sie kollidieren. N2 - This thesis presents new approaches to evolutions of binary black hole systems in numerical relativity. We analyze and compare evolutions from various physically motivated initial data sets, in particular presenting the first evolutions of Thin Sandwich data generated by the Meudon group. For the first time two different quasi-circular orbit initial data sequences are compared through fully 3d numerical evolutions: Puncture data and Thin Sandwich data (TSD) based on a helical killing vector ansatz. The two different sets are compared in terms of the physical quantities that can be measured from the numerical data, and in terms of their evolutionary behavior. The evolutions demonstrate that for the latter, "Meudon" datasets, the black holes do in fact orbit for a longer amount of time before they merge, in comparison with Puncture data from the same separation. This indicates they are potentially better estimates of quasi-circular orbit parameters. The merger times resulting from the numerical simulations are consistent with independent Post-Newtonian estimates that the final plunge phase of a black hole inspiral should take 60% of an orbit. KW - numerische Relativiät KW - binäre schwarze Löcher KW - Anfangsdaten KW - Evolutionen KW - numerical relativity KW - binary black holes KW - initial data KW - evolutions Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001245 ER - TY - THES A1 - Schulz, Frank T1 - 'How can you go to a Church that killed so many Indians?' : Representations of Christianity in 20th century Native American novels N2 - Die vorliegende Arbeit untersucht Romane indianischer Autorinnen und Autoren des 20. Jahrhunderts hinsichtlich ihrer Repräsentation von Konflikten zwischen amerikanischen Ureinwohnern und der vorherrschenden christlichen Religion des allgemeinen gesellschaftlichen Umfelds. Verschiedene Schwerpunkte sind zu erkennen, die im Laufe des Jahrhunderts immer wieder dargestellt und in veränderter Perspektive betrachtet werden. Sowohl historische Konflikte der Kolonialisierung und Christianisierung als auch die immerwährende Frage indianischer Christen -- 'Wie kannst Du in eine Kirche gehen, die so viele Indianer umgebracht hat?' [Alexie, Reservation Blues] -- werden in den Romanen diskutiert und in meiner Arbeit analysiert. Es wird ferner versucht, eine literaturgeschichtliche Klassifizierung der einzelnen Werke entsprechend ihrer Repräsentation dieser Probleme vorzunehmen. In Anlehnung an Charles Larsons chronologisch-thematische Darstellung indianischer Prosa, werden die Kategorien rejection, (syncretic) adaptation, and postmodern-ironic revision eingeführt, um die unterschiedlichen Darstellungsweisen zu beschreiben. Anhand der fünf Hauptbeispiele ist eine Entwicklung der zeitgenössischen indianischen Literatur zu beobachten, die sich von der engen Definition der 1960er und 70er Jahre zugunsten eines breiteren und vielfältigeren Ansatzes löst und dabei mittels interkultureller und intertextueller Referenzen, postmoderner Ironie, und einem neuen indianischen Selbstbewußtsein auch neue Positionen gegenüber dem Glauben der einstigen Kolonialmacht einnimmt. Gutachter / Betreuer: Prof. Rüdiger Kunow ; Dr. Jürgen Heiß N2 - This MA thesis examines novels by Native American authors of the 20th century in regard to their representation of conflicts between the indigenous population of North America and the dominant Christian religion of the mainstream society. Several major points can be followed throughout the century, which have been presented repeatedly and discussed in various perspectives. Historical conflicts of colonization and Christianization, as well as the perpetual question of Native American Christians -- 'How can you go to a church that killed so many Indians?' [Alexie, Reservation Blues] -- are debated in these novels and analyzed in this paper. Furthermore, I have tried to position and classify the works according to their representation of these problems within literary history. Following Charles Larson's chronologic and thematic examination of American Indian Fiction, the categories rejection, (syncretic) adaptation, and postmodern-ironic revision are introduced to describe the various forms of representation. On the basis of five main examples, we can observe an evolution of contemporary Native American literature, which has liberated itself from the narrow definition of the 1960s and 1970s, in favor of a broader and more varied approach. In so doing, and by means of intercultural and intertextual referencing, postmodern irony, and a new Indian self-confidence, it has also taken a new position towards the religion of the former colonizer. KW - Literatur der Indianer Nordamerikas KW - Belletristik KW - Romane KW - Christentum KW - Christianisierung KW - Kolonialisierung KW - Religion KW - amerikanische Ureinwohner KW - D'Ar KW - Native American literature KW - fiction KW - novels KW - Christianity KW - Christianization KW - colonization KW - religion KW - American Indians KW - D'Arcy McNickle KW - N. Scott Momad Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001154 ER - TY - THES A1 - Zillmer, Rüdiger T1 - Statistical properties and scaling of the Lyapunov exponents in stochastic systems N2 - Die vorliegende Arbeit umfaßt drei Abhandlungen, welche allgemein mit einer stochastischen Theorie für die Lyapunov-Exponenten befaßt sind. Mit Hilfe dieser Theorie werden universelle Skalengesetze untersucht, die in gekoppelten chaotischen und ungeordneten Systemen auftreten. Zunächst werden zwei zeitkontinuierliche stochastische Modelle für schwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke ('coupling sensitivity of chaos') zu untersuchen. Mit Hilfe des Fokker-Planck-Formalismus werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird gezeigt, daß 'coupling sensitivity' im Fall gekoppelter ungeordneter Ketten auftritt, wobei der Effekt sich durch ein singuläres Anwachsen der Lokalisierungslänge äußert. Numerische Ergebnisse für gekoppelte Anderson-Modelle werden bekräftigt durch analytische Resultate für gekoppelte raumkontinuierliche Schrödinger-Gleichungen. Das resultierende Skalengesetz für die Lokalisierungslänge ähnelt der Skalierung der Lyapunov-Exponenten gekoppelter chaotischer Systeme. Schließlich wird die Statistik der exponentiellen Wachstumsrate des linearen Oszillators mit parametrischem Rauschen studiert. Es wird gezeigt, daß die Verteilung des zeitabhängigen Lyapunov-Exponenten von der Normalverteilung abweicht. Mittels der verallgemeinerten Lyapunov-Exponenten wird der Parameterbereich bestimmt, in welchem die Abweichungen von der Normalverteilung signifikant sind und Multiskalierung wesentlich wird. N2 - This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential. KW - Lyapunov-Exponenten KW - Chaos KW - ungeordnete Systeme KW - Lokalisierung KW - stochastische Systeme KW - 'coupling sensitivity' KW - parametrisch erregter Oszillator KW - Lyapunov exponents KW - chaos KW - disordered systems KW - localization KW - stochastic systems KW - coupling sensitivity KW - parametrically excited oscillator Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001147 ER - TY - THES A1 - Klessen, Ralf S. T1 - The relation between interstellar turbulence and star formation N2 - Eine der zentralen Fragestellungen der modernen Astrophysik ist es, unser Verständnis fuer die Bildung von Sternen und Sternhaufen in unserer Milchstrasse zu erweitern und zu vertiefen. Sterne entstehen in interstellaren Wolken aus molekularem Wasserstoffgas. In den vergangenen zwanzig bis dreißig Jahren ging man davon aus, dass der Prozess der Sternentstehung vor allem durch das Wechselspiel von gravitativer Anziehung und magnetischer Abstossung bestimmt ist. Neuere Erkenntnisse, sowohl von Seiten der Beobachtung als auch der Theorie, deuten darauf hin, dass nicht Magnetfelder, sondern Überschallturbulenz die Bildung von Sternen in galaktischen Molekülwolken bestimmt. Diese Arbeit fasst diese neuen Überlegungen zusammen, erweitert sie und formuliert eine neue Theorie der Sternentstehung die auf dem komplexen Wechselspiel von Eigengravitation des Wolkengases und der darin beobachteten Überschallturbulenz basiert. Die kinetische Energie des turbulenten Geschwindigkeitsfeldes ist typischerweise ausreichend, um interstellare Gaswolken auf großen Skalen gegen gravitative Kontraktion zu stabilisieren. Auf kleinen Skalen jedoch führt diese Turbulenz zu starken Dichtefluktuationen, wobei einige davon die lokale kritische Masse und Dichte für gravitativen Kollaps überschreiten koennen. Diese Regionen schockkomprimierten Gases sind es nun, aus denen sich die Sterne der Milchstrasse bilden. Die Effizienz und die Zeitskala der Sternentstehung hängt somit unmittelbar von den Eigenschaften der Turbulenz in interstellaren Gaswolken ab. Sterne bilden sich langsam und in Isolation, wenn der Widerstand des turbulenten Geschwindigkeitsfeldes gegen gravitativen Kollaps sehr stark ist. Überwiegt hingegen der Einfluss der Eigengravitation, dann bilden sich Sternen in dichten Gruppen oder Haufen sehr rasch und mit grosser Effizienz. Die Vorhersagungen dieser Theorie werden sowohl auf Skalen einzelner Sternentstehungsgebiete als auch auf Skalen der Scheibe unserer Milchstrasse als ganzes untersucht. Es zu erwarten, dass protostellare Kerne, d.h. die direkten Vorläufer von Sternen oder Doppelsternsystemen, eine hochgradig dynamische Zeitentwicklung aufweisen, und keineswegs quasi-statische Objekte sind, wie es in der Theorie der magnetisch moderierten Sternentstehung vorausgesetzt wird. So muss etwa die Massenanwachsrate junger Sterne starken zeitlichen Schwankungen unterworfen sein, was wiederum wichtige Konsequenzen für die statistische Verteilung der resultierenden Sternmassen hat. Auch auf galaktischen Skalen scheint die Wechselwirkung von Turbulenz und Gravitation maßgeblich. Der Prozess wird hier allerdings noch zusätzlich moduliert durch chemische Prozesse, die die Heizung und Kühlung des Gases bestimmen, und durch die differenzielle Rotation der galaktischen Scheibe. Als wichtigster Mechanismus zur Erzeugung der interstellaren Turbulenz lässt sich die Überlagerung vieler Supernova-Explosionen identifizieren, die das Sterben massiver Sterne begleiten und große Mengen an Energie und Impuls freisetzen. Insgesamt unterstützen die Beobachtungsbefunde auf allen Skalen das Bild der turbulenten, dynamischen Sternentstehung, so wie es in dieser Arbeit gezeichnet wird. N2 - Understanding the formation of stars in galaxies is central to much of modern astrophysics. For several decades it has been thought that the star formation process is primarily controlled by the interplay between gravity and magnetostatic support, modulated by neutral-ion drift. Recently, however, both observational and numerical work has begun to suggest that supersonic interstellar turbulence rather than magnetic fields controls star formation. This review begins with a historical overview of the successes and problems of both the classical dynamical theory of star formation, and the standard theory of magnetostatic support from both observational and theoretical perspectives. We then present the outline of a new paradigm of star formation based on the interplay between supersonic turbulence and self-gravity. Supersonic turbulence can provide support against gravitational collapse on global scales, while at the same time it produces localized density enhancements that allow for collapse on small scales. The efficiency and timescale of stellar birth in Galactic gas clouds strongly depend on the properties of the interstellar turbulent velocity field, with slow, inefficient, isolated star formation being a hallmark of turbulent support, and fast, efficient, clustered star formation occurring in its absence. After discussing in detail various theoretical aspects of supersonic turbulence in compressible self-gravitating gaseous media relevant for star forming interstellar clouds, we explore the consequences of the new theory for both local star formation and galactic scale star formation. The theory predicts that individual star-forming cores are likely not quasi-static objects, but dynamically evolving. Accretion onto these objects will vary with time and depend on the properties of the surrounding turbulent flow. This has important consequences for the resulting stellar mass function. Star formation on scales of galaxies as a whole is expected to be controlled by the balance between gravity and turbulence, just like star formation on scales of individual interstellar gas clouds, but may be modulated by additional effects like cooling and differential rotation. The dominant mechanism for driving interstellar turbulence in star-forming regions of galactic disks appears to be supernovae explosions. In the outer disk of our Milky Way or in low-surface brightness galaxies the coupling of rotation to the gas through magnetic fields or gravity may become important. KW - Sterne KW - Sternentstehung KW - Turbulenz KW - Astrophysik KW - Galaxien KW - interstellare Materie KW - stars KW - star formation KW - turbulence KW - astrophysics KW - galaxies KW - interstellar matter Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001118 ER - TY - THES A1 - Tzoneva-Velinova, Rumiana T1 - The wettability of biomaterials determines the protein adsorption and the cellular responses N2 - During the past several decades polymer materials become widely used as components of medical devices and implants such as hemodialysers, bioartificial organs as well as vascular and recombinant surgery. Most of the devices cannot avoid the blood contact in their use. When the polymer materials come in contact with blood they can cause different undesired host responses like thrombosis, inflammatory reactions and infections. Thus the materials must be hemocompatible in order to minimize these undesired body responses. The earliest and one of the main problems in the use of blood-contacting biomaterials is the surface induced thrombosis. The sequence of the thrombus formation on the artificial surfaces has been well established. The first event, which occurs, after exposure of biomaterials to blood, is the adsorption of blood proteins. Surface physicochemical properties of the materials as wettability greatly influence the amount and conformational changes of adsorbed proteins. In turn the type, amount and conformational state of the adsorbed protein layer determines whether platelets will adhere and become activated or not on the artificial surface and thus to complete the thrombus formation. The adsorption of fibrinogen (FNG), which is present in plasma, has been shown to be closely related to surface induced thrombosis by participating in all processes of the thrombus formation such as fibrin formation, platelet adhesion and aggregation. Therefore study the FNG adsorption to artificial surfaces could contribute to better understanding of the mechanisms of platelet adhesion and activation and thus to controlling the surface induced thrombosis. Endothelization of the polymer surfaces is one of the strategies for improving the materials hemocompatibility, which is believed to be the most ideal solution for making truly blood-compatible materials. Since at physiological conditions proteins such as FNG and fibronectin (FN) are the usual extracellular matrix (ECM) for endothelial cells (EC) adhesion, precoating of the materials with these proteins has been shown to improve EC adhesion and growth in vitro. ECM proteins play an essential role not only like a structural support for cell adhesion and spreading, but also they are important factor in transmitting signals for different cell functions. The ability of cells to remodel plasma proteins such as FNG and FN in matrix-like structures together with the classical cell parameters such as actin cytoskeleton and focal adhesion formation could be used as an criteria for proper cell functioning. The establishment and the maintaining of delicate balance between cell-cell and cell-substrate contacts is another important factor for better EC colonization of the implants. The functionality of newly established endothelium in order to produce antithromotic substances should be always considered when EC seeding is used for improving the hemocompatibility of the polymer materials. Controlling the polymer surface properties such as surface wettability represents a versatile approach to manipulate the above cellular responses and therefore can be used in biomaterial and tissue engineering applications for producing better hemocompatible materials. KW - wettability KW - hemocompatibility KW - extracellular matrix proteins KW - endothelization Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001103 ER - TY - THES A1 - Füssel, Hans-Martin T1 - Impacts analysis for inverse integrated assessments of climate change N2 - Diese Dissertation beschreibt die Entwicklung und Anwendung des Klimawirkungsmoduls des ICLIPS-Modells, eines integrierten Modells des Klimawandels ('Integrated Assessment'-Modell). Vorangestellt ist eine Diskussion des gesellschaftspolitischen Kontexts, in dem modellbasiertes 'Integrated Assessment' stattfindet, aus der wichtige Anforderungen an die Spezifikation des Klimawirkungsmoduls abgeleitet werden. Das 'Integrated Assessment' des Klimawandels umfasst eine weiten Bereich von Aktivitäten zur wissenschaftsbasierten Unterstützung klimapolitischer Entscheidungen. Hierbei wird eine Vielzahl von Ansätzen verfolgt, um politikrelevante Informationen über die erwarteten Auswirkungen des Klimawandels zu berücksichtigen. Wichtige Herausforderungen in diesem Bereich sind die große Bandbreite der relevanten räumlichen und zeitlichen Skalen, die multifaktorielle Verursachung vieler 'Klimafolgen', erhebliche wissenschaftliche Unsicherheiten sowie die Mehrdeutigkeit unvermeidlicher Werturteile. Die Entwicklung eines hierarchischen Konzeptmodells erlaubt die Strukturierung der verschiedenen Ansätze sowie die Darstellung eines mehrstufigen Entwicklungsprozesses, der sich in der Praxis und der zu Grunde liegenden Theorie von Studien zur Vulnerabilität hinsichtlich des Klimawandels wiederspiegelt. 'Integrated Assessment'-Modelle des Klimawandels sind wissenschaftliche Werkzeuge, welche eine vereinfachte Beschreibung des gekoppelten Mensch-Klima-Systems enthalten. Die wichtigsten entscheidungstheoretischen Ansätze im Bereich des modellbasierten 'Integrated Assessment' werden im Hinblick auf ihre Fähigkeit zur adäquaten Darstellung klimapolitischer Entscheidungsprobleme bewertet. Dabei stellt der 'Leitplankenansatz' eine 'inverse' Herangehensweise zur Unterstützung klimapolitischer Entscheidungen dar, bei der versucht wird, die Gesamtheit der klimapolitischen Strategien zu bestimmen, die mit einer Reihe von zuvor normativ bestimmten Mindestkriterien (den sogenannten 'Leitplanken') verträglich sind. Dieser Ansatz verbindet bis zu einem gewissen Grad die wissenschaftliche Strenge und Objektivität simulationsbasierter Ansätze mit der Fähigkeit von Optimierungsansätzen, die Gesamtheit aller Entscheidungsoptionen zu berücksichtigen. Das ICLIPS-Modell ist das erste 'Integrated Assessment'-Modell des Klimawandels, welches den Leitplankenansatz implementiert. Die Darstellung von Klimafolgen ist eine wichtige Herausforderung für 'Integrated Assessment'-Modelle des Klimawandels. Eine Betrachtung bestehender 'Integrated Assessment'-Modelle offenbart große Unterschiede in der Berücksichtigung verschiedener vom Klimawandel betroffenen Sektoren, in der Wahl des bzw. der Indikatoren zur Darstellung von Klimafolgen, in der Berücksichtigung nicht-klimatischer Entwicklungen einschließlich gezielter Anpassungsmaßnahmen an den Klimawandel, in der Behandlung von Unsicherheiten und in der Berücksichtigung von 'singulären' Ereignissen. 'Integrated Assessment'-Modelle, die auf einem Inversansatz beruhen, stellen besondere Anforderungen an die Darstellung von Klimafolgen. Einerseits muss der Detaillierungsgrad hinreichend sein, um Leitplanken für Klimafolgen sinnvoll definieren zu können; andererseits muss die Darstellung effizient genug sein, um die Gesamtheit der möglichen klimapolitischen Strategien erkunden zu können. Großräumige Singularitäten können häufig durch vereinfachte dynamische Modelle abgebildet werden. Diese Methode ist jedoch weniger geeignet für reguläre Klimafolgen, bei denen die Bestimmung relevanter Ergebnisse in der Regel die Berücksichtigung der Heterogenität von klimatischen, naturräumlichen und sozialen Faktoren auf der lokalen oder regionalen Ebene erfordert. Klimawirkungsfunktionen stellen sich als die geeignetste Darstellung regulärer Klimafolgen im ICLIPS-Modell heraus. Eine Klimawirkungsfunktion beschreibt in aggregierter Form die Reaktion eines klimasensitiven Systems, wie sie von einem geographisch expliziten Klimawirkungsmodell für eine repräsentative Teilmenge möglicher zukünftiger Entwicklungen simuliert wurde. Die in dieser Arbeit vorgestellten Klimawirkungsfunktionen nutzen die globale Mitteltemperatur sowie die atmosphärische CO2-Konzentration als Prädiktoren für global und regional aggregierte Auswirkungen des Klimawandels auf natürliche Ökosysteme, die landwirtschaftliche Produktion und die Wasserverfügbarkeit. Die Anwendung einer 'Musterskalierungstechnik' ermöglicht hierbei die Berücksichtigung der regionalen und saisonalen Muster des Klimaänderungssignals aus allgemeinen Zirkulationsmodellen, ohne die Effizienz der dynamischen Modellkomponenten zu beeinträchtigen. Bemühungen zur quantitativen Abschätzung zukünftiger Klimafolgen sehen sich bei der Wahl geeigneter Indikatoren in der Regel einem Zielkonflikt zwischen der Relevanz eines Indikators für Entscheidungsträger und der Zuverlässigkeit, mit der dieser bestimmt werden kann, gegenüber. Eine Reihe von nichtmonetären Indikatoren zur aggregierten Darstellung von Klimafolgen in Klimawirkungsfunktionen wird präsentiert, welche eine Balance zwischen diesen beiden Zielen anstreben und gleichzeitig die Beschränkungen berücksichtigen, die sich aus anderen Komponenten des ICLIPS-Modells ergeben. Klimawirkungsfunktionen werden durch verschiedene Typen von Diagrammen visualisiert, welche jeweils unterschiedliche Perspektiven auf die Ergebnismenge der Klimawirkungssimulationen erlauben. Die schiere Anzahl von Klimawirkungsfunktionen verhindert ihre umfassende Darstellung in dieser Arbeit. Ausgewählte Ergebnisse zu Veränderungen in der räumlichen Ausdehnung von Biomen, im landwirtschaftlichen Potential verschiedener Länder und in der Wasserverfügbarkeit in mehreren großen Einzugsgebieten werden diskutiert. Die Gesamtheit der Klimawirkungsfunktionen wird zugänglich gemacht durch das 'ICLIPS Impacts Tool', eine graphische Benutzeroberfläche, die einen bequemen Zugriff auf über 100.000 Klimawirkungsdiagramme ermöglicht. Die technischen Aspekte der Software sowie die zugehörige Datenbasis wird beschrieben. Die wichtigste Anwendung von Klimawirkungsfunktionen ist im 'Inversmodus', wo sie genutzt werden, um Leitplanken zur Begrenzung von Klimafolgen in gleichzeitige Randbedingungen für Variablen aus dem optimierenden ICLIPS-Klima-Weltwirtschafts-Modell zu übersetzen. Diese Übersetzung wird ermöglicht durch Algorithmen zur Bestimmung von Mengen erreichbarer Klimazustände ('reachable climate domains') sowie zur parametrisierten Approximation zulässiger Klimafenster ('admissible climate windows'), die aus Klimawirkungsfunktionen abgeleitet werden. Der umfassende Bestand an Klimawirkungsfunktionen zusammen mit diesen Algorithmen ermöglicht es dem integrierten ICLIPS-Modell, in flexibler Weise diejenigen klimapolitischen Strategien zu bestimmen, welche bestimmte in biophysikalischen Einheiten ausgedrückte Begrenzungen von Klimafolgen explizit berücksichtigen. Diese Möglichkeit bietet kein anderes intertemporal optimierendes 'Integrated Assessment'-Modell. Eine Leitplankenanalyse mit dem integrierten ICLIPS-Modell unter Anwendung ausgewählter Klimawirkungsfunktionen für Veränderungen natürlicher Ökosysteme wird beschrieben. In dieser Analyse werden so genannte 'notwendige Emissionskorridore' berechnet, die vorgegebene Beschränkungen hinsichtlich der maximal zulässigen globalen Vegetationsveränderungen und der regionalen Klimaschutzkosten berücksichtigen. Dies geschieht sowohl für eine 'Standardkombination' der drei gewählten Kriterien als auch für deren systematische Variation. Eine abschließende Diskussion aktueller Entwicklungen in der 'Integrated Assessment'-Modellierung stellt diese Arbeit mit anderen einschlägigen Bemühungen in Beziehung. N2 - This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts. KW - Klimawandel KW - Klimafolgen KW - Integrierte Bewertung KW - Leitplankenansatz KW - Fensteransatz KW - Inversanalyse KW - Klimawirkungsfunktionen KW - Musterskalierung KW - ICLIPS KW - Climate change KW - climate impacts KW - integrated assessment KW - guardrail approach KW - tolerable windows approach KW - inverse analysis KW - climate impact response func Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001089 ER - TY - THES A1 - Gil-Merino Rubio, Rodrigo T1 - Cosmology through gravitational lenses N2 - In dieser Dissertation nutze ich den Gravitationslinseneffekt, um eine Reihe von kosmologischen Fragen zu untersuchen. Der Laufzeitunterschied des Gravitationslinsensystems HE1104-1805 wurde mit unterschiedlichen Methoden bestimmt. Zwischen den beiden Komponenten erhalte ich einen Unterschied von Delta_t(A-B) = -310 +-20 Tagen (2 sigma Konfidenzintervall). Außerdem nutze ich eine dreijährige Beobachtungskampagne, um den Doppelquasar Q0957+561 zu untersuchen. Die beobachteten Fluktuationen in den Differenzlichtkurven lassen sich durch Rauschen erklären, ein Mikrogravitationslinseneffekt wird zur Erklärung nicht benötigt. Am Vierfachquasar Q2237+0305 untersuchte ich den Mikrogravitationslinseneffekt anhand der Daten der GLITP-Kollaboration (Okt. 1999-Feb. 2000). Durch die Abwesenheit eines starken Mikrogravitationslinsensignals konnte ich eine obere Grenze von v=600 km/s f für die effektive Transversalgeschwindigkeit der Linsengalaxie bestimmen (unter der Annahme von Mikrolinsen mit 0.1 Sonnenmassen). Im zweiten Teil der Arbeit untersuchte ich die Verteilung der Dunklen Materie in Galaxienhaufen. Für den Galaxienhaufen Cl0024+1654 erhalte ich ein Masse-Leuchtkraft-Verhältnis von M/L = 200 M_sun/L_sun (innerhalb eines Radius von 3 Bogenminuten). Im Galaxienhaufen RBS380 finde ich eine relativ geringe Röntgenleuchtkraft von L =2*10^(44) erg/s, obwohl im optischen eine große Anzahl von Galaxien gefunden wurde. N2 - In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band. KW - Gravitationslinsen KW - Mikrolinsen KW - Quasar KW - gravitational lensing KW - microlensing KW - quasar Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001030 ER - TY - THES A1 - Rose, Andreas T1 - Analysis of phenolic compounds by dint of GDH-biosensors and immunoassays N2 - In den letzten Jahren gerieten phenolische Substanzen, wie z.B. Chlor-, Nitrophenol oder Alkylphenolethoxylate aufgrund ihrer Toxizität sowie ihres kanzerogenen und endokrinen Potentials in das Interesse der Öffentlichkeit. Diese Substanzen gelangen in großen Mengen, z.B. aus industriellen Prozessen (Papier-, Kunststoff-, oder Lederindustrie) oder als Abbauprodukte von Pflanzenschutzmitteln in die Umwelt. Ziel dieser Arbeit war es, einfache biochemische Bestimmungsmethoden für verschiedene phenolische Umweltschadstoffe auf Basis biochemischer Erkennungselemente zu entwickeln. Diese sollten als Screeningmethoden in der Vor-Ort-Analytik einsetzbar sein. Die Anwendung sollte kostengünstig und einfach durchzuführen sein, so dass die Messung kein hochwissenschaftliches Personal erfordert. Daher stand im Hintergrund der Arbeit die Integration der Analysenmethode in ein kompaktes Handgerät. Zu diesem Zweck wurde ein Biosensor entwickelt der zur direkten Messung und in Kombination mit einem Immunoassay einsetzbar ist: 1.) Elektrochemischer Biosensor Ein elektrochemischer Biosensor stellt die Verbindung zwischen einer Elektrode und der biologischen Komponente dar. Als Messprinzip wurde die Amperometrie gewählt. Hierbei wird die Präsenz des nachzuweisenden Stoffes durch die angelegte Spannung am Sensor visualisiert, da beim Vorhandensein ein Stromfluss gemessen wird. Um die Signalintensität zu erhöhen können Enzyme als Katalysatoren genutzt werden, die in der Lage sind die Rückreaktion der Elektrodenreaktion zu realisieren. In diesem Fall wurde Glucose-Dehydrogenase (GDH) verwendet, die oxidierte phenolische Verbindungen reduzieren kann. Zusammen mit der Oxidation an der Sensoroberfläche bildet sich ein Verstärkungszyklus aus, der das ursprüngliche Signal vielfach erhöht. Wir waren in der Lage, GDH durch Einbetten in ein Polymerennetzwerk auf der Oberfläche einer gedruckten Platin-Dickschicht-Elektrode zu immobilisieren. Als Resultat erhielten wir einen sehr empfindlichen und äußerst stabilen Biosensor. Seine schnelle Ansprechzeit ermöglicht den Einsatz in automatisierten Fließsystemen zur Messung großer Probenzahlen. Der Einsatz in einem manuell betriebenen Handgerät konnte ebenfalls realisiert werden und brachte nur geringe Beeinträchtigungen in bezug auf die Empfindlichkeit der Messung. Die erfolgreiche Implementierung des Biosensors in das Handgerät wurde in Rahmen eines internationalen Workshops in Barcelona, anhand der Überprüfung der Reinigungsleistung von Klärwerken, gezeigt. 2.) Kombination mit Immunoassays Der Einsatzbereich der GDH-Biosensoren lässt sich durch die Kombination mit anderen Techniken erweitern, wobei der Sensor zur Visualisierung der Nachweisreaktion dient. In diesem Fall kann der Sensor zur Bestimmung der Enzymaktivität von ß?Galactosidase (ßGal) verwendet werden. Der Nachweis geringster Enzymmengen wurde realisiert. Die ßGal wird zur Markierung eines Analytanalogen in Immunoassays verwendet, um die Bindung von Antikörper und Analytmolekül sichtbar zu machen. Im Immunoassay bildet sich ein Gleichgewicht zwischen Antikörper, unmarkiertem Analyt und markiertem Analytanalog (Tracer) aus. Über die Bestimmung der Enzymaktivität kann man die Analytkonzentration in der Probe errechnen. Wir haben unseren GDH-Biosensor erfolgreich mit zwei Techniken kombiniert. Zum Einen mit einem Assay zur Bestimmung von Nitrophenol, der in einem automatisiertem Fließsystem realisiert wurde. Hier wird die Mischung aus Antikörpern, Analyt und Tracer über eine Säule gegeben und gespült. Die gebundenen Bestandteile werden durch den GDH-Biosensor quantifiziert. Zum Anderen wurde ein Kapillarimmunoassay entwickelt, der in das Handgerät integriert werden kann. Dabei wird der Antikörper direkt an der Kapillare fixiert. Die Probe wird mit Tracer vermischt und in die Kapillare gegeben. Dort bildet sich das Gleichgewicht aus und weitere Probenbestandteile werden im Spülschritt eliminiert. Die Analytkonzentration wird durch die Bestimmung des gebunden Tracers (Aktivität der ßGal) mit Hilfe des GDH-Biosensors realisiert. N2 - The development of fast and reliable biochemical tools for on-site screening in environmental analysis was the main target of the present work. Due to various hazardous effects such as endocrine disruption and toxicity phenolic compounds are key analytes in environmental analysis and thus were chosen as model analytes. Three different methods were developed: For the enzymatic detection of phenols in environmental samples an enzyme-based biosensor was developed. In contrast to reported work using tyrosinase or peroxidases, we developed a biosensor based on glucose dehydrogenase as biorecognition element. This biosensor was devoted for an application in a laboratory flow system as well as in a portable device for on-site measurements. This enzymatic detection is applicable only for a limited number of phenols due to substrate specificity of the enzyme. For other relevant compounds based on a phenolic structure (i.e. nitrophenol, alkylphenols and alkylphenol ethoxylates) immunological methods had to be developed. The electrochemical GDH-biosensor was used as the label detector in these immunoassays. Two heterogeneous immunoassays were developed where ßGal was used as the label. An electrochemical method for the determination of the marker enzyme activity was processed. The separation step was realized with protein A/G columns (laboratory flow system) or by direct immobilization of the antibodies in small disposable capillaries (on-site analysis). All methods were targeted on the contemporary analysis of small numbers of samples. KW - Immunoassay; GDH-biosensor; Phenolische Substanzen; Vor-Ort-Analytik; FIA; ß-Galactosidase; Abwasseranalytik KW - immunoassay; GDH-biosensor; phenolic compounds; on-site-analysis; FIA;ß-galactosidase; wastewater analysis Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001048 ER - TY - THES A1 - Wriedt, Gunter T1 - Modelling of nitrogen transport and turnover during soil and groundwater passage in a small lowland catchment of Northern Germany N2 - Stoffumsatzreaktionen und hydraulische Prozesse im Boden und Grundwasser können in Tieflandeinzugsgebieten zu einer Nitratretention führen. Die Untersuchung dieser Prozesse in Raum und Zeit kann mit Hilfe geeigneter Modelle erfolgen. Ziele dieser Arbeit sind: i) die Entwicklung eines geeigneten Modellansatzes durch Kombination von Teilmodellen zur Simulation des N-Transportes im Boden und Grundwasser von Tieflandeinzugsgebieten und ii) die Untersuchung von Wechselwirkungen zwischen Gebietseigenschaften und N-Transport unter besonderer Berücksichtigung der potentiellen N-Zufuhr in die Oberflächengewässer. Der Modellansatz basiert auf der Kombination verschiedener Teilmodelle: das Bodenwasser- und -stickstoffmodell mRISK-N, das Grundwassermodell MODFLOW und das Stofftransportmodell RT3D. Zur Untersuchung der Wechselwirkungen mit den Gebietseigenschaften muss die Verteilung und Verfügbarkeit von Reaktionspartnern berücksichtigt werden. Dazu wurde ein Reaktionsmodul entwickelt, welches chemische Prozesse im Grundwasser simuliert. Hierzu gehören die Mineralisation organischer Substanz durch Sauerstoff, Nitrat und Sulfat sowie die Pyritoxidation durch Sauerstoff und Nitrat. Der Modellansatz wurde in verschiedenen Einzelstudien angewandt, wobei jeweils bestimmte Teilmodelle im Vordergrund stehen. Alle Modellstudien basieren auf Daten aus dem Schaugrabeneinzugsgebiet (ca. 25 km²), in der Nähe von Osterburg(Altmark) im Norden Sachsen-Anhalts. Die folgenden Einzelstudien wurden durchgeführt: i) Evaluation des Bodenmodells anhand von Lysimeterdaten, ii) Modellierung eines Tracerexperimentes im Feldmaßstab als eine erste Anwendung des Reaktionsmoduls, iii) Untersuchung hydraulisch-chemischer Wechselwirkungen an einem 2D-Grundwassertransekt, iv) Flächenverteilte Modellierung von Grundwasserneubildung und Bodenstickstoffaustrag im Untersuchungsgebiet als Eingangsdaten für nachfolgende Grundwassersimulationen, und v) Untersuchung der Ausbreitung von Nitrat im Grundwasser und des Durchbruchs in die Oberflächengewässer im Untersuchungsgebiet auf Basis einer 3D-Modellierung von Grundwasserströmung und reaktivem Stofftransport. Die Modellstudien zeigen, dass der Modellansatz geeignet ist, die Wechselwirkungen zwischen Stofftransport und –umsatz und den hydraulisch-chemischen Gebietseigenschaften zu modellieren. Die Ausbreitung von Nitrat im Sediment wird wesentlich von der Verfügbarkeit reaktiver Substanzen sowie der Verweilzeit im Grundwasserleiter bestimmt. Bei der Simulation des Untersuchungsgebietes wurde erst nach 70 Jahren eine der gegebenen Eintragssitutation entsprechende Nitratkonzentration im Grundwasserzustrom zum Grabensystem erreicht (konservativer Transport). Die Berücksichtigung von reaktivem Stofftransport führt zu einer deutlichen Reduktion der Nitratkonzentrationen. Die Modellergebnisse zeigen, dass der Grundwasserzustrom die beobachtete Nitratbelastung im Grabensystem nicht erklären kann, da der Großteil des Nitrates durch Denitrifikation verloren geht. Andere Quellen, wie direkte Einträge oder Dränagenzuflüsse müssen ebenfalls in Betracht gezogen werden. Die Prognosefähigkeit des Modells für das Untersuchungsgebiet wird durch die Datenunsicherheiten und die Schätzung der Modellparameter eingeschränkt. Dennoch ist der Modellansatz eine wertvolle Hilfe bei der Identifizierung von belastungsrelevanten Teilflächen (Stoffquellen und -senken) sowie bei der Modellierung der Auswirkungen von Managementmaßnahmen oder Landnutzungsveränderungen auf Grundlage von Szenario-Simulationen. Der Modellansatz unterstützt auch die Interpretation von Beobachtungsdaten, da so die lokalen Informationen in einen räumlichen und zeitlichen Zusammenhang gestellt werden können. N2 - Chemical transformations and hydraulic processes in soil and groundwater often lead to an apparent retention of nitrate in lowland catchments. Models are needed to evaluate the interaction of these processes in space and time. The objectives of this study are i) to develop a specific modelling approach by combining selected modelling tools simulating N-transport and turnover in soils and groundwater of lowland catchments, ii) to study interactions between catchment properties and nitrogen transport. Special attention was paid to potential N-loads to surface waters. The modelling approach combines various submodels for water flow and solute transport in soil and groundwater: The soil-water- and nitrogen-model mRISK-N, the groundwater flow model MODFLOW and the solute transport model RT3D. In order to investigate interactions of N-transport and catchment characteristics, the distribution and availability of reaction partners have to be taken into account. Therefore, a special reaction-module is developed, which simulates various chemical processes in groundwater, such as the degradation of organic matter by oxygen, nitrate, sulphate or pyrite oxidation by oxygen and nitrate. The model approach is applied to different simulation, focussing on specific submodels. All simulation studies are based on field data from the Schaugraben catchment, a pleistocene catchment of approximately 25 km², close to Osterburg(Altmark) in the North of Saxony-Anhalt. The following modelling studies have been carried out: i) evaluation of the soil-water- and nitrogen-model based on lysimeter data, ii) modelling of a field scale tracer experiment on nitrate transport and turnover in the groundwater as a first application of the reaction module, iii) evaluation of interactions between hydraulic and chemical aquifer properties in a two-dimensional groundwater transect, iv) modelling of distributed groundwater recharge and soil nitrogen leaching in the study area, to be used as input data for subsequent groundwater simulations, v) study of groundwater nitrate distribution and nitrate breakthrough to the surface water system in the Schaugraben catchment area and a subcatchment, using three-dimensional modelling of reactive groundwater transport. The various model applications prove the model to be capable of simulating interactions between transport, turnover and hydraulic and chemical catchment properties. The distribution of nitrate in the sediment and the resulting loads to surface waters are strongly affected by the amount of reactive substances and by the residence time within the aquifer. In the Schaugraben catchment simulations, it is found that a period of 70 years is needed to raise the average seepage concentrations of nitrate to a level corresponding to the given input situation, if no reactions are considered. Under reactive transport conditions, nitrate concentrations are reduced effectively. Simulation results show that groundwater exfiltration does not contribute considerably to the nitrate pollution of surface waters, as most nitrate entering soils and groundwater is lost by denitrification. Additional sources, such as direct inputs or tile drains have to be taken into account to explain surface water loads. The prognostic value of the models for the study site is limited by uncertainties of input data and estimation of model parameters. Nevertheless, the modelling approach is a useful aid for the identification of source and sink areas of nitrate pollution as well as the investigation of system response to management measures or landuse changes with scenario simulations. The modelling approach assists in the interpretation of observed data, as it allows to integrate local observations into a spatial and temporal framework. KW - Stickstoff KW - Nitrat KW - Modellierung KW - Grundwasser KW - Einzugsgebiet KW - Reaktiver Stofftransport KW - Denitrifikation KW - Nitrogen KW - Nitrate KW - modelling KW - groundwater KW - catchment KW - reactive transport KW - denitrification Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001307 ER - TY - THES A1 - Deshpande, Atul Suresh T1 - Fabrication of porous metal oxides for catalytic application using templating techniques T1 - Herstellung poröser Metalloxide für katalytische Anwendungen unter Verwendung von Templatierungsverfahren N2 - Nanostrukturierte Materialien zeichnen sich dadurch aus, dass sie aus sehr kleinen Baueinheiten zusammengesetzt sind. Typischerweise liegt die Grössenordnung dieser Bausteine im Bereich von einigen Nanometern. Ein Nanometer entspricht 10-9 Meter. Dadurch bekommen nanostrukturierte Materialien oft verbesserte, vielfach sogar ganz neue Eigenschaften, die für viele heutige wie auch zukünftige Anwendungen von Vorteil sind. Ein Weg, um solche nanostrukturierte Materialien herzustellen, ist die sogenannte „Templatierungsmethode“. Das Templat besteht aus einem einzelnen Molekül, einer Ansammlung von Molekülen oder aus einem festen Objekt. Beim Aufbau des nanostrukturierten Materials wirkt das Templat als Schablone oder als Gussform und beeinflusst damit die Struktur des Endproduktes. Normalerweise besteht dieser Prozess aus mehreren Schritten. Zuerst wird der Raum um das Templat mit dem Ausgangsstoff umhüllt oder ausgefüllt, dann wird der Ausgangsstoff chemisch in das gewünschte Endprodukt umgewandelt, wobei das Templat die Endform kontrolliert und am Schluss wird das Templat entfernt. Das geschieht meistens durch Erhitzen. Als Ausgangsstoff können dabei einzelne Moleküle verwendet werden, die sich leicht in das Endprodukt umwandeln lassen, oder aber vorgeformte Partikelchen, die nur noch zur entsprechenden Form angeordnet werden müssen. In dieser Arbeit wurden poröse Metalloxid-Kügelchen hergestellt, die aus einem Gemisch aus Titanoxid und entweder Aluminium-, Gallium- oder Indiumoxid bestehen. Als Template wurden poröse Kunststoffkügelchen eingesetzt, die man sonst für Chromatographiezwecke braucht. Bei der Synthese wurden die Poren der Kunststoffkügelchen mit dem Ausgangsmaterial gefüllt und mit Wasser in ein amorphes Netzwerk umgewandelt. Danach werden die Kügelchen erhitzt, wobei das Kunststofftemplat zersetzt wird. Gleichzeitig wird das amorphe Gerüst in stabile, kristalline Wände umgewandelt, die die Form der Kügelchen auch dann noch behalten, wenn das Templat verschwunden ist. Mit einem ähnlichen Prozess wurden auch Kügelchen aus Cer-Zirkonoxid erhalten. Als Ausgangsstoff wurden dabei aber vorgeformte Cer-Zirkonoxid-Nanopartikel eingesetzt, die in die Poren der Kunststofftemplatkügelchen hinein diffundieren. Diese Cer-Zirkonoxid-Nanopartikel lassen sich auch für die Herstellung von porösen Pulvern verwenden, wobei dann nicht Polymerkügelchen, sondern hochgeordnete Ansammlungen von Block Copolymeren als Template verwendet werden. Form, Struktur und Eigenschaften all dieser Materialien wurden systematisch unter Anwendung verschiedenster Analysemethoden untersucht. Die auf Titanoxid-basierten Kügelchen wurden auch auf ihre photokatalytische Verwendung zum Abbau von umweltschädlichem 2-Chlorophenol untersucht. Die Cer-Zirkonoxid-Kügelchen wurden für die Herstellung von Wasserstoff aus Methanol getestet. Wasserstoff gilt als hoffungsvoller, sauberer Energieträger der Zukunft und kommt in Brennstoffzellen zum Einsatz. N2 - Nanostructured materials are the materials having structural features on the scale of nanometers i.e. 10-9 m. the structural features can enhance the natural properties of the materials or induce additional properties, which are useful for day to technology as well as the future technologies One way to synthesize nanostructured materials is using templating techniques. The templating process involves use of a certain “mould” or “scaffold” to generate the structure. The mould is called as the template, can be a single molecule or assembly of molecule or a larger object, which has its own structure. The product material can be obtained by filling the space around the template with a “precursor”, transformation of precursor into the desired material and then removal of template to get product. The precursor can be any chemical moiety that can be easily transformed in to the desired material. Alternatively the desired material is processed into very tiny bricks or “nano building blocks (NBB)” and the product is obtained by arrangement of the NBB by using a scaffold. We synthesized porous metal oxide spheres of namely TiO2-M2O3: titanium dioxide- M-oxide (M = aluminum, gallium and indium) TiO2-M2O3 and cerium oxide-zirconium oxide solid solution. We used porous polymeric beads as templates. These beads used for chromatographic purposes. For the synthesis of TiO2-M2O3 we used metal- alkoxides as precursor. The pore of beads were filled with precursor and then reacted with water to give transformation of the precursor to amorphous oxide network. The network is crystallized and template is removed by heat treatment at high temperatures. In a similar way we obtained porous spheres of CexZr1-xO2. For this we synthesized nanoparticle of CexZr1-xO2 and used then for the templating process to obtain porous CexZr1-xO2 spheres. Additionally, using the same nanoparticles we synthesized nano-porous powder using self-assembly process between a block-copolymers scaffold and nanoparticles. Morphological and physico-chemical properties of these materials were studies systematically by using various analytical techniques TiO2-M2O3 material were tested for photocatalytic degradation of 2-Chlorophenol a poisonous pollutant. While CexZr1-xO2 spheres were tested for methanol steam reforming reaction to generate hydrogen, which is a fuel for future generation power sources like fuel cells. All the materials showed good catalytic performance. KW - porous materials KW - metal oxides KW - catalytic application Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001324 ER - TY - THES A1 - Bergner, Andreas G. N. T1 - Lake-level fluctuations and Late Quaternary climate change in the Central Kenya Rift N2 - Diese Arbeit beschäftigt sich mit der Rekonstruktion von Klima in historischen Zeiten im tropischen Ostafrika. Nach einer Übersicht über die heutigen klimatischen Bedingungen der Tropen und den Besonderheiten des ostafrikanischen Klimas, werden die Möglichkeiten der Klimarekonstruktion anhand von Seesedimenten diskutiert. Es zeigt sich, dass die hoch gelegenen Seen des Zentralen Keniarifts, als Teil des Ostafrikanischen Grabensystems, besonders geeignete Klimaarchive darstellen, da sie sensibel auf klimatische Veränderungen reagieren. Veränderungen der Seechemie, wie sie in den Sedimenten aufgezeichnet werden, eignen sich um die natürlichen Schwankungen in der Quartären Klimageschichte Ostafrikas nachzuzeichnen. Basierend auf der guten 40Ar/39Ar- und 14C-Datierbarkeit der Seesedimente wird eine Chronologie der paläoökologischen Bedingungen anhand von Diatomeenvergesellschaftungen restauriert. Dabei zeigen sich für die Seen Nakuru, Elmenteita und Naivasha kurzfristige Transgression/ Regressions-Zyklen im Intervall von ca. 11.000 Jahren während des letzten (ca. 12.000 bis 6.000 J.v.H.) und vorletzten Interglazials (ca. 140.000 bis 60.000 J.v.H.). Zusätzlich kann ein allgemeiner, langfristiger Trend der Seeentwicklung von großen Frischwasserseen hin zu stärker salinen Gewässern innerhalb der letzen 1 Mio. Jahre festgestellt werden. Mittels Transferfunktionen und einem hydro-klimatischen Modellansatz können die restaurierten limnologischen Bedingungen als klimatische Schwankungen des Einzugsgebietes interpretiert werden. Wenngleich auch der zusätzliche Einfluss von tektonischen Veränderungen auf das Seeeinzugsgebiet und das Gewicht veränderter Grundwasserströme abgewogen werden, zeigt sich, dass allein geringfügig erhöhte Niederschlagswerte von ca. 30±10 % zu dramatischen Seespiegelanstiegen im Zentralen Keniarift führen. Aufgrund der etablierten hydrrologisch-klimatischen Wechselwirkungen werden Rückschlüsse auf die natürliche Variabilität des ostafrikanischen Klimas gezogen. Zudem wird die Sensitivität der Keniarift-Seen in Bezug auf die Stärke der äquatorialen Insolation und hinsichtilch variabler Oberflächenwassertemperaturen des Indischen Ozeans bewertet. N2 - In this work, an approach of paleoclimate reconstruction for tropical East Africa is presented. After giving a short summary of modern climate conditions in the tropics and the East African climate peculiarity, the potential of reconstructing climate from paleolake sediments is discussed. As demonstrated, the hydrologic sensitivity of high-elevated closed-basin lakes in the Central Kenya Rift yields valuable guaranties for the establishment of long-term climate records. Temporal fluctuations of the limnological characteristics saved in the lake sediments are used to define variations in the Quaternary climate history. Based on diatom analyses in radiocarbon- and 40Ar/39Ar-dated sediments, a chronology of paleoecologic fluctuations is developed for the Central Kenya Rift -lakes Nakuru, Elmenteita and Naivasha. At least during the penultimate interglacial (around 140 to 60 kyr BP) and during the last interglacial (around 12 to 4 kyr BP), these lakes experienced several transgression-regression cycles on time intervals of about 11,000 years. Additionally, a long-term trend of lake evolution is found suggesting the general succession from deep freshwater lakes towards more saline waters during the last million years. Using ecologic transfer functions and a simple lake-balance model, the observed paleohydrologic fluctuations are linked to potential precipitation-evaporation changes in the lake basins. Though also tectonic influences on the drainage pattern and the effect of varied seepage are investigated, it can be shown that already a small increase in precipitation of about 30±10 % may have affected the hydrologic budget of the intra-rift lakes within the reconstructed range. The findings of this study help to assess the natural climate variability of East Africa. They furthermore reflect the sensitivity of the Central Kenya Rift -lakes to fluctuations of large-scale climate parameters, such as solar radiation and sea-surface temperatures of the Indian Ocean. KW - Geologie KW - Diatomeen KW - Seen KW - Paläoklima KW - Modellierung KW - Afrika KW - geology KW - diatoms KW - lake KW - paleoclimate KW - modeling KW - Africa Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001428 ER - TY - THES A1 - Lemke, Britt T1 - Identification of Epo-independent red cell progenitors : the E-cad+ progenitors N2 - Erythrozyten zählen zu den am häufigsten vorkommenden terminal differenzierten Zelltypen des menschlichen Körpers. Durchschnittlich werden täglich ca. 2 x 1011 von ihnen im Körper eines erwachsenen Menschen produziert. Die reifen Erythrozyten entstehen aus multipotenten hämatopoetischen Stammzellen, die über Stadien von erythroiden Vorläuferzellen, erst den sogenannten burst forming units-erythroid (BFU-E) und später den colony forming units-erythroid (CFU-E), zu kernlosen hämoglobinisierten Zellen differenzieren. Für die Untersuchung der molekularen Mechanismen der humanen Erythropoese ist die effektive in vitro Amplifizierung einer weitgehend homogenen Population der Vorläuferzellen der einzelnen Entwicklungsstadien notwendig. Den Wachstumsfaktoren stem cell factor (SCF) und Erythropoietin (Epo) fällt dabei eine entscheidende Rolle zu. Unter ihrem synergistischen Einfluß lassen sich Epo-abhängige Zellpopulationen, die sich aus BFU-E und CFU-E Typ Zellen zusammensetzen, ausreichend amplifizieren (Panzenböck et al., 1998). Freyssinier et al., 1999 beschrieb erstmals die Isolierung einer Epo-unabhängigen Population von Vorläuferzellen (CD36+ Vorläuferzellen), die ebenfalls erythroide Eigenschaften aufweisen. Ziel dieser Arbeit war die Isolierung und Charakterisierung von Epo-unabhängigen Vorläuferzellen, die eine frühe erythroide und möglichst homogene Vorläuferzellpopulation darstellen und möglicherweise ein höheres Proliferationspotential aufweisen. Für die Identifizierung der Epo-unabhängigen Vorläuferzellen, wurden CD34+ Zellen aus Nabelschnurblut aufgereinigt und unter serumfreien Kulturbedingungen und unter Zusatz der Wachstumsfaktoren SCF, Interleukin 3 (IL-3) und eines Fusionsproteins aus IL-6 und löslichem IL-6 Rezeptor (hyper-IL-6) über einen Zeitraum von 8 Tagen kultiviert. Anschließend wurde eine Population von E-cadherin positiven (E-cad+) Zellen über immunomagnetische Selektion isoliert. Diese neu gewonnenen Epo-unabhängigen E-cad+ Vorläuferzellen wurden hinsichtlich ihres proliferativen Potentials und ihrer Differenzierungseigenschaften mit SCF/Epo-Vorläuferzellen und CD36+ Vorläuferzellen verglichen. Von allen drei Zelltypen wurden des weiteren detailierte molekulargenetische Analysen mittels DNA microarray Technologie durchgeführt und die resultierenden Genexpressionsmuster miteinander verglichen. Die Ergebnisse zeigen, dass die E-cad+ Vorläuferzellen eine frühe, weitgehend homogene Epo-unabhängige Population vom BFU-E Typ darstellen und durch entsprechende Änderungen der Kulturbedingungen zu einer in vitro Differenzierung angeregt werden können. Die E-cad+ Vorläuferzellen sind hinsichtlich ihres proliferativen Potentials, ihrer Reaktion auf verschiedene Wachstumsfaktoren, der Expression spezifischer Oberflächenmoleküle und ihrer Genexpressionsmuster mit SCF/Epo-Vorläuferzellen und CD36+ Vorläuferzellen vergleichbar. Aufgrund der Identifizierung unterschiedlich exprimierter Gene zwischen den Epo-unabhängigen E-cad+ und den Epo-abhängigen SCF/Epo Vorläuferzellen konnten Kanditatengene wie Galectin-3, Cyclin D1, der Anti-Müllerian Hormonrezeptor, Prostata-Differenzierungsfaktor und insulin-like growth factor binding protein 4 identifiziert werden, die als potentielle Regulatoren der Erythropoese in Betracht kommen könnten. Es konnte weiterhin gezeigt werden, dass CD36+ Vorläuferzellen, die aus der selben Zellpopulation wie die E-cad+ Vorläuferzellen immunomagnetisch selektioniert wurden, eine heterogene Population darstellen, die sowohl E-cadherin positive als auch negative Zellen enthält. Die Analyse der Genexpressionsmuster zeigte, dass in den CD36+ Vorläuferzellen zwar auch die Expression erythroid-spezifischen Gene nachgewiesen werden kann, hier aber im Gegensatz zu den E-cad+ Vorläuferzellen auch für Megakaryozyten spezifische Gene stark exprimiert sind. Die Ergebnisse dieser Arbeit tragen zu einem neuen Modell der in vivo Abläufe der Entwicklung roter Blutzellen bei und werden der weiteren Untersuchung der molekularen Mechanismen der Erythropoese dienen. N2 - Red cell development in adult humans results in the mean daily production of 2x1011 erythrocytes. Mature hemoglobinized and enucleated erythrocytes develop from multipotent hematopoietic stem/progenitor cells through more committed progenitor cell types such as BFU-E and CFU-E. The studies on the molecular mechanisms of erythropoiesis in the human system require a sufficient number of purified erythroid progenitors of the different stages of erythropoiesis. Primary human erythroid progenitors are difficult to obtain as a homogenous population in sufficiently high cell numbers. Various culture conditions for the in vitro cell culture of primary human erythroid progenitors have been previously described. Mainly, the culture resulted in the generation of rather mature stages of Epo-dependent erythroid progenitors. In this study our efforts were directed towards the isolation and characterization of more early red cell progenitors that are Epo-independent. To identify such progenitors, CD34+ cells were purified from cord blood and cultured under serum free conditions in the presence of the growth factors SCF, IL-3 and hyper-IL-6, referred to as SI2 culture conditions. By immunomagnetic bead selection of E-cadherin (E-cad) positive cells, E-cad+ progenitors were isolated. These Epo-independent E-cad+ progenitors have been amplified under SI2 conditions to large cell numbers. The E-cad+ progenitors were characterized for surface antigen expression by flow cytometry, response to growth factors in proliferation assay and for their differentiation potential into mature red cells. Additionally, the properties of E-cad+ progenitors were compared to those of two other erythroid progenitors: Epo-dependent progenitors described by Panzenböck et al. (referred to as SCF/Epo progenitor), and CD36+ progenitors described by Freyssinier et al. (Panzenböck et al., 1998; Freyssinier et al., 1999). Finally, the gene expression profile of E-cad+ progenitors was compared to the profiles of SCF/Epo progenitors and CD36+ progenitors using the DNA microarray technique. Based on our studies we propose that Epo-independent E-cad+ progenitors are early stage, BFU-E like progenitors. They respond to Epo, despite the fact that they were generated in the absence of Epo, and can completely undergo erythroid differentiation. Furthermore, we demonstrate that the growth properties, the growth factor response and the surface marker expression of E-cad+ progenitors are similar to those of the SCF/Epo progenitors and the CD36+ progenitors. By the comparison of gene profiles, we were also able to demonstrate that the Epo-dependent and Epo-independent red cell progenitors are very similar. Analyzing the molecular differences between E-cad+ and SCF/Epo progenitors revealed several candidate genes such as galectin-3, cyclin D1, AMHR, PDF and IGFBP4, which are potential regulators involved in red cell development. We also demonstrate that the CD36+ progenitors, isolated by immunomagentic bead selection, are a heterogeneous progenitor population containing an E-cad+ and an E-cad- subpopulation. Based on their gene expression profile, CD36+ progenitors seem to exhibit both erythroid and megakaryocytic features. These studies led to a more updated model of erythroid cell development that should pave the way for further studies on molecular mechanisms of erythropoiesis. KW - Erythropoese KW - Hämatopoetische Stammzellen KW - E-cadherin KW - human KW - erythropoiesis KW - hematopoetic stem cells KW - E-cadherin KW - human Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001432 ER - TY - THES A1 - Maercklin, Nils T1 - Seismic structure of the Arava Fault, Dead Sea Transform N2 - Ein transversales Störungssystem im Nahen Osten, die Dead Sea Transform (DST), trennt die Arabische Platte von der Sinai-Mikroplatte und erstreckt sich von Süden nach Norden vom Extensionsgebiet im Roten Meer über das Tote Meer bis zur Taurus-Zagros Kollisionszone. Die sinistrale DST bildete sich im Miozän vor etwa 17 Ma und steht mit dem Aufbrechen des Afro-Arabischen Kontinents in Verbindung. Das Untersuchungsgebiet liegt im Arava Tal zwischen Totem und Rotem Meer, mittig über der Arava Störung (Arava Fault, AF), die hier den Hauptast der DST bildet. Eine Reihe seismischer Experimente, aufgebaut aus künstlichen Quellen, linearen Profilen über die Störung und entsprechend entworfenen Empfänger-Arrays, zeigt die Untergrundstruktur in der Umgebung der AF und der Verwerfungszone selbst bis in eine Tiefe von 3-4 km. Ein tomographisch bestimmtes Modell der seismischen Geschwindigkeiten von P-Wellen zeigt einen starken Kontrast nahe der AF mit niedrigeren Geschwindigkeiten auf der westlichen Seite als im Osten. Scherwellen lokaler Erdbeben liefern ein mittleres P-zu-S Geschwindigkeitsverhältnis und es gibt Anzeichen für Änderungen über die Störung hinweg. Hoch aufgelöste tomographische Geschwindigkeitsmodelle bestätigen der Verlauf der AF und stimmen gut mit der Oberflächengeologie überein. Modelle des elektrischen Widerstands aus magnetotellurischen Messungen im selben Gebiet zeigen eine leitfähige Schicht westlich der AF, schlecht leitendes Material östlich davon und einen starken Kontrast nahe der AF, die den Fluss von Fluiden von einer Seite zur anderen zu verhindern scheint. Die Korrelation seismischer Geschwindigkeiten und elektrischer Widerstände erlaubt eine Charakterisierung verschiedener Lithologien im Untergrund aus deren physikalischen Eigenschaften. Die westliche Seite lässt sich durch eine geschichtete Struktur beschreiben, wogegen die östliche Seite eher einheitlich erscheint. Die senkrechte Grenze zwischen den westlichen Einheiten und der östlichen scheint gegenüber der Oberflächenausprägung der AF nach Osten verschoben zu sein. Eine Modellierung von seismischen Reflexionen an einer Störung deutet an, dass die Grenze zwischen niedrigen und hohen Geschwindigkeiten eher scharf ist, sich aber durch eine raue Oberfläche auf der Längenskala einiger hundert Meter auszeichnen kann, was die Streuung seismischer Wellen begünstigte. Das verwendete Abbildungsverfahren (Migrationsverfahren) für seismische Streukörper basiert auf Array Beamforming und der Kohärenzanalyse P-zu-P gestreuter seismischer Phasen. Eine sorgfältige Bestimmung der Auflösung sichert zuverlässige Abbildungsergebnisse. Die niedrigen Geschwindigkeiten im Westen entsprechen der jungen sedimentären Füllung im Arava Tal, und die hohen Geschwindigkeiten stehen mit den dortigen präkambrischen Magmatiten in Verbindung. Eine 7 km lange Zone seismischer Streuung (Reflektor) ist gegenüber der an der Oberfläche sichtbaren AF um 1 km nach Osten verschoben und lässt sich im Tiefenbereich von 1 km bis 4 km abbilden. Dieser Reflektor markiert die Grenze zwischen zwei lithologischen Blöcken, die vermutlich wegen des horizontalen Versatzes entlang der DST nebeneinander zu liegen kamen. Diese Interpretation als lithologische Grenze wird durch die gemeinsame Auswertung der seismischen und magnetotellurischen Modelle gestützt. Die Grenze ist möglicherweise ein Ast der AF, der versetzt gegenüber des heutigen, aktiven Asts verläuft. Der Gesamtversatz der DST könnte räumlich und zeitlich auf diese beiden Äste und möglicherweise auch auf andere Störungen in dem Gebiet verteilt sein. N2 - The Dead Sea Transform (DST) is a prominent shear zone in the Middle East. It separates the Arabian plate from the Sinai microplate and stretches from the Red Sea rift in the south via the Dead Sea to the Taurus-Zagros collision zone in the north. Formed in the Miocene about 17 Ma ago and related to the breakup of the Afro-Arabian continent, the DST accommodates the left-lateral movement between the two plates. The study area is located in the Arava Valley between the Dead Sea and the Red Sea, centered across the Arava Fault (AF), which constitutes the major branch of the transform in this region. A set of seismic experiments comprising controlled sources, linear profiles across the fault, and specifically designed receiver arrays reveals the subsurface structure in the vicinity of the AF and of the fault zone itself down to about 3-4 km depth. A tomographically determined seismic P velocity model shows a pronounced velocity contrast near the fault with lower velocities on the western side than east of it. Additionally, S waves from local earthquakes provide an average P-to-S velocity ratio in the study area, and there are indications for a variations across the fault. High-resolution tomographic velocity sections and seismic reflection profiles confirm the surface trace of the AF, and observed features correlate well with fault-related geological observations. Coincident electrical resistivity sections from magnetotelluric measurements across the AF show a conductive layer west of the fault, resistive regions east of it, and a marked contrast near the trace of the AF, which seems to act as an impermeable barrier for fluid flow. The correlation of seismic velocities and electrical resistivities lead to a characterisation of subsurface lithologies from their physical properties. Whereas the western side of the fault is characterised by a layered structure, the eastern side is rather uniform. The vertical boundary between the western and the eastern units seems to be offset to the east of the AF surface trace. A modelling of fault-zone reflected waves indicates that the boundary between low and high velocities is possibly rather sharp but exhibits a rough surface on the length scale a few hundreds of metres. This gives rise to scattering of seismic waves at this boundary. The imaging (migration) method used is based on array beamforming and coherency analysis of P-to-P scattered seismic phases. Careful assessment of the resolution ensures reliable imaging results. The western low velocities correspond to the young sedimentary fill in the Arava Valley, and the high velocities in the east reflect mainly Precambrian igneous rocks. A 7 km long subvertical scattering zone reflector is offset about 1 km east of the AF surface trace and can be imaged from 1 km to about 4 km depth. The reflector marks the boundary between two lithological blocks juxtaposed most probably by displacement along the DST. This interpretation as a lithological boundary is supported by the combined seismic and magnetotelluric analysis. The boundary may be a strand of the AF, which is offset from the current, recently active surface trace. The total slip of the DST may be distributed spatially and in time over these two strands and possibly other faults in the area. KW - Arava-Störung KW - Totes Meer Störungssystem KW - Seitenverschiebung KW - Seismik KW - seismische Geschwindigkeit KW - Tomographie KW - Migration KW - Magnetotellurik KW - Arava Fault KW - Dead Sea Transform KW - strike-slip fault KW - seismics KW - seismic velocity KW - tomography KW - seismic imaging KW - migration KW - magnetotellurics Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001469 ER - TY - THES A1 - Xü, Chenggang T1 - Preparation and characterization of vapour deposited films based on substituted 2,5-diphenyl-1,3,4-oxadiazole derivatives N2 - Diese Arbeit befasst sich mit dem Einfluss der molekularen Struktur von 2,5-Diphenyl-1,3,4-Oxadiazol-Derivaten auf die Präparierung dünner Schichten mittels Vakuumdeposition. Dünne Schichten von diesen Substanzen wurden auf Si/SiO2 aufgedampft und ihre Struktur systematisch mittels XSR, AFM und IR untersucht. Das Ergebnis zeigt, dass die Schichtstrukturen offenbar von Substratetemperatur (Ts) abhängig sind. Im untersuchten Ts-Bereich bilden etherverbrückte Oxadiazole immer geordnete Schichten und die Schichtperiodicität hängt linear von der Längen der aliphatischen Ketten, während sich bei den amidverbrückten Oxadiazolen nur bei hohen Ts geordnete Schichten bilden können. Diese Unterschiede sind auf die intermolekularen Wasserstoffbrücken zurückzuführen. Der Tilt-Winkel der Moleküle ist durch die Wechselwirkung zwischen dem aromatischen Teil bestimmt. Die Wechselwirkungen zwischen den Kopfgruppen können durch Tempern abgeschwächt werden und führen zur Strukturumwandlung von Schichten, die auf etherverbrückten Oxadiazolen basieren. Alle Schichten von etherverbrückten Oxadiazolen haben Doppelschicht-Struktur, aber amidverbrückte Oxadiazole bilden nur Doppelschicht-Strukturen, wenn die Moleküle eine Kopfgruppe besitzen. N2 - The correlations between the chemical structures of the 2,5-diphenyl-1,3,4-oxadiazole compounds and their corresponding vapour deposited film structures on Si/SiO2 were systematically investigated with AFM, XSR and IR for the first time. The result shows that the film structure depends strongly on the substrate temperature (Ts). For the compounds with ether bridge group, the film periodicity depends linearly on the length of the aliphatic chain. The films based on those oxadiazols have ordered structure in the investigated substrate temperature region, while die amide bridged compounds form ordered film only at high Ts due to the formation of intermolecular H-bond. The tilt angle of most molecules is determined by the pi-pi complexes between the molecules. The intermolecular interaction between head groups leads to the structural transformation during the thermal treatment after deposition. All the ether bridged oxadiazoles form films with bilayer structure, while amide bridged oxadiazole form film bilayer structure only when the molecule has a head group. KW - 1 KW - 3 KW - 4-oxadiazol KW - Vapour Deposition KW - Dünnschichten KW - AFM KW - X-ray KW - Infrarot Spektroskopie KW - intermolekülare Wechselwirkung KW - Hochvakuum KW - 1 KW - 3 KW - 4-oxadiazole KW - vapour deposition KW - Thin film KW - AFM KW - X-ray KW - Infrared spectroscopy KW - intermolecular interaction KW - high vacuum Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001358 ER - TY - THES A1 - Trommer, Jochen T1 - Distributed optimality N2 - In dieser Dissertation schlage ich eine Synthese (Distributed Optimality, DO) von Optimalitätstheorie und einem derivationellen, morphologischem Asatz, Distributed Morphology (DM; Halle & Marantz, 1993) vor. Durch die Integration von OT in DM wird es möglich, Phänomene, die in DM durch sprachspezifische Regeln oder Merkmale von lexikalischen Einträge erfasst werden, auf die Interaktion von verletzbaren, universellen Constraints zurückzuführen. Andererseits leistet auch DM zwei substantielle Beiträge zu DO, Lokalität und Impoverishment. Lokalität erlaubt eine formal einfache Interpretation von DO, während sich Impoverishment als unverzichtbar erweist, um Kongruenz-Morphologie adäquat zu beschreiben. Die empirische Grundlage der Arbeit sind die komplexen Kongruenzsysteme von genetisch unterschiedlichen Sprachen. Der theoretische Schwerpunkt liegt in zwei Bereichen: Erstens, sogenannte Direkt/Invers-Markierung, für die gezeigt wird, dass eine Behandlung durch Constraints über Merkmalsrealisierung am angemessensten ist. Zweitens, die Effekte von Abfolge-Constraints, die den Satus von Affixen als Präfixe und Suffixe sowie ihre relative Reihenfolge regeln. Eine konkrete Typologie für die Abfolge von Kongruenz-Affixen auf der Basis von OT-Constraints wird vorgeschlagen. N2 - In this thesis I propose a synthesis (Distributed Optimality, DO) between Optimality Theory (OT, Prince & Smolensky, 1993) and a morphological framework in a genuine derivational tradition, namely Distributed Morphology (DM) as developed by Halle & Marantz (1993). By carrying over the apparatus of OT to DM, phenomena which are captured in DM by language-specific rules or features of lexical entries, are given a more principled account in the terms of ranked universal constraints. On the other hand, also the DM part makes two contributions, namely strong locality and impoverishment. The first gives rise to a simple formal interpretation of DO, while the latter is shown to be indispensable in any theoretically satisfying account of agreement morphology. The empirical basis of the work is given by the complex agreement morphology of genetically different languages. Theoretical focus is mainly on two areas: First, so-called direction marking which is shown to be preferably treated in terms of constraints on feature realization. Second, the effects of precedence constraints which are claimed to regulate the status of agreement affixes as prefixes or suffixes and their respective order. A universal typology for the order of agreement categories by means of OT-constraints is proposed. KW - Morphologie KW - Optimalitätstheorie KW - Flexion KW - Optimalitätstheorie KW - Affixabfolge KW - morphology KW - Optimality Theory KW - inflection KW - Distributed Morphology KW - affix order Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001377 ER - TY - THES A1 - Boström, Kim T1 - Lossless quantum data compression and secure direct communication N2 - Diese Dissertation behandelt die Kodierung und Verschickung von Information durch einen Quantenkanal. Ein Quantenkanal besteht aus einem quantenmechanischen System, welches vom Sender manipuliert und vom Empfänger ausgelesen werden kann. Dabei repräsentiert der individuelle Zustand des Kanals die Nachricht. Die zwei Themen der Dissertation umfassen 1) die Möglichkeit, eine Nachricht in einem Quantenkanal verlustfrei zu komprimieren und 2) die Möglichkeit eine Nachricht von einer Partei zu einer einer anderen direkt und auf sichere Weise zu übermitteln, d.h. ohne dass es einer dritte Partei möglich ist, die Nachricht abzuhören und dabei unerkannt zu bleiben. Die wesentlichen Ergebnisse der Dissertation sind die folgenden. Ein allgemeiner Formalismus für Quantencodes mit variabler Länge wird ausgearbeitet. Diese Codes sind notwendig um verlustfreie Kompression zu ermöglichen. Wegen der Quantennatur des Kanals sind die codierten Nachrichten allgemein in einer Superposition von verschiedenen Längen. Es zeigt sich, daß es unmöglich ist eine Quantennachricht verlustfrei zu komprimieren, wenn diese dem Sender nicht apriori bekannt ist. Im anderen Falle wird die Möglichkeit verlustfreier Quantenkompression gezeigt und eine untere Schranke für die Kompressionsrate abgeleitet. Des weiteren wird ein expliziter Kompressionsalgorithmus konstruiert, der für beliebig vorgegebene Ensembles aus Quantennachrichten funktioniert. Ein quantenkryptografisches Prokoll - das “Ping-Pong Protokoll” - wird vorgestellt, welches die sichere direkte übertragung von klassischen Nachrichten durch einen Quantenkanal ermöglicht. Die Sicherheit des Protokolls gegen beliebige Abhörangriffe wird bewiesen für den Fall eines idealen Quantenkanals. Im Gegensatz zu anderen quantenkryptografischen Verfahren ist das Ping-Pong Protokoll deterministisch und kann somit sowohl für die Übermittlung eines zufälligen Schlüssels als auch einer komponierten Nachricht verwendet werden. Das Protokoll is perfekt sicher für die Übertragung eines Schlüssels und quasi-sicher für die direkte Übermittlung einer Nachricht. Letzteres bedeutet, dass die Wahrscheinlichkeit eines erfolgreichen Abhörangriffs exponenziell mit der Länge der Nachricht abnimmt. N2 - This thesis deals with the encoding and transmission of information through a quantum channel. A quantum channel is a quantum mechanical system whose state is manipulated by a sender and read out by a receiver. The individual state of the channel represents the message. The two topics of the thesis comprise 1) the possibility of compressing a message stored in a quantum channel without loss of information and 2) the possibility to communicate a message directly from one party to another in a secure manner, that is, a third party is not able to eavesdrop the message without being detected. The main results of the thesis are the following. A general framework for variable-length quantum codes is worked out. These codes are necessary to make lossless compression possible. Due to the quantum nature of the channel, the encoded messages are in general in a superposition of different lengths. It is found to be impossible to compress a quantum message without loss of information if the message is not apriori known to the sender. In the other case it is shown that lossless quantum data compression is possible and a lower bound on the compression rate is derived. Furthermore, an explicit compression scheme is constructed that works for arbitrarily given source message ensembles. A quantum cryptographic protocol - the “ping-pong protocol” - is presented that realizes the secure direct communication of classical messages through a quantum channel. The security of the protocol against arbitrary eavesdropping attacks is proven for the case of an ideal quantum channel. In contrast to other quantum cryptographic protocols, the ping-pong protocol is deterministic and can thus be used to transmit a random key as well as a composed message. The protocol is perfectly secure for the transmission of a key, and it is quasi-secure for the direct transmission of a message. The latter means that the probability of successful eavesdropping exponentially decreases with the length of the message. KW - quanteninformation KW - quantenkodierung KW - quantenkanal KW - kompression KW - kryptografie KW - sichere Übertragung KW - quantum information KW - quantum channel KW - compression KW - cryptography KW - secure communication Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001383 ER - TY - THES A1 - Nikolov, Vesselin Kirolov T1 - Model membranes grafted with long polymers N2 - Wir untersuchen, welchen Einfluss die Verankerung von langen, hydrophilen Polymeren in Lipidmembranen auf deren elastische Eigenschaften ausübt. Theoretisch werden zwei Grenzbereiche für die spontane Krümmung der Membran erwartet: i) bei kleinen Oberflächenkonzentrationen des Polymers (Pilzgebiet) sollte die spontane Krümmung linear von der Oberflächendichte des verankerten Polymers abhängen; ii) bei hoher Bedeckung (Bürstengebiet) sollte die Abhängigkeit quadratisch sein. Wir versuchen, Vorhersagen für das Bürstengebiet zu prüfen, indem wir die morphologischen Veränderungen beobachten, die bei Riesen (Giant)- Vesikeln hervorgerufen werden. Als lange Polymere verwenden wir fluoreszenzmarkierte λ-Phage DNA Moleküle, die durch eine Biotin-Avidin-Biotin Verbindung an biotinhaltigen Lipidvesikeln befestigt sind. Wir kontrollieren die Oberflächenkonzentration der Anker durch Variation der Menge an biotinhaltigem Lipid in der Membran. Die Menge der an der Membran verankerten DNA wird durch Fluoreszenzmessungen quantifiziert. Änderungen in den elastischen Eigenschaften der Membran bei Anbindung der DNA, werden über eine Analyse der Vesikel-Fluktuationen kontrolliert. Die spontane Krümmung der Membran steigt mit der Oberflächenbeladung. Bei höheren Verankerungen bilden die Vesikel Knospen (budding). Die Größe der Knospen kann ebenfalls zur Bestimmung der Krümmung der Membran verwendet werden. Der Einfluss auf die Biegesteifigkeit ist Thema weiterer Untersuchungen. N2 - We study the effect on the elastic properties of lipid membranes induced by anchoring of long hydrophilic polymers. Theoretically, two limiting regimes for the membrane spontaneous curvature are expected : i) at low surface polymer concentration (mushroom regime) the spontaneous curvature should scale linearly with the surface density of anchored polymers; ii) at high coverage (brush regime) the dependence should be quadratic. We attempt to test the predictions for the brush regime by monitoring the morphological changes induced on giant vesicles. As long polymers we use fluorescently labeled λ-phage DNA molecules which are attached to biotinylated lipid vesicles with a biotin-avidin-biotin linkage. By varying the amount of biotinylated lipid in the membrane we control the surface concentration of the anchors. The amount of anchored DNA to the membrane is quantified with fluorescence measurements. Changes in the elastic properties of the membrane as DNA grafts to it are monitored via analysis of the vesicle fluctuations. The spontaneous curvature of the membrane increases as a function of the surface coverage. At higher grafting concentrations the vesicles bud. The size of the buds can also be used to assess the membrane curvature. The effect on the bending stiffness is a subject of further investigation. KW - membrane curvature KW - anchored polymer KW - fluctuations KW - avidin Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001409 ER - TY - THES A1 - Albus, Alexander P. T1 - Mixtures of Bosonic and Fermionic atoms N2 - Ziel der Arbeit war die systematische theoretische Behandlung von Gemischen aus bosonischen und fermionischen Atomen in einem Parameterbereich, der sich zur Beschreibung von aktuellen Experimenten mit ultra-kalten atomaren Gasen eignet. Zuerst wurde der Formalismus der Quantenfeldtheorie auf homogene, atomare Boson-Fermion Gemische erweitert, um grundlegende Größen wie Quasiteilchenspektren, die Grundzustandsenergie und daraus abgeleitete Größen über die Molekularfeldtheorie hinaus zu berechnen. Unter Zuhilfenahme der dieser Resultate System wurde ein Boson-Fermion Gemisch in einem Fallenpotential im Rahmen der Dichtefunktionaltheorie beschrieben. Daraus konnten die Dichteprofile ermittelt werden und es ließen sich drei Bereiche im Phasendiagramm identifizieren: (i) ein Bereich eines stabilen Gemisches, (ii) ein Bereich, in dem die Spezies entmischt sind und (iii) ein Bereich, in dem das System kollabiert. Im letzten dieser drei Fällen waren Austausch--Korrelationseffekte signifikant. Weiterhin wurde die Änderung der kritischen Temperatur der Bose-Einstein-Kondensation aufgrund der Boson-Fermion-Wechselwirkung berechnet. Verursacht wird dieser Effekt von Dichtumverteilungen aufgrund der Wechselwirkung. Dann wurden Boson-Fermion Gemische in optischen Gittern betrachtet. Ein Stabilitätskriterium gegen Phasenentmischung wurde gefunden und es ließen sich Bedingungen für einen supraflüssig zu Mott-isolations Phasenübergang angeben. Diese wurden sowohl mittels einer Molekularfeldrechnung als auch numerisch im Rahmen eines Gutzwilleransatzes gefunden. Es wurden weiterhin neuartige frustrierte Grundzustände im Fall von sehr großen Gitterstärken gefunden. N2 - The theory of atomic Boson-Fermion mixtures in the dilute limit beyond mean-field is considered in this thesis. Extending the formalism of quantum field theory we derived expressions for the quasi-particle excitation spectra, the ground state energy, and related quantities for a homogenous system to first order in the dilute gas parameter. In the framework of density functional theory we could carry over the previous results to inhomogeneous systems. We then determined to density distributions for various parameter values and identified three different phase regions: (i) a stable mixed regime, (ii) a phase separated regime, and (iii) a collapsed regime. We found a significant contribution of exchange-correlation effects in the latter case. Next, we determined the shift of the Bose-Einstein condensation temperature caused by Boson-Fermion interactions in a harmonic trap due to redistribution of the density profiles. We then considered Boson-Fermion mixtures in optical lattices. We calculated the criterion for stability against phase separation, identified the Mott-insulating and superfluid regimes both, analytically within a mean-field calculation, and numerically by virtue of a Gutzwiller Ansatz. We also found new frustrated ground states in the limit of very strong lattices. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2004 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam. KW - Quantendegeneriert BEK FDS ultrakalte Atome KW - quantum degenerate BEC FDS ultacold atoms Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001065 ER - TY - THES A1 - Hofmann, Nadi T1 - Value education of youth N2 - Am Anfang und am Ende des Schuljahres 2000/2001 wurden die Werteprioritäten der Schüler/innen und Lehrer/innen an acht verschiedenen Schulen gemessen. Mit dieser Studie wurde das theoretische Modell einer universellen Struktur menschlicher Werteprioritäten (Schwartz, 1992) erneut bestätigt. Zu beiden Messzeitpunkten ergaben sich gleiche Geschlechtseffekte wie auch ähnlich hohe positive Zusammenhänge zwischen Religiosität und Schulbindung. Die Schüler/innen der nicht-religiösen Schulen gaben Hedonism als höchsten, und Tradition als niedrigsten Wert an. In den religiösen Schulen waren Benevolence und Self-Direction die meist geschätzten Werte, während Power die niedrigste Priorität besaß. Die Veränderung der Werte Conformity, Hedonism und Universalism ließ sich sowohl durch die Religiosität der Schüler/innen wie auch durch deren Schulzugehörigkeit vorhersagen. Die Veränderung von Power, Tradition, Benevolence und Achievement hingegen wurde primär durch Religiosität vorhergesagt. In drei der vier Schulen korrelierte die Ähnlichkeit der Schüler und Lehrer positiv mit der Schulbindung der Schüler/innen. Die Schüler-Lehrer Ähnlichkeit korrelierte über alle Schulen positiv mit Schulleistung. N2 - The value priorities of students and teachers were measured at eight different schools at the beginning and the end of the school year 2000/2001. This study once again confirmed the theoretical model of a universal structure of human values (Schwartz, 1992). At both measurement times, similar gender differences, as well as positive correlations between religiosity and school commitment were found. The students from the non-religious schools determined Hedonism as their highest, and Tradition as their lowest value priority. In the religious schools, Benevolence and Self-Direction were the highest values, whereas Power was found to be the lowest value priority. The change of the values Conformity, Hedonism, and Universalism was predicted both through the students′ religiosity and their type of school. The change of the values Power, Tradition, Benevolence, and Achievement, however, was mainly predicted through their religiosity. In three out of four schools the student-teacher similarity correlated positively with the school commitment of the students. Across all schools student-teacher similarity correlated positively with academic achievement. KW - Werte KW - Werteerziehung KW - Werteprioritäten KW - Schulen KW - Schüler KW - Lehrer KW - Schulbindung KW - Religiosität KW - MDS KW - Regressionsanalysen KW - values KW - value education KW - value priorities KW - schools KW - students KW - teachers KW - school commitment KW - religiosity KW - MDS KW - regression analysis Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000926 ER - TY - THES A1 - Rosner, Martin Siegfried T1 - Boron as a tracer for material transfer in subduction zones N2 - Spät-miozäne bis quartäre Vulkanite der vulkanischen Front und der Back-arc Region der Zentralen Vulkanischen Zone in den Anden weisen eine weite Spannbreite von delta 11B Werten (+4 bis –7 ‰) and Borkonzentrationen (6 bis 60 ppm) auf. Die positiven delta 11B Werte der Vulkanite der vulkanischen Front zeigen eine Beteiligung einer 11B-reichen Komponente am Aufbau der andinen Vulkanite, die am wahrscheinlichsten aus Fluiden der alterierten ozeanischen Kruste der abtauchenden Nazca-Platte stammt. Diese Beobachtung macht einen alleinigen Ursprung der untersuchten Laven aus der kontinentalen Kruste und/oder dem Mantelkeil unwahrscheinlich. Der Trend zu systematisch negativeren delta 11B Werten und kleineren B/Nb Verhältnissen von der vulkanischen Front zum Back-arc wird als Resultat einer Borisotopenfraktionierung einhergehend mit einer stetigen Abnahme der Fluidkomponente und einer relativ konstanten krustalen Kontamination, die sich durch relativ gleichbleibende Sr, Nd und Pb Isotopenverhältnisse ausdrückt, interpretiert. Weil die delta 11B Variation über den andinen vulkanischen Bogen sehr gut mit einer modellierten, sich als Funktion der Temperatur dynamisch verändernden, Zusammensetzung des Subduktionszonenfluides übereinstimmt, folgern wir, dass die Borisotopenzusammensetzung von Arc-Vulkaniten durch die sich dynamisch ändernde delta 11B Signatur eines Bor-reichen Subduktionsfluides bestimmt ird. Durch die Abnahme dieses Subduktionsfluides während der Subduktion nimmt der Einfluss der krustalen Kontamination auf die Borisotopie der Arc-Vulkanite im Back-arc zu. In Anbetracht der Borisotopenfraktionierung müssen hohe delta 11B Werte von Arc-Vulkaniten nicht notwendigerweise Unterschiede in der initialen Zusammensetzung der subduzierten Platte reflektieren. Eine Dreikomponenten Mischungskalkulation zwischen Subduktionsfluid, dem Mantelkeil und der kontinentalen Kruste, die auf Bor-, Strontium- und Neodymiumisotopendaten beruht, zeigt, dass das Subduktionsfluid die Borisotopie des fertilen Mantels dominiert und, dass die primären Arc-Magmen durchschnittlich einen Anteil von 15 bis 30 % krustalem Materiales aufweisen. N2 - Late Miocene to Quaternary volcanic rocks from the frontal arc to the back-arc region of the Central Volcanic Zone in the Andes show a wide range of delta 11B values (+4 to -7 ‰) and boron concentrations (6 to 60 ppm). Positive delta 11B values of samples from the volcanic front indicate involvement of a 11B-enriched slab component, most likely derived from altered oceanic crust, despite the thick Andean continental lithosphere, and rule out a pure crust-mantle origin for these lavas. The delta 11B values and B concentrations in the lavas decrease systematically with increasing depth of the Wadati-Benioff Zone. This across-arc variation in delta 11B values and decreasing B/Nb ratios from the arc to the back-arc samples are attributed to the combined effects of B-isotope fractionation during progressive dehydration in the slab and a steady decrease in slab-fluid flux towards the back arc, coupled with a relatively constant degree of crustal contamination as indicated by similar Sr, Nd and Pb isotope ratios in all samples. Modelling of fluid-mineral B-isotope fractionation as a function of temperature fits the across-arc variation in delta 11B and we conclude that the B-isotope composition of arc volcanics is dominated by changing delta 11B composition of B-rich slab-fluids during progressive dehydration. Crustal contamination becomes more important towards the back-arc due to the decrease in slab-derived fluid flux. Because of this isotope fractionation effect, high delta 11B signatures in volcanic arcs need not necessarily reflect differences in the initial composition of the subducting slab. Three-component mixing calculations for slab-derived fluid, the mantle wedge and the continental crust based on B, Sr and Nd isotope data indicate that the slab-fluid component dominates the B composition of the fertile mantle and that the primary arc magmas were contaminated by an average addition of 15 to 30 % crustal material. KW - Borisotope; Zentrale Anden; kontinentaler Arc-Vulkanismus; Across-arc Variation; Borisotopenfraktionierung; krustale Kontamination KW - Boron isotopes; Central Andes; continental arc volcanism; across-arc variation; boron isotope fractionation; crustal contamination Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000899 ER - TY - THES A1 - Jaster, Nicole T1 - Ratchet models of molecular motors N2 - Transportvorgänge in und von Zellen sind von herausragender Bedeutung für das Überleben des Organismus. Muskeln müssen sich kontrahieren können, Chromosomen während der Mitose an entgegengesetzte Enden der Zelle bewegt und Organellen, das sind von Membranen umschlossene Kompartimente, entlang molekularer Schienen transportiert werden. Molekulare Motoren sind Proteine, deren Hauptaufgabe es ist, andere Moleküle zu bewegen. Dazu wandeln sie die bei der ATP-Hydrolyse freiwerdende chemische Energie in mechanische Arbeit um. Die Motoren des Zellskeletts gehören zu den drei Superfamilien Myosin, Kinesin und Dynein. Ihre Schienen sind Filamente des Zellskeletts, Actin und die Microtubuli. In dieser Arbeit werden stochastische Modelle untersucht, welche dazu dienen, die Fortbewegung dieser linearen molekularen Motoren zu beschreiben. Die Skala, auf der wir die Bewegung betrachten, reicht von einzelnen Schritten eines Motorproteins bis in den Bereich der gerichteten Bewegung entlang eines Filaments. Ein Einzelschritt überbrückt je nach Protein etwa 10 nm und wird in ungefähr 10 ms zurückgelegt. Unsere Modelle umfassen M Zustände oder Konformationen, die der Motor annehmen kann, während er sich entlang einer eindimensionalen Schiene bewegt. An K Orten dieser Schiene sind Übergänge zwischen den Zuständen möglich. Die Geschwindigkeit des Proteins lässt sich in Abhängigkeit von den vertikalen Übergangsraten zwischen den einzelnen Zuständen analytisch bestimmen. Wir berechnen diese Geschwindigkeit für Systeme mit bis zu vier Zuständen und Orten und können weiterhin eine Reihe von Regeln ableiten, die uns einschätzen helfen, wie sich ein beliebiges vorgegebenes System verhalten wird. Darüber hinaus betrachten wir entkoppelte Subsysteme, also einen oder mehrere Zustände, die keine Verbindung zum übrigen System haben. Mit einer bestimmten Wahrscheinlichkeit kann ein Motor einen Zyklus von Konformationen durchlaufen, mit einer anderen Wahrscheinlichkeit einen davon unabhängigen anderen. Aktive Elemente werden in realen Transportvorgängen durch Motorproteine nicht auf die Übergänge zwischen den Zuständen beschränkt sein. In verzerrten Netzwerken oder ausgehend von der diskreten Mastergleichung des Systems können auch horizontale Raten spezifiziert werden und müssen weiterhin nicht mehr die Bedingungen der detaillierten Balance erfüllen. Damit ergeben sich eindeutige, komplette Pfade durch das jeweilige Netzwerk und Regeln für die Abhängigkeit des Gesamtstroms von allen Raten des Systems. Außerdem betrachten wir die zeitliche Entwicklung für vorgegebene Anfangsverteilungen. Bei Enzymreaktionen gibt es die Idee des Hauptpfades, dem diese bevorzugt folgen. Wir bestimmen optimale Pfade und den maximalen Fluss durch vorgegebene Netzwerke. Um darüber hinaus die Geschwindigkeit des Motors in Abhängigkeit von seinem Treibstoff ATP angeben zu können, betrachten wir mögliche Reaktionskinetiken, die den Zusammenhang zwischen den unbalancierten Übergangsraten und der ATP-Konzentration bestimmen. Je nach Typ der Reaktionskinetik und Anzahl unbalancierter Raten ergeben sich qualitativ unterschiedliche Verläufe der Geschwindigkeitskurven in Abhängigkeit von der ATP-Konzentration. Die molekularen Wechselwirkungspotentiale, die der Motor entlang seiner Schiene erfährt, sind unbekannt.Wir vergleichen unterschiedliche einfache Potentiale und die Auswirkungen auf die Transportkoeffizienten, die sich durch die Lokalisation der vertikalen Übergänge im Netzwerkmodell im Vergleich zu anderen Ansätzen ergeben. N2 - Transport processes in and of cells are of major importance for the survival of the organism. Muscles have to be able to contract, chromosomes have to be moved to opposing ends of the cell during mitosis, and organelles, which are compartments enclosed by membranes, have to be transported along molecular tracks. Molecular motors are proteins whose main task is moving other molecules.For that purpose they transform the chemical energy released in the hydrolysis of ATP into mechanical work. The motors of the cytoskeleton belong to the three super families myosin, kinesin and dynein. Their tracks are filaments of the cytoskeleton, namely actin and the microtubuli. Here, we examine stochastic models which are used for describing the movements of these linear molecular motors. The scale of the movements comprises the regime of single steps of a motor protein up to the directed walk along a filament. A single step bridges around 10 nm, depending on the protein, and takes about 10 ms, if there is enough ATP available. Our models comprise M states or conformations the motor can attain during its movement along a one-dimensional track. At K locations along the track transitions between the states are possible. The velocity of the protein depending on the transition rates between the single states can be determined analytically. We calculate this velocity for systems of up to four states and locations and are able to derive a number of rules which are helpful in estimating the behaviour of an arbitrary given system. Beyond that we have a look at decoupled subsystems, i.e., one or a couple of states which have no connection to the remaining system. With a certain probability a motor undergoes a cycle of conformational changes, with another probability an independent other cycle. Active elements in real transport processes by molecular motors will not be limited to the transitions between the states. In distorted networks or starting from the discrete Master equation of the system, it is possible to specify horizontal rates, too, which furthermore no longer have to fulfill the conditions of detailed balance. Doing so, we obtain unique, complete paths through the respective network and rules for the dependence of the total current on all the rates of the system. Besides, we view the time evolutions for given initial distributions. In enzymatic reactions there is the idea of a main pathway these reactions follow preferably. We determine optimal paths and the maximal flow for given networks. In order to specify the dependence of the motor's velocity on its fuel ATP, we have a look at possible reaction kinetics determining the connection between unbalanced transitions rates and ATP-concentration. Depending on the type of reaction kinetics and the number of unbalanced rates, we obtain qualitatively different curves connecting the velocity to the ATP-concentration. The molecular interaction potentials the motor experiences on its way along its track are unknown. We compare different simple potentials and the effects the localization of the vertical rates in the network model has on the transport coefficients in comparison to other models. KW - Molekularer Motor KW - stochastische Ratsche KW - Motorzyklus KW - stochastisches Netzwerk KW - Motorgeschwindigkeit KW - molecular motor KW - stochastic ratchet KW - motor cycle KW - stochastic network KW - motor velocity Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000867 ER - TY - THES A1 - Kito, Tadashi T1 - Heterogeneities in the D” layer beneath the southwestern Pacific inferred from anomalous P- and S-waves N2 - Die P- und S-Wellen-Geschwindigkeitsstruktur der D” Schicht unter dem südwestlichen Pazifik wurde mittels kurzperiodischer Daten von 12 Tiefbeben in der Tonga-Fiji-Region untersucht, die vom J-Array und Hi-net-Array in Japan registriert wurden. Es wurde für Punktstreuer und ebene Schichten migriert, um schwache Signale zu extrahieren, die an relativ kleinräumigen Heterogenitäten des unteren Mantels entstehen. Um eine höhere Auflösung zu erzielen, wurde die Double Array-Methode (DAM) verwendet, die Empfängerarray und Quellarray gleichzeitig nutzt. Hierbei ist auch das Phase-Weighted Stack-Verfahren angewendet worden, um inkohärentes Rauschen zu reduzieren und somit schwache kohärente Signale aus dem unteren Mantel aufzulösen. Das Ergebnis der Ebenen-Schichten-Methode (RWB) zeigt, dass sich in der D”-Schicht negative Geschwindigkeitsdiskontinuitäten mit P-Wellen Geschwindigkeitskontrasten von höchstens –1 % in den Tiefen von 2520 km und 2650 km befinden. Zusätzlich befindet sich eine positive Geschwindigkeitsdiskontinuitäten in der Tiefe von 2800 km. Bei den S Wellen treten Geschwindigkeitsdiskontinuitäten in einer Tiefe von etwa 2550 km und 2850 km auf. Die scheinbare Verschiebung (50 km) der S-Wellen-Geschwindigkeitsdiskontinuität in der Tiefe von 2850 km deutet darauf hin, daß die S-Wellen-Geschwindigkeitsreduktion im unteren Mantel 2-3 mal stärker ist als die P- Wellen-Geschwindigkeitsreduktion. Ein zweidimensionaler Querschnitt, der mittels der RWB Methode und der Aufspaltung des Gesamtempfängerarrays in Subarrays gewonnen wurde, deutet darauf hin, dass die beobachteten Diskontinuitäten als intermittierende laterale Heterogenitäten mit einer Wellenlänge von einigen hundert km charakterisiert werden können. Die Kern-Mantel-Grenze (KMG) weist möglicherweise Undulationen mit einer Amplitude von 10 km auf. Die Migration weist nur schwache Hinweise für räumliche Streukörper auf. Die in der Migration abgebildeten heterogenen Regionen korrespondieren mit den mittels der RWB Methode gefundenen seismischen Diskontinuitäten. Bei den gefundenen Heterogenitäten könnte es sich um einen Teil eines aufsteigenden heißen Stroms unter dem südwestlichen Pazifik handeln. N2 - The P- and S-wave velocity structure of the D” layer beneath the southwestern Pacific was investigated by using short-period data from 12 deep events in the Tonga-Fiji region recorded by the J-Array and the Hi-net in Japan. A migration method and reflected wave beamforming (RWB) were used in order to extract weak signals originating from small-scale heterogeneities in the lowermost mantle. In order to acquire high resolution, a double array method (DAM) which integrates source array beamforming with receiver array beamforming was applied to the data. A phase-weighted stacking technique, which reduces incoherent noise by employing complex trace analysis, was also applied to the data, amplifying the weak coherent signals from the lowermost mantle. This combination greatly enhances small phases common to the source and receiver beams. The results of the RWB method indicate that seismic energy is reflected at discontinuities near 2520 km and 2650 km, which have a negative P-wave velocity contrast of 1 % at the most. In addition, there is a positive seismic discontinuity at a depth of 2800 km. In the case of the S-wave, reflected energy is produced almost at the same depth (2550 km depth). The different depth (50 km) between the P-wave velocity discontinuity at the depth of 2800 and a further S-wave velocity discontinuity at the depth of 2850 km may indicate that the S-wave velocity reduction in the lowermost mantle is about 2-3 times stronger that that of P wave. A look at a 2D cross section, constructed with the RWB method, suggests that the observed discontinuities can be characterized as intermittent lateral heterogeneities whose lateral extent is a few hundred km, and that the CMB might have undulations on a scale of less than 10 km in amplitude. The migration shows only weak evidence for the existence of scattering objects. Heterogeneous regions in the migration belong to the detected seismic discontinuities. These anomalous structures may represent a part of hot plume generated beneath the southwestern Pacific in the lowermost mantle. KW - Seismische Arrays KW - Kern-Mantel Grenze KW - D” Schicht KW - Seismic arrays KW - Core-mantle baundary KW - D” layer Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000847 ER - TY - THES A1 - John, Cédric Michaël T1 - Miocene climate as recorded on slope carbonates : examples from Malta (Central Mediterranean) and Northeastern Australia (Marion Plateau, ODP LEG 194) N2 - Im Rahmen dieser Doktorarbeit wurden die Hangkarbonate von zwei miozänen heterozoischen Karbonatsystemen näher untersucht: die Malta Inselgruppe (zentrales Mittelmeer) und das Marion Plateau (Nordost Australien, ODP Leg 194). Die Auswirkungen der mittelmiozänen Abkühlung (Mi3), die auf 13.6 Ma datiert wird und starken Einfluß auf die Sauerstoffisotopenkurve hatte, in den oben genannten Flachwassersystemen stellten das Ziel dieser Arbeit dar. Dieses Abkühlungsereignis beeinflußte außerdem sehr stark die ozeanographischen und klimatischen Muster, die im weiteren Verlauf zum modernen Eishausklima führten. So steht insbesondere die Vereisung von Ostantarktika mit diesem Ereignis in Verbindung. Diese Arbeit untersucht den Einfluß dieses Ereignisses auf Flachwassersysteme, um vorliegende Untersuchungen in Tiefwassersystemen zu ergänzen und so zum globalen Verständnis des miozänen Klimawechsels beizutragen. Die Profile auf der Maltainselgruppe wurden mit Hilfe von Kohlenstoff- und Sauerstoffisotopen Auswertungen im Gesamtgestein, Gesamtgesteinmineralogie, Tonmineralanalyse und organischer Geochemie untersucht. Durch einen Wechsel von karbonatischeren zu tonigeren Sedimenten beeinflußte das mittelmiozäne Abkühlungsereignis die Sedimentation in diesem Gebiet sehr stark. Weiterhin wurde beobachtet, daß jede Phase der antarktischen Vereisung, nicht nur das mittelmiozäne Hauptereignis, zu einem erhöhten terrigenen Eintrag in den Hangsedimenten der Maltainselgruppe führte. Akkumulationsraten zeigen, daß dieser erhöhte terrigene Eintrag den einzelnen Vereisungsperioden zusammenhängt und die karbonatischen Sedimente durch tonreiche Sedimente “verunreinigt” wurden. Das daraufhin entwickelte Modell erklärt diesen erhöhten terrigenen Eintrag mit einer nordwärtigen Verlagerung der innertropischen Konvergenzzone durch die Bildung von kalten, dichten Luftmassen, die zu verstärkten Niederschlägen in Nordafrika führten. Diese verstärkten Niederschläge (oder verstärkter afrikanischer Monsun) beeinflußten die kontinentale Verwitterung und den Eintrag, mit der Folge, daß verstärkt terrigene Sedimente im Bereich der Hangsedimente der Maltainselgruppe abgelagert wurden. Die tonreichen Intervalle weisen Ähnlichkeiten zu sapropelischen Ablagerungen auf, was mit Hilfe der Spektral analyse des Karbonatgehalts und der geochemischen Analyse des organischen Materials gezeigt wurde. Auf dem Marion Plateau wurden die Sauerstoff- und Kohlenstoffisotopenkurven anhand von Foraminiferen der Gattung Cibicidoides spp. rekonstruiert. Der Karbonatgehalt wurde mit Hilfe einer chemischen Methode (Coulometer) ermittelt. Genauso wie die Sedimente der Maltainselgruppe beeinflußte das mittelmiozäne Abkühlungsereignis (Mi3) auch die Sedimente auf dem Marion Plateau. So kam es bei 13,8 Ma, in etwa zur Zeit der Vereisung von Ostantarktika, zu einem Abfall der Karbonatakkumulationsraten. Weiterhin traten Änderungen in der Zusammensetzung der Sedimente auf, so nehmen neritische Karbonatfragmente ab, der planktische Foraminiferengehalt nimmt zu und es wurden verstärkt Quarz und Glaukonit abgelagert. Ein überraschendes Ergebnis ist die Tatsache, daß der große N12-N14 Meeresspiegelabfall um 11,5 Ma die Akkumulationsraten der Karbonate auf dem Hang nicht beeinflußte. Dieses Ergebnis ist umso erstaunlicher, da Karbonatplattformen normalerweise sehr sensitiv auf Meeresspiegeländerungen reagieren. Der Grund, warum sich die Karbonatakkumulationsraten schon um 13,6 Ma (Mi3) und nicht erst um 11,5 Ma (N12-N14) verringerten, liegt in der Tatsache, daß die ozeanischen Strömungen die Karbonatsedimentation auf dem Hang des Marion Plateau schon im Miozän kontrollierten. Das mittelmiozäne Ereignis (Mi3) erhöhte die Stärke diese Strömungen und als eine Ursache wurde die Karbonatakkumulation auf den Hängen reduziert. Die Amplitude des N12-N14 Meeresspiegelabfalls liegt bei 90 m unter der Berücksichtigung der Sauerstoffisotopendaten aus der Tiefsee und Berechnungen des Meeresspiegels anhand des “coastal onlaps”, die während Leg 194 gemacht wurden. Die Isotopendaten dieser Arbeit weisen hingegen auf einen verringerten Meeresspiegelabfall von 70 m hin. Als allgemeine Schlußfolgerung kann gesagt werden, daß der mittelmiozäne Klimaumschwung die Karbonatsysteme zumindest an den beiden untersuchten Lokalitäten beeinflußt hat. Allerdings waren die Auswirkungen sehr von den unterschiedlichen lokalen Gegebenheiten abhängig. Insbesondere wirkten sich die Anwesenheit einer Landmasse (Malta) und die Abwesenheit einer Barriere vor den Einflüssen des offenen Ozeans (Marion Plateau) stark auf die Ablagerung der Karbonate aus. N2 - This study investigated the slope carbonates of two Miocene carbonate systems: the Maltese Islands (in the Central Mediterranean) and the Marion Plateau (Northeastern Australia, drilled during ODP Leg 194). The aim of the study was to trace the impact of the Miocene cooling steps (events Mi1-Mi6) in these carbonate systems, especially the Mi3 event, which took place around 13.6 Ma and deeply impacted the marine oxygen isotope record. This event also profoundly impacted oceanographic and climatic patterns, eventually leading to the establishment of the modern ice-house world. In particular, East Antarctica became ice covered at that period. The rational behind the present study was to investigate the impact that this event had on shallow water systems in order to complement the deep-sea record and hence acquire a more global perspective on Miocene climate change. The Maltese Islands were investigated for trends in bulk-rock carbon and oxygen isotopes, as well as bulk-rock mineralogy, clay minerals analysis and organic geochemisty. Results showed that the mid Miocene cooling event deeply impacted sedimentation at that location by changing sedimentation from carbonate to clay-rich sediments. Moreover, it was discovered that each phase of Antarctic glaciation, not just the major mid Miocene event, resulted in higher terrigenous input on Malta. Mass accumulation rates revealed that this was linked to increased runoff during periods when Antarctica was glaciated, and thus that the carbonate sediments were “diluted” by clay-rich sediments. The model subsequently developed to explain this implies feedback from Antarctic glaciations creating cold, dense air masses that push the ITCZ Northward, thus increasing precipitation on the North African subcontinent. Increased precipitation (or stronger African monsoon) accelerated continental weathering and runoff, thus bringing more terrigenous sediment to the paleo-location of the slope sediments of Malta. Spectral analysis of carbonate content and organic matter geochemical analysis furthermore suggest that the clay-rich intervals are similar to sapropelic deposits. On the Marion Plateau, trends in oxygen and carbon isotopes were obtained by measuring Cibicidoides spp foraminifers. Moreover, carbonate content was reconstructed using a chemical method (coulometer). Results show that the mid Miocene cooling step profoundly affected this system: a major drop in accumulation rates of carbonates occurs precisely at 13.8 Ma, around the time of the East Antarctic ice sheet formation. Moreover, sedimentation changes occurred at that time, carbonate fragments coming from neritic environments becoming less abundant, planktonic foraminifer content increasing and quartz and reworked glauconite being deposited. Conversely, a surprising result is that the major N12-N14 sea-level fall occurring around 11.5 Ma did not impact the accumulation of carbonates on the slope. This was unexpected since carbonate platform are very sensitive to sea-level changes. The model developed to explain that mass accumulation rates of carbonates diminished around 13.6 Ma (Mi3 Event) instead of 11.5 Ma (N12-N14 event), suggests that oceanic currents were controlling slope carbonate deposition on the Marion Plateau prior to the mid-Miocene, and that the mid Miocene event considerably increase their strength, hence reducing the amount of carbonate being deposited on slope sites. Moreover, by combining results from deep-sea oxygen isotopes with sea-level estimates based on coastal onlaps made during Leg 194, we constrain the amplitude of the N12-N14 sea-level fall to 90 meters. When integrating isotopic results from this study, this amplitude is lowered to 70 meters. A general conclusion of this work is that the mid Miocene climatic shift did impact carbonate systems, at least at the two locations studied. However, the nature of this response was highly dependant on the regional settings, in particular the presence of land mass (Malta) and the absence of a barrier to shelter from the effects of open ocean (Marion Plateau). KW - mittleres Miozän KW - Klima KW - Sauerstoffisotope KW - Kohlenstoffisotope KW - Kontinentalrand KW - Tonmineralien KW - Karbonate KW - Malta KW - Mittelmeer KW - Australien KW - ODP Leg 194 KW - middle Miocene KW - climate KW - oxygen isotopes KW - carbon isotopes KW - continental margins KW - clay mineral KW - carbonate systems KW - Malta KW - Meditteranean sea KW - Australia Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000820 ER - TY - THES A1 - Krasia, Theodora T1 - Synthese und kolloidale Eigenschaften neuartiger Blockcopolymere mit beta-Dicarbonyl Einheiten = Synthesis and colloidal properties of a novel type of block copolymers bearing beta-dicarbonyl residues T1 - Synthese und kolloidale Eigenschaften neuartiger Blockcopolymere mit beta-Dicarbonyl Einheiten N2 - The present work is dealing with the first synthesis and characterisation of amphiphilic diblock copolymers bearing b-dicarbonyl (acetoacetoxy) chelating residues. Polymers were obtained by Group Transfer Polymerisation (GTP)/acetoacetylation and controlled radical polymerisation techniques (RAFT).Different micellar morphologies of poly(n-butyl methacrylate)-block-poly[2-(acetoacetoxy)ethyl methacrylate] (pBuMA-b-pAEMA) were observed in cyclohexane as a selective solvent. Depending on the block length ratio, either spherical, elliptical, or cylindrical micelles were formed. The density of the polymer chains at the core/corona interface is considerably higher as compared to any other strongly segregating system reported in the literature. It is demonstrated that there are H-bond interactions existing between acetoacetoxy groups, which increase the incompatibility between block segments. In addition, such interactions lead to the formation of secondary structures (such as b-sheets or globular structures) and larger superstructures in the micrometer length scale.Block copolymers were also used to solubilise metal ion salts of different geometries and oxidation states in organic media, in which are otherwise insoluble. Sterically stabilised colloidal hybrid materials are formed, i.e. monodisperse micelles having the metal ion salt incorporated in their core upon complexation with the ligating pAEMA block, whereas pBuMA forms the solvating corona responsible for stabilisation in solution. Systematic studies show that the aggregation behaviour is dependent on different factors, such as the tautomeric form of the beta-dicarbonyl ligand (keto/enol) as well as the nature and amount of added metal ion salt. T2 - Synthesis and colloidal properties of a novel type of block copolymers bearing beta-dicarbonyl residues KW - amphiphilic block copolymers KW - chelates KW - Group Transfer polymerisation KW - reversible addition-fragmentation chain transfer KW - micelles KW - organic-inorganic c Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000787 ER - TY - THES A1 - Klumpp, Stefan T1 - Movements of molecular motors : diffusion and directed walks N2 - Bewegungen von prozessiven molekularen Motoren des Zytoskeletts sind durch ein Wechselspiel von gerichteter Bewegung entlang von Filamenten und Diffusion in der umgebenden Lösung gekennzeichnet. Diese eigentümlichen Bewegungen werden in der vorliegenden Arbeit untersucht, indem sie als Random Walks auf einem Gitter modelliert werden. Ein weiterer Gegenstand der Untersuchung sind Effekte von Wechselwirkungen zwischen den Motoren auf diese Bewegungen. Im einzelnen werden vier Transportphänomene untersucht: (i) Random Walks von einzelnen Motoren in Kompartimenten verschiedener Geometrien, (ii) stationäre Konzentrationsprofile, die sich in geschlossenen Kompartimenten infolge dieser Bewegungen einstellen, (iii) randinduzierte Phasenübergänge in offenen röhrenartigen Kompartimenten, die an Motorenreservoirs gekoppelt sind, und (iv) der Einfluß von kooperativen Effekten bei der Motor-Filament-Bindung auf die Bewegung. Alle diese Phänomene sind experimentell zugänglich, und mögliche experimentelle Realisierungen werden diskutiert. N2 - Movements of processive cytoskeletal motors are characterized by an interplay between directed motion along filament and diffusion in the surrounding solution. In the present work, these peculiar movements are studied by modeling them as random walks on a lattice. An additional subject of our studies is the effect of motor-motor interactions on these movements. In detail, four transport phenomena are studied: (i) Random walks of single motors in compartments of various geometries, (ii) stationary concentration profiles which build up as a result of these movements in closed compartments, (iii) boundary-induced phase transitions in open tube-like compartments coupled to reservoirs of motors, and (iv) the influence of cooperative effects in motor-filament binding on the movements. All these phenomena are experimentally accessible and possible experimental realizations are discussed. KW - molekulare Motoren KW - aktive Prozesse KW - Diffusion KW - Random Walks KW - Gittermodelle KW - Phasenübergänge KW - Staus KW - kooperative Phänomene KW - molecular motors KW - active processes KW - diffusion KW - random walks KW - lattice models KW - phase transitions KW - traffic jams KW - cooperative phenomena Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000806 ER - TY - THES A1 - Heinig, Peter T1 - The geometry of interacting liquid domains in Langmuir monolayers N2 - Es werden die Strukturbildung und Benetzung zweidimensionaler (2D) Phasen von Langmuir-Monolagen im lokalen thermodynamischen Gleichgewicht untersucht. Eine Langmuir-Monolage ist ein isoliertes 2D System von Surfaktanten an der Wasser/Luft-Grenzfläche, in dem kristalline, flüssigkristalline, flüssige oder gasförmige Phasen auftreten, die sich in Positionsordnung und/oder Orientierungsordnung unterscheiden. Permanente elektrische Dipolmomente der Surfaktanten führen zu einer langreichweitigen repulsiven Selbstwechselwirkung der Monolage und zur Bildung mesoskopischer Strukturen. Es wird ein Wechselwirkungsmodell verwendet, das die Strukturbildung als Wechselspiel kurzreichweitiger Anziehung (nackte Linienspannung) und langreichweitiger Abstoßung (Oberflächenpotential) auf einer Skala Delta beschreibt. Physikalisch trennt Delta die beiden Längenskalen der lang- und kurzreichweitigen Wechselwirkung. In dieser Arbeit werden die thermodynamischen Stabilitätsbedingungen für die Form einer Phasengrenzlinie (Young-Laplace-Gleichung) und Dreiphasenkontaktpunkt (Young-Bedingung) hergeleitet und zur Beschreibung experimenteller Daten genutzt: Die Linienspannung benetzender 2D Tropfen wird mit Hilfe hängender-Tropfen-Tensiometrie gemessen. Die Blasenform und -größe von 2D Schäumen wird theoretisch modelliert und mit experimentellen 2D Schäumen verglichen. Kontaktwinkel werden durch die Anpassung von experimentellen Tropfen mit numerischen Lösungen der Young-Laplace-Gleichung auf Mikrometerskalen gemessen. Das Skalenverhalten des Kontaktwinkels ermöglicht die Bestimmung einer unteren Schranke von Delta. Weiterhin wird diskutiert, inwieweit das Schalten von 2D Benetzungsmodi in biologischen Membranen zur Steuerung der Reaktionskinetik ein Rolle spielen könnte. Hierzu werden Experimente aus unserer Gruppe, die in einer Langmuir-Monolage durchgeführt wurden, herangezogen. Abschließend wird die scheinbare Verletzung der Gibbs′schen Phasenregel in Langmuir-Monolagen (nicht-horizontales Plateau der Oberflächendruck-Fläche Isotherme, ausgedehntes Dreiphasengebiet in Einkomponentensystemen) quantitativ untersucht. Eine Verschmutzung der verwendeten Substanzen ist demnach die wahscheinlichste Erklärung, während Finite-Size-Effekte oder der Einfluss der langreichweitigen Elektrostatik die Größenordnung des Effektes nicht beschreiben können. N2 - The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect. KW - Langmuir KW - Monolage KW - 2D KW - langreichweitig KW - Benetzung KW - Schäume KW - Phasenregel KW - Langmuir monolayer KW - 2D KW - long range KW - wetting KW - foams KW - phase rule Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000814 ER - TY - THES A1 - Lanfermann, Gerd T1 - Nomadic migration : a service environment for autonomic computing on the Grid N2 - In den vergangenen Jahren ist es zu einer dramatischen Vervielfachung der verfügbaren Rechenzeit gekommen. Diese 'Grid Ressourcen' stehen jedoch nicht als kontinuierlicher Strom zur Verfügung, sondern sind über verschiedene Maschinentypen, Plattformen und Betriebssysteme verteilt, die jeweils durch Netzwerke mit fluktuierender Bandbreite verbunden sind. Es wird für Wissenschaftler zunehmend schwieriger, die verfügbaren Ressourcen für ihre Anwendungen zu nutzen. Wir glauben, dass intelligente, selbstbestimmende Applikationen in der Lage sein sollten, ihre Ressourcen in einer dynamischen und heterogenen Umgebung selbst zu wählen: Migrierende Applikationen suchen eine neue Ressource, wenn die alte aufgebraucht ist. 'Spawning'-Anwendungen lassen Algorithmen auf externen Maschinen laufen, um die Hauptanwendung zu beschleunigen. Applikationen werden neu gestartet, sobald ein Absturz endeckt wird. Alle diese Verfahren können ohne menschliche Interaktion erfolgen. Eine verteilte Rechenumgebung besitzt eine natürliche Unverlässlichkeit. Jede Applikation, die mit einer solchen Umgebung interagiert, muss auf die gestörten Komponenten reagieren können: schlechte Netzwerkverbindung, abstürzende Maschinen, fehlerhafte Software. Wir konstruieren eine verlässliche Serviceinfrastruktur, indem wir der Serviceumgebung eine 'Peer-to-Peer'-Topology aufprägen. Diese “Grid Peer Service” Infrastruktur beinhaltet Services wie Migration und Spawning, als auch Services zum Starten von Applikationen, zur Dateiübertragung und Auswahl von Rechenressourcen. Sie benutzt existierende Gridtechnologie wo immer möglich, um ihre Aufgabe durchzuführen. Ein Applikations-Information- Server arbeitet als generische Registratur für alle Teilnehmer in der Serviceumgebung. Die Serviceumgebung, die wir entwickelt haben, erlaubt es Applikationen z.B. eine Relokationsanfrage an einen Migrationsserver zu stellen. Der Server sucht einen neuen Computer, basierend auf den übermittelten Ressourcen-Anforderungen. Er transferiert den Statusfile des Applikation zu der neuen Maschine und startet die Applikation neu. Obwohl das umgebende Ressourcensubstrat nicht kontinuierlich ist, können wir kontinuierliche Berechnungen auf Grids ausführen, indem wir die Applikation migrieren. Wir zeigen mit realistischen Beispielen, wie sich z.B. ein traditionelles Genom-Analyse-Programm leicht modifizieren lässt, um selbstbestimmte Migrationen in dieser Serviceumgebung durchzuführen. N2 - In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment. KW - Peer-to-Peer-Netz ; GRID computing ; Zuverlässigkeit ; Web Services ; Betriebsmittelverwaltung ; Migration KW - Grid KW - 'Peer To Peer' KW - Migration KW - Spawning Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000773 ER - TY - THES A1 - Zaikin, Alexei T1 - Noise-induced transitions and resonant effects in nonlinear systems T1 - - N2 - Unsere alltägliche Erfahrung ist mit verschiedenen akustischen Einfluessen wie Lärm, aber auch Musik verbunden. Jeder weiss, wie Lärm stören kann und Kommunikation behindert oder gar unterbindet. Ähnliche optische Effekte sind bekannt: starkes Schneetreiben oder Regengüsse verschlechtern die Sicht und lassen uns Umrisse nur noch schemenhaft erkennen. Jedoch koennen ähnliche Stimuli auch sehr positive Auswirkungen haben: Autofahrer fahren bei leiser Musik konzentrierter -- die Behauptung von Schulkindern, nur bei dröhnenden Bässen die Mathehausaufgaben richtig rechnen zu können, ist allerdings nicht wissenschaftlich erwiesen. Außerordentlich interessant aus dieser Sicht sind auch Reizleitungsprozesse: Reize werden nur weitergleitet, wenn die strukturlosen Signale der Neuronen mit ausreichend starker Intensität erfolgen, also ein Schwellwert überschritten ist. Der Physiker Dr. Alexei Zaikin von der Universität Potsdam beschäftigt sich mit sogenannten rauschinduzierten Phänomenen aus theorischer Sicht. Sein Forschungsgebiet sind Prozesse, bei denen Rauschen mehrfach das Systemverhalten beeinflusst: ist es ausreichend gross, d.h. größer als ein kritischer Wert, wird eine reguläre Struktur gebildet, die durch das immernoch vorhandene Rauschen mit der Struktur des Nachbarsystems synchronisiert. Um ein solches System mit kritischem Wert zu erhalten, bedarf es einer weiteren Rauschquelle. Herr Zaikin analysierte noch weitere Beispiele solcher doppelt stochastischen Effekte. Die Ausarbeitung derartiger theoretischer Grundlagen ist wichtig, da diese Prozesse in der Neurophysik, in technischen Kommunikationssystemen und in den Lebenswissenschaften eine Rolle spielen. N2 - Our every-day experience is connected with different acoustical noise or music. Usually noise plays the role of nuisance in any communication and destroys any order in a system. Similar optical effects are known: strong snowing or raining decreases quality of a vision. In contrast to these situations noisy stimuli can also play a positive constructive role, e.g. a driver can be more concentrated in a presence of quiet music. Transmission processes in neural systems are of especial interest from this point of view: excitation or information will be transmitted only in the case if a signal overcomes a threshold. Dr. Alexei Zaikin from the Potsdam University studies noise-induced phenomena in nonlinear systems from a theoretical point of view. Especially he is interested in the processes, in which noise influences the behaviour of a system twice: if the intensity of noise is over a threshold, it induces some regular structure that will be synchronized with the behaviour of neighbour elements. To obtain such a system with a threshold one needs one more noise source. Dr. Zaikin has analyzed further examples of such doubly stochastic effects and developed a concept of these new phenomena. These theoretical findings are important, because such processes can play a crucial role in neurophysics, technical communication devices and living sciences. T2 - Noise-induced transitions and resonant effects in nonlinear systems KW - Rauschinduzierte Phänomene KW - Stochastische Prozesse KW - Rauschen KW - Stochastische Resonanz KW - Noise-induced phenomena KW - stochastic processes KW - noise KW - stochastic resonance Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000761 ER - TY - THES A1 - Dramlitsch, Thomas T1 - Distributed computations in a dynamic, heterogeneous Grid environment N2 - Die immer dichtere und schnellere Vernetzung von Rechnern und Rechenzentren über Hochgeschwindigkeitsnetzwerke ermöglicht eine neue Art des wissenschaftlich verteilten Rechnens, bei der geographisch weit auseinanderliegende Rechenkapazitäten zu einer Gesamtheit zusammengefasst werden können. Dieser so entstehende virtuelle Superrechner, der selbst aus mehreren Grossrechnern besteht, kann dazu genutzt werden Probleme zu berechnen, für die die einzelnen Grossrechner zu klein sind. Die Probleme, die numerisch mit heutigen Rechenkapazitäten nicht lösbar sind, erstrecken sich durch sämtliche Gebiete der heutigen Wissenschaft, angefangen von Astrophysik, Molekülphysik, Bioinformatik, Meteorologie, bis hin zur Zahlentheorie und Fluiddynamik um nur einige Gebiete zu nennen. Je nach Art der Problemstellung und des Lösungsverfahrens gestalten sich solche "Meta-Berechnungen" mehr oder weniger schwierig. Allgemein kann man sagen, dass solche Berechnungen um so schwerer und auch um so uneffizienter werden, je mehr Kommunikation zwischen den einzelnen Prozessen (oder Prozessoren) herrscht. Dies ist dadurch begründet, dass die Bandbreiten bzw. Latenzzeiten zwischen zwei Prozessoren auf demselben Grossrechner oder Cluster um zwei bis vier Grössenordnungen höher bzw. niedriger liegen als zwischen Prozessoren, welche hunderte von Kilometern entfernt liegen. Dennoch bricht nunmehr eine Zeit an, in der es möglich ist Berechnungen auf solch virtuellen Supercomputern auch mit kommunikationsintensiven Programmen durchzuführen. Eine grosse Klasse von kommunikations- und berechnungsintensiven Programmen ist diejenige, die die Lösung von Differentialgleichungen mithilfe von finiten Differenzen zum Inhalt hat. Gerade diese Klasse von Programmen und deren Betrieb in einem virtuellen Superrechner wird in dieser vorliegenden Dissertation behandelt. Methoden zur effizienteren Durchführung von solch verteilten Berechnungen werden entwickelt, analysiert und implementiert. Der Schwerpunkt liegt darin vorhandene, klassische Parallelisierungsalgorithmen zu analysieren und so zu erweitern, dass sie vorhandene Informationen (z.B. verfügbar durch das Globus Toolkit) über Maschinen und Netzwerke zur effizienteren Parallelisierung nutzen. Soweit wir wissen werden solche Zusatzinformationen kaum in relevanten Programmen genutzt, da der Grossteil aller Parallelisierungsalgorithmen implizit für die Ausführung auf Grossrechnern oder Clustern entwickelt wurde. N2 - In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus. KW - Paralleles Rechnen KW - Verteiltes Rechnen KW - Cactus KW - Globus KW - dynamisch KW - adaptiv KW - Grid Computing KW - Distributed Computing KW - Cactus KW - Globus KW - dynamic KW - adaptive Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000759 ER - TY - THES A1 - Montenegro, Rivelino V. D. T1 - Crystallization, biomimetics and semiconducting polymers in confined systems T1 - Kristallisation, Biomimetik und halbleitende Polymere in räumlich begrenzten Systemen N2 - populärwissenschaftlicher Abstract: Kristallisation, Biomimetik und halbleitende Polymere in räumlich begrenzten Systemen: Öl und Wasser mischen sich nicht, man kann aber aus beiden Flüssigkeiten Emulsionen herstellen, bei denen Tröpfchen der einen Flüssigkeit in der anderen Flüssigkeit vorliegen. Das heißt, es können entweder Öltröpfchen in Wasser oder Wassertröpfchen in Öl erzeugt werden. Aus täglichen Erfahrungen, z.B. beim Kochen weiß man jedoch, dass sich eine Emulsion durch Schütteln oder Rühren herstellen lässt, diese jedoch nicht besonders stabil ist. Mit Hilfe von hohen Scherenergien kann man nun sehr kleine, in ihrer Größe sehr einheitliche und außerdem sehr stabile Tröpfchen von 1/10000 mm erhalten. Eine solche Emulsion wird Miniemulsion genannt. In der Dissertation wurden nun z.B. Miniemulsionen untersucht, die aus kleinen Wassertröpfchen in einem Öl bestehen. Es konnte gezeigt werden, dass das Wasser in diesen Tröpfchen, also in den räumlich begrenzten Systemen, nicht bei 0 °C, sondern bei -22 °C kristallisierte. Wie lässt sich das erklären? Wenn man einen Eimer Wasser hat, dann bildet sich normalerweise bei 0 °C Eis, da nämlich in dem Wasser einige (manchmal ganz wenige) Keime (z.B. Schutzteilchen, ein Fussel etc.) vorhanden sind, an denen sich die ersten Kristalle bilden. Wenn sich dann einmal ein Kristall gebildet hat, kann das Wasser im gesamten Eimer schnell zu Eis werden. Ultrareines Wasser würde bei -22 °C kristallisieren. Wenn man jetzt die Menge Wasser aus dem Eimer in kleine Tröpfchen bringt, dann hat man eine sehr, sehr große Zahl, nämlich 1017 Tröpfchen, in einem Liter Emulsion vorliegen. Die wenigen Schmutzpartikel verteilen auf sehr wenige Tröpfchen, die anderen Tröpfchen sind ultrarein. Daher kristallisieren sie erst bei -22 °C. Im Rahmen der Arbeit konnte auch gezeigt werden, dass die Miniemulsionen genutzt werden können, um kleine Gelatine-Partikel, also Nanogummibärchen, herzustellen. Diese Nanogummibärchen quellen bei Erhöhung der Temperatur auf ca. 38 °C an. Das kann ausgenutzt werden, um zum Beispiel Medikamente zunächst in den Partikeln im menschlichen Körper zu transportieren, die Medikamente werden dann an einer gewünschten Stelle freigelassen. In der Arbeit wurde auch gezeigt, dass die Gelatine-Partikel genutzt werden können, um die Natur nachzuahnen (Biomimetik). Innerhalb der Partikel kann nämlich gezielt Knochenmaterial aufgebaut werden kann. Die Gelatine-Knochen-Partikel können dazu genutzt werden, um schwer heilende oder komplizierte Knochenbrüche zu beheben. Gelatine wird nämlich nach einigen Tagen abgebaut, das Knochenmaterial kann in den Knochen eingebaut werden. LEDs werden heute bereits vielfältig verwendet. LEDs bestehen aus Halbleitern, wie z.B. Silizium. Neuerdings werden dazu auch halbleitende Polymere eingesetzt. Das große Problem bei diesen Materialien ist, dass sie aus Lösungsmitteln aufgebracht werden. Im Rahmen der Doktorarbeit wurde gezeigt, dass der Prozess der Miniemulsionen genutzt werden kann, um umweltfreundlich diese LEDs herzustellen. Man stellt dazu nun wässrige Dispersionen mit den Polymerpartikeln her. Damit hat man nicht nur das Lösungsmittel vermieden, das hat nun noch einen weiteren Vorteil: man kann nämlich diese Dispersion auf sehr einfache Art verdrucken, im einfachsten Fall verwendet man einfach einen handelsüblichen Tintenstrahldrucker. N2 - The colloidal systems are present everywhere in many varieties such as emulsions (liquid droplets dispersed in liquid), aerosols (liquid dispersed in gas), foam (gas in liquid), etc. Among several new methods for the preparation of colloids, the so-called miniemulsion technique has been shown to be one of the most promising. Miniemulsions are defined as stable emulsions consisting of droplets with a size of 50-500 nm by shearing a system containing oil, water, a surfactant, and a highly water insoluble compound, the so-called hydrophobe 1. In the first part of this work, dynamic crystallization and melting experiments are described which were performed in small, stable and narrowly distributed nanodroplets (confined systems) of miniemulsions. Both regular and inverse systems were examined, characterizing, first, the crystallization of hexadecane, secondly, the crystallization of ice. It was shown for both cases that the temperature of crystallization in such droplets is significantly decreased (or the required undercooling is increased) as compared to the bulk material. This was attributed to a very effective suppression of heterogeneous nucleation. It was also found that the required undercooling depends on the nanodroplet size: with decreasing droplet size the undercooling increases. 2. It is shown that the temperature of crystallization of other n-alkanes in nanodroplets is also significantly decreased as compared to the bulk material due to a very effective suppression of heterogeneous nucleation. A very different behavior was detected between odd and even alkanes. In even alkanes, the confinement in small droplets changes the crystal structure from a triclinic (as seen in bulk) to an orthorhombic structure, which is attributed to finite size effects inside the droplets. An intermediate metastable rotator phase is of less relevance for the miniemulsion droplets than in the bulk. For odd alkanes, only a strong temperature shift compared to the bulk system is observed, but no structure change. A triclinic structure is formed both in bulk and in miniemulsion droplets. 3. In the next part of the thesis it is shown how miniemulsions could be successfully applied in the development of materials with potential application in pharmaceutical and medical fields. The production of cross-linked gelatin nanoparticles is feasible. Starting from an inverse miniemulsion, the softness of the particles can be controlled by varying the initial concentration, amount of cross-link agent, time of cross-linking, among other parameters. Such particles show a thermo-reversible effect, e.g. the particles swell in water above 37 °C and shrink below this temperature. Above 37 °C the chains loose the physical cross-linking, however the particles do not loose their integrity, because of the chemical cross-linking. Those particles have potential use as drug carriers, since gelatin is a natural polymer derived from collagen. 4. The cross-linked gelatin nanoparticles have been used for the biomineralization of hydroxyapatite (HAP), a biomineral, which is the major constituent of our bones. The biomineralization of HAP crystals within the gelatin nanoparticles results in a hybrid material, which has potential use as a bone repair material. 5. In the last part of this work we have shown that layers of conjugated semiconducting polymers can be deposited from aqueous dispersion prepared by the miniemulsion process. Dispersions of particles of different conjugated semiconducting polymers such as a ladder-type poly(para-phenylene) and several soluble derivatives of polyfluorene could be prepared with well-controlled particle sizes ranging between 70 - 250 nm. Layers of polymer blends were prepared with controlled lateral dimensions of phase separation on sub-micrometer scales, utilizing either a mixture of single component nanoparticles or nanoparticles containing two polymers. From the results of energy transfer it is demonstrated that blending two polymers in the same particle leads to a higher efficiency due to the better contact between the polymers. Such an effect is of great interest for the fabrication of opto-electronic devices such as light emitting diodes with nanometer size emitting points and solar cells comprising of blends of electron donating and electron accepting polymers. KW - Confinement KW - miniemulsion KW - crystallization KW - biomimetics and semiconducting polymers Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000726 ER - TY - THES A1 - Thonicke, Kirsten T1 - Fire disturbance and vegetation dynamics : analysis and models N2 - Untersuchungen zur Rolle natürlicher Störungen in der Vegetation bzw. in Ökosystemen zeigen, dass natürliche Störungen ein essentielles und intrinsisches Element in Ökosystemen darstellen, substanziell zur Vitalität und strukturellen Diversität der Ökosysteme beitragen und Stoffkreisläufe sowohl auf dem lokalen als auch auf dem globalen Niveau beeinflussen. Feuer als Grasland-, Busch- oder Waldbrand ist ein besonderes Störungsagens, da es sowohl durch biotische als auch abiotische Umweltfaktoren verursacht wird. Es beeinflusst biogeochemische Kreisläufe und spielt für die chemische Zusammensetzung der Atmosphäre durch Freisetzung klimarelevanter Spurengase und Aerosole aus der Verbrennung von Biomasse eine bedeutende Rolle. Dies wird auch durch die Emission von ca. 3.9 Gt Kohlenstoff pro Jahr unterstrichen, was einen großen Anteil am globalen Gesamtaufkommen ausmacht. Ein kombiniertes Modell, das die Effekte und Rückkopplungen zwischen Feuer und Vegetation beschreibt, wurde erforderlich, als Änderungen in den Feuerregimes als Folge von Änderungen in der Landnutzung und dem Landmanagement festgestellt wurden. Diese Notwendigkeit wurde noch durch die Erkenntnis unterstrichen, daß die Menge verbrennender Biomasse als ein bedeutender Kohlenstoffluß sowohl die chemische Zusammensetzung der Atmosphäre und das Klima, aber auch die Vegetationsdynamik selbst beeinflusst. Die bereits existierenden Modellansätze reichen hier jedoch nicht aus, um entsprechende Untersuchungen durchzuführen. Als eine Schlussfolgerung daraus wurde eine optimale Menge von Faktoren gefunden, die das Auftreten und die Ausbreitung des Feuers, sowie deren ökosystemare Effekte ausreichend beschreiben. Ein solches Modell sollte die Merkmale beobachteter Feuerregime simulieren können und Analysen der Interaktionen zwischen Feuer und Vegetationsdynamik unterstützen, um auch Ursachen für bestimmte Änderungen in den Feuerregimes herausfinden zu können. Insbesondere die dynamischen Verknüpfungen zwischen Vegetation, Klima und Feuerprozessen sind von Bedeutung, um dynamische Rückkopplungen und Effekte einzelner, veränderter Umweltfaktoren zu analysieren. Dadurch ergab sich die Notwendigkeit, neue Feuermodelle zu entwickeln, die die genannten Untersuchungen erlauben und das Verständnis der Rolle des Feuer in der globalen Ökologie verbessern. Als Schlussfolgerung der Dissertation wird festgestellt, dass Feuchtebedingungen, ihre Andauer über die Zeit (Länge der Feuersaison) und die Streumenge die wichtigsten Komponenten darstellen, die die Verteilung der Feuerregime global beschreiben. Werden Zeitreihen einzelner Regionen simuliert, sollten besondere Entzündungsquellen, brandkritische Klimabedingungen und die Bestandesstruktur als zusätzliche Determinanten berücksichtigt werden. Die Bestandesstruktur verändert das Niveau des Auftretens und der Ausbreitung von Feuer, beeinflusst jedoch weniger dessen interannuelle Variabilität. Das es wichtig ist, die vollständige Wirkungskette wichtiger Feuerprozesse und deren Verknüpfungen mit der Vegetationsdynamik zu berücksichtigen, wird besonders unter Klimaänderungsbedingungen deutlich. Eine länger werdende, vom Klima abhängige Feuersaison bedeutet nicht automatisch eine im gleichen Maße anwachsende Menge verbrannter Biomasse. Sie kann durch Änderungen in der Produktivität der Vegetation gepuffert oder beschleunigt werden. Sowohl durch Änderungen der Bestandesstruktur als auch durch eine erhöhte Produktivität der Vegetation können Änderungen der Feuereigenschaften noch weiter intensiviert werden und zu noch höheren, feuerbezogenen Emissionen führen. N2 - Studies of the role of disturbance in vegetation or ecosystems showed that disturbances are an essential and intrinsic element of ecosystems that contribute substantially to ecosystem health, to structural diversity of ecosystems and to nutrient cycling at the local as well as global level. Fire as a grassland, bush or forest fire is a special disturbance agent, since it is caused by biotic as well abiotic environmental factors. Fire affects biogeochemical cycles and plays an important role in atmospheric chemistry by releasing climate-sensitive trace gases and aerosols, and thus in the global carbon cycle by releasing approximately 3.9 Gt C p.a. through biomass burning. A combined model to describe effects and feedbacks between fire and vegetation became relevant as changes in fire regimes due to land use and land management were observed and the global dimension of biomass burnt as an important carbon flux to the atmosphere, its influence on atmospheric chemistry and climate as well as vegetation dynamics were emphasized. The existing modelling approaches would not allow these investigations. As a consequence, an optimal set of variables that best describes fire occurrence, fire spread and its effects in ecosystems had to be defined, which can simulate observed fire regimes and help to analyse interactions between fire and vegetation dynamics as well as to allude to the reasons behind changing fire regimes. Especially, dynamic links between vegetation, climate and fire processes are required to analyse dynamic feedbacks and effects of changes of single environmental factors. This led us to the point, where new fire models had to be developed that would allow the investigations, mentioned above, and could help to improve our understanding of the role of fire in global ecology. In conclusion of the thesis, one can state that moisture conditions, its persistence over time and fuel load are the important components that describe global fire pattern. If time series of a particular region are to be reproduced, specific ignition sources, fire-critical climate conditions and vegetation composition become additional determinants. Vegetation composition changes the level of fire occurrence and spread, but has limited impact on the inter-annual variability of fire. The importance to consider the full range of major fire processes and links to vegetation dynamics become apparent under climate change conditions. Increases in climate-dependent length of fire season does not automatically imply increases in biomass burnt, it can be buffered or accelerated by changes in vegetation productivity. Changes in vegetation composition as well as enhanced vegetation productivity can intensify changes in fire and lead to even more fire-related emissions. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2002/2003. KW - Waldbrand KW - Feuerregime KW - Vegetationsdynamik KW - natürliche Störungen KW - Waldbrandmodellierung KW - Klimaänderung KW - forest fires KW - fire regimes KW - vegetation dynamics KW - natural disturbances KW - fire modelling KW - climate change Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000713 ER - TY - THES A1 - Bissinger, Vera T1 - Factors determining growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2.7) N2 - Die vorliegende Dissertation beschäftigt sich mit den Faktoren, die das Wachstum und die Vertikalverteilung von Planktonalgen in extrem sauren Tagebaurestseen (TBS; pH 2-3) beeinflussen. Im exemplarisch untersuchten TBS 111 (pH 2.7; Lausitzer Revier) dominiert die Goldalge Ochromonas sp. in oberen und die Grünalge Chlamydomonas sp. in tieferen Wasserschichten, wobei letztere ein ausgeprägtes Tiefenchlorophyll-Maximum (DCM) ausbildet. Es wurde ein deutlicher Einfluss von Limitation durch anorganischen Kohlenstoff (IC) auf das phototrophe Wachstum von Chlamydomonas sp. in oberen Wasserschichten nachgewiesen, die mit zunehmender Tiefe von Lichtlimitation abgelöst wird. Im Vergleich mit Arbeiten aus neutralen Seen zeigte Chlamydomonas sp. erniedrigte maximale Wachstumsraten, einen gesteigerten Kompensationspunkt und erhöhte Dunkelrespirationsraten, was auf gesteigerte metabolische Kosten unter den extremen physikalisch-chemischen Bedingungen hinweist. Die Photosyntheseleistungen von Chlamydomonas sp. waren in Starklicht-adaptierten Zellen durch IC-Limitation deutlich verringert. Außerdem ergaben die ermittelten minimalen Zellquoten für Phosphor (P) einen erhöhten P-Bedarf unter IC-Limitation. Anschließend konnte gezeigt werden, dass Chlamydomonas sp. ein mixotropher Organismus ist, der seine Wachstumsraten über die osmotrophe Aufnahme gelösten organischen Kohlenstoffs (DOC) erhöhen kann. Dadurch ist dieser Organismus fähig, in tieferen, Licht-limitierten Wasserschichten zu überleben, die einen höheren DOC-Gehalt aufweisen. Da die Vertikalverteilung der Algen im TBS 111 jedoch weder durch IC-Limitation, P-Verfügbarkeit noch die in situ DOC-Konzentrationen abschließend erklärt werden konnte (bottom-up Kontrolle), wurde eine neue Theorie zur Entstehung der Vertikalverteilung geprüft. Grazing der phagotrophen und phototrophen Alge Ochromonas sp. auf der phototrophen Alge Chlamydomonas sp. erwies sich als herausragender Faktor, der über top-down Kontrolle die Abundanz der Beute in höheren Wasserschichten beeinflussen kann. Gemeinsam mit der Tatsache, dass Chlamydomonas sp. DOC zur Wachstumssteigerung verwendet, führt dies zu einer Akkumulation von Chlamydomonas sp. in der Tiefe, ausgeprägt als DCM. Daher erscheint grazing als der Hauptfaktor, der die beobachtete Vertikalschichtung der Algen im TBS 111 hervorruft. Die erzielten Ergebnisse liefern grundlegende Informationen, um die Auswirkungen von Strategien zur Neutralisierung der TBS auf das Nahrungsnetz abschätzen zu können. N2 - In this thesis, I investigated the factors influencing the growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2-3). In the focal study site, Lake 111 (pH 2.7; Lusatia, Germany), the chrysophyte, Ochromonas sp., dominates in the upper water strata and the chlorophyte, Chlamydomonas sp., in the deeper strata, forming a pronounced deep chlorophyll maximum (DCM). Inorganic carbon (IC) limitation influenced the phototrophic growth of Chlamydomonas sp. in the upper water strata. Conversely, in deeper strata, light limited its phototrophic growth. When compared with published data for algae from neutral lakes, Chlamydomonas sp. from Lake 111 exhibited a lower maximum growth rate, an enhanced compensation point and higher dark respiration rates, suggesting higher metabolic costs due to the extreme physico-chemical conditions. The photosynthetic performance of Chlamydomonas sp. decreased in high-light-adapted cells when IC limited. In addition, the minimal phosphorus (P) cell quota was suggestive of a higher P requirement under IC limitation. Subsequently, it was shown that Chlamydomonas sp. was a mixotroph, able to enhance its growth rate by taking up dissolved organic carbon (DOC) via osmotrophy. Therefore, it could survive in deeper water strata where DOC concentrations were higher and light limited. However, neither IC limitation, P availability nor in situ DOC concentrations (bottom-up control) could fully explain the vertical distribution of Chlamydomonas sp. in Lake 111. Conversely, when a novel approach was adopted, the grazing influence of the phagotrophic phototroph, Ochromonas sp., was found to exert top-down control on its prey (Chlamydomonas sp.) reducing prey abundance in the upper water strata. This, coupled with the fact that Chlamydomonas sp. uses DOC for growth, leads to a pronounced accumulation of Chlamydomonas sp. cells at depth; an apparent DCM. Therefore, grazing appears to be the main factor influencing the vertical distribution of algae observed in Lake 111. The knowledge gained from this thesis provides information essential for predicting the effect of strategies to neutralize the acidic mining lakes on the food-web. KW - Tagebaurestseen KW - Saure Seen KW - Chlamydomonas KW - IC KW - DOC KW - pH KW - Wachstumsraten KW - Mining lakes KW - acidic lakes KW - chlamydomonas KW - IC KW - DOC KW - pH KW - growthrates Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000695 ER - TY - THES A1 - Moreira, André Guérin T1 - Charged systems in bulk and at interfaces N2 - Eine der Faustregeln der Kolloid- und Oberflächenphysik ist, dass die meisten Oberflächen geladen sind, wenn sie mit einem Lösungsmittel, normalerweise Wasser, in Kontakt treten. Dies ist zum Beispiel bei ladungsstabilisierten Kolloidalen Suspensionen der Fall, bei denen die Oberfläche der Kolloidteilchen geladen ist (gewöhnlich mit einer Ladung von mehreren Hunderttausend Elementarladungen), oder bei Monoschichten ionischer Tenside, die auf einer Luft-Wasser Grenzfläche sitzen (wobei die wasserliebenden Kopfgruppen durch die Freisetzung von Gegenionen geladen werden), sowie bei Doppelschichten, die geladene phospholipide enthalten (wie Zellmembranen). In dieser Arbeit betrachten wir einige Modellsysteme, die zwar eine vereinfachte Fassung der Realität darstellen, von denen wir aber dennoch erwarten koennen, dass wir mit ihrer Hilfe einige physikalische Eigenschaften realer geladener Systeme (Kolloide und Elektrolyte) einfangen können. N2 - One of the rules-of-thumb of colloid and surface physics is that most surfaces are charged when in contact with a solvent, usually water. This is the case, for instance, in charge-stabilized colloidal suspensions, where the surface of the colloidal particles are charged (usually with a charge of hundreds to thousands of e, the elementary charge), monolayers of ionic surfactants sitting at an air-water interface (where the water-loving head groups become charged by releasing counterions), or bilayers containing charged phospholipids (as cell membranes). In this work, we look at some model-systems that, although being a simplified version of reality, are expected to capture some of the physical properties of real charged systems (colloids and electrolytes). We initially study the simple double layer, composed by a charged wall in the presence of its counterions. The charges at the wall are smeared out and the dielectric constant is the same everywhere. The Poisson-Boltzmann (PB) approach gives asymptotically exact counterion density profiles around charged objects in the weak-coupling limit of systems with low-valent counterions, surfaces with low charge density and high temperature (or small Bjerrum length). Using Monte Carlo simulations, we obtain the profiles around the charged wall and compare it with both Poisson-Boltzmann (in the low coupling limit) and the novel strong coupling (SC) theory in the opposite limit of high couplings. In the latter limit, the simulations show that the SC leads in fact to asymptotically correct density profiles. We also compare the Monte Carlo data with previously calculated corrections to the Poisson-Boltzmann theory. We also discuss in detail the methods used to perform the computer simulations. After studying the simple double layer in detail, we introduce a dielectric jump at the charged wall and investigate its effect on the counterion density distribution. As we will show, the Poisson-Boltzmann description of the double layer remains a good approximation at low coupling values, while the strong coupling theory is shown to lead to the correct density profiles close to the wall (and at all couplings). For very large couplings, only systems where the difference between the dielectric constants of the wall and of the solvent is small are shown to be well described by SC. Another experimentally relevant modification to the simple double layer is to make the charges at the plane discrete. The counterions are still assumed to be point-like, but we constraint the distance of approach between ions in the plane and counterions to a minimum distance D. The ratio between D and the distance between neighboring ions in the plane is, as we will see, one of the important quantities in determining the influence of the discrete nature of the charges at the wall over the density profiles. Another parameter that plays an important role, as in the previous case, is the coupling as we will demonstrate, systems with higher coupling are more subject to discretization effects than systems with low coupling parameter. After studying the isolated double layer, we look at the interaction between two double layers. The system is composed by two equally charged walls at distance d, with the counterions confined between them. The charge at the walls is smeared out and the dielectric constant is the same everywhere. Using Monte-Carlo simulations we obtain the inter-plate pressure in the global parameter space, and the pressure is shown to be negative (attraction) at certain conditions. The simulations also show that the equilibrium plate separation (where the pressure changes from attractive to repulsive) exhibits a novel unbinding transition. We compare the Monte Carlo results with the strong-coupling theory, which is shown to describe well the bound states of systems with moderate and high couplings. The regime where the two walls are very close to each other is also shown to be well described by the SC theory. Finally, Using a field-theoretic approach, we derive the exact low-density ("virial") expansion of a binary mixture of positively and negatively charged hard spheres (two-component hard-core plasma, TCPHC). The free energy obtained is valid for systems where the diameters d_+ and d_- and the charge valences q_+ and q_- of positive and negative ions are unconstrained, i.e., the same expression can be used to treat dilute salt solutions (where typically d_+ ~ d_- and q_+ ~ q_-) as well as colloidal suspensions (where the difference in size and valence between macroions and counterions can be very large). We also discuss some applications of our results. KW - geladene Systeme KW - elektrische Doppelschicht KW - Elektrolyte KW - Theorie KW - Simulation KW - charged systems KW - electric double layer KW - electrolytes KW - theory KW - simulation Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000677 ER - TY - THES A1 - Streffer, Katrin T1 - Highly sensitive measurements of substrates and inhibitors on the basis of tyrosinase sensors and recycling systems N2 - Analytische Chemie heute meint nicht länger nur die große Messtechnik, die zeit- und kostenintensiv ist, die außerdem nur von qualifiziertem Personal zu bedienen ist und deren Resultate nur durch dieses Personal auswertbar sind. Meist erfordert diese sagen wir 'klassische analytische Messtechnik' auch noch spezielle Räumlichkeiten und oft eine relative große Menge an speziell vorbereiteten Proben. Neben dieser klassischen analytischen Messtechnik hat sich besonders in den letzten Jahren eine auf bestimmte Stoffgruppen und Anforderungen zugeschnittene Messtechnik durchgesetzt, die oft auch durch einen Laien bedient werden kann. Meist sind es sehr kleine Geräte. Auch die benötigten Probenvolumina sind klein und eine spezielle Probenvorbereitung ist nicht erforderlich. Ausserdem sind die Geräte einfach zu handhaben, billig sowohl in ihrer Herstellung als auch im Gebrauch und meist erlauben sie sogar eine kontinuierliche Messwerterfassung. Zahlreiche dieser in den letzten Jahren entwickelten Geräte greifen zurück auf 40 Jahre Forschung auf dem Gebiet der Biosensorik. Seit Clark und Lyons im Jahr 1962 in der Lage waren, mit einer einfachen Sauerstoffelektrode, ergänzt durch ein Enzym, Glucose zu messen, war die Entwicklung neuer Messtechnik nicht mehr aufzuhalten. Biosensoren, spezielle Messfühler, die aus einer Kombination aus biologischer Komponente (erlaubt eine spezifische Erkennung des Analyten auch ohne vorherige Reinigung der Probe) und einem physikalischen Messfühler (wandelt den primären physikochemischen Effekt in ein elektronisch messbares Signal um) bestehen, eroberten den Markt. Im Rahmen dieser Doktorarbeit wurden verschiedene Tyrosinasesensoren entwickelt, die je nach Herkunft und Eigenschaften der verwendeten Tyrosinase unterschiedliche Anforderungen erfüllen. Beispielsweise wurde einer dieser Tyrosinasesensoren für die Bestimmung phenolischer Verbindungen in Fluss- und Seewasserproben eingesetzt, und die mit diesem Sensor gemessenen Ergebnisse konnten sehr gut mit dem entsprechenden DIN-Test zur Bestimmung phenolischer Verbindungen korreliert werden. Ein anderer entwickelter Sensor zeigte eine sehr hohe Empfindlichkeit für Catecholamine, Substanzen die speziell in der medizinischen Diagnostik von Wichtigkeit sind. Ausserdem zeigten die ebenfalls im Rahmen dieser Doktorarbeit durchgeführten Untersuchungen zweier verschiedener Tyrosinasen, dass, will man in Zukunft noch empfindlichere Tyrosinasesensoren entwickeln, eine spezielle Tyrosinase (Tyrosinase aus Streptomyces antibioticus) die bessere Wahl sein wird, als die bisher im Bereich der Biosensorforschung verwendete Tyrosinase aus Agaricus bisporus. Desweiteren wurden erste Erfolge auf molekularbiologischem Gebiet erreicht, das heisst, dass Tyrosinasemutanten mit speziellen, vorher überlegten Eigenschaften, hergestellt werden sollen. Diese Erfolge können dazu genutzt werden, eine neue Generation an Tyrosinasesensoren zu entwickeln, Tyrosinasesensoren in denen Tyrosinase gerichtet gebunden werden kann, sowohl an den entsprechenden physikalischen Messfühler oder auch an ein anderes Enzym. Davon verspricht man sich deutlich minimierte Wege, die die zu bestimmende Substanz (oder deren Produkt) sonst zurücklegen müsste, was am Ende zu einer deutlich erhöhten Empfindlichkeit des resultierenden Biosensors führen sollte. N2 - Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor. KW - Enzymelektrode ; Monophenolmonooxygenase KW - Tyrosinase KW - Phenol KW - Biosensor KW - Glucosedehydrogenase KW - Recyclingsystem KW - Tyrosinaseinhibitoren KW - Bioelektrokatalytisches Recycling KW - Biokatalytisches Recyc KW - tyrosinase KW - phenol KW - biosensor KW - glucose dehydrogenase KW - recycling system KW - tyrosinase inhibitors KW - bioelectrocatalytic recycling KW - biocatalytic recycling Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000632 ER - TY - THES A1 - Hoffmann-Rothe, Arne T1 - Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile N2 - Untersuchungen zur internen Architektur von großen Störungszonen beschränken sich üblicherweise auf die, an der Erdoberfläche aufgeschlossene, störungsbezogene Deformation. Eine Methode, die es ermöglicht, Informationen über die Tiefenfortsetzung einer Störung zu erhalten, ist die Abbildung der elektrischen Leitfähigkeit des Untergrundes. Die vorliegende Arbeit beschäftigt sich mit der kombinierten strukturgeologischen und magnetotellurischen Untersuchung eines Segmentes der 'West Fault'-Störung in den nordchilenischen Anden. Die West Fault ist ein Abschnitt des über 2000 km langen Präkordilleren-Störungssystem, welches im Zusammenhang mit der Subduktion vor der südamerikanischen Westküste entstanden ist. Die Aktivität dieses Störungssystems reichte vom Eozän bis in das Quartär. Der Verlauf der West Fault ist im Untersuchungsgebiet (22°04'S, 68°53'W) an der Oberfläche klar definiert und weist über viele zehner Kilometer eine konstante Streichrichtung auf. Die Aufschlussbedingungen und die Morphologie des Arbeitsgebietes sind ideal für kombinierte Untersuchungen der störungsbezogenen Deformation und der elektrischen Leitfähigkeit des Untergrundes mit Hilfe magnetotellurischer Experimente (MT) und der erdmagnetischen Tiefensondierung (GDS). Ziel der Untersuchungen war es, eine mögliche Korrelation der beiden Meßmethoden herauszuarbeiten, und die interne Störungsarchitektur der West Fault umfassend zu beschreiben. Die Interpretation von Sprödbruch-Strukturen (kleinmaßstäbliche Störungen sowie Störungsflächen mit/ohne Bewegungslineationen) im Untersuchungsgebiet weist auf überwiegend seitenverschiebende Deformation entlang von subvertikal orientierten Scherflächen hin. Dextrale und sinistrale Bewegungsrichtungen können innerhalb der Störungszone bestätigt werden, was auf Reaktivierungen des Störungssystems schliessen läßt. Die jüngsten Deformationen im Arbeitsgebiet haben dehnenden Charakter, wobei die kinematische Analyse eine unterschiedliche Orientierung der Extensionsrichtung beiderseits der Störung andeutet. Die Bruchflächendichte nimmt mit Annäherung an die Störung zu und zeichnet einen etwa 1000 m breiten Bereich erhöhter Deformationsintensität um die Störungsspur aus (damage zone). Im Zentrum dieser Zone weist das Gestein eine intensive Alteration und Brekzierung auf, die sich über eine Breite von etwa 400 m erstreckt. Kleine Störungen und Scherflächen in diesem zentralen Abschnitt der Störung fallen überwiegend steil nach Osten ein (70-80°). Innerhalb desselben Arbeitsgebietes wurde ein 4 km langes MT/GDS Profil vermessen, welches senkrecht zum Streichen der West Fault verläuft. Für die zentralen 2 km dieses Hauptprofils beträgt der Abstand der Meßstationen jeweils 100 m. Ein weiteres Profil, bestehend aus 9 Stationen mit einem Abstand von 300 m zueinander, quert die Störung einige Kilometer entfernt vom eigentlichen Arbeitsgebiet. Die Aufzeichnung der Daten erfolgte mit vier S.P.A.M MkIII Apparaturen in einem Frequenzbereich von 1000 Hz bis 0.001 Hz. In den GDS Daten beider Profile ist die Störung für Frequenzen >1 Hz deutlich abgebildet: Die Induktionspfeile kennzeichnen eine mehrere hundert Meter breite Zone erhöhter Leitfähigkeit, welche sich entlang der West Fault erstreckt. Die Dimensionalitätsanalyse der MT Daten rechtfertigt die Anpassung der gemessenen Daten mit einem zwei-dimensionalen Modell für einen Frequenzbereich von 1000 Hz bis 0.1 Hz. In diesem Frequenzbereich, der eine Auflösung der Leitfähigkeitsstruktur bis mindestens 5 km Tiefe ermöglicht, läßt sich eine regionale geoelektrische Streichrichtung parallel zum Verlauf der West Fault nachweisen. Die Modellierung der MT Daten beruht auf einem Inversionsalgorithmus von Mackie et al. (1997). Leitfähigkeitsanomalien, die sich aus der Inversions-Modellierung ergeben, werden anhand von empirischen Sensitivitätsstudien auf ihre Robustheit überprüft. Dabei werden die Eigenschaften (Geometrie, Leitfähigkeit) der Strukturen systematisch variiert und sowohl Vorwärts- als auch Inversionsrechnungen der modifizierten Modelle durchgeführt. Die jeweiligen Modellergebnisse werden auf ihre Konsistenz mit dem Ausgangsdatensatz überprüft. Entlang beider MT Profile wird ein guter elektrischer Leiter im zentralen Abschnitt der West Fault aufgelöst, wobei die Bereiche erhöhter Leitfähigkeit östlich der Störungsspur liegen. Für das dicht vermessene MT Profil ergibt sich eine Breite des Störungsleiters von etwa 300 m sowie ein steiles Einfallen der Anomalie nach Osten (70°). Der Störungsleiter reicht bis in eine Tiefe von mindestens 1100 m, während die Modellierungsstudien auf eine maximale Tiefenerstreckung <2000 m hinweisen. Das Profil zeigt weitere leitfähige Anomalien, deren Geometrie aber weniger genau aufgelöst ist. Die Störungsleiter der beiden MT Profile stimmen in ihrer Position mit der Alterationszone überein. Im zentralen Bereich des Hauptprofils korreliert darüber hinaus das Einfallen der Sprödbruch-Strukturen und der Leitfähigkeitsanomalie. Dies weist darauf hin, daß die Erhöhung der Leitfähigkeit im Zusammenhang mit einem Netzwerk von Bruchstrukturen steht, welches mögliche Wegsamkeiten für Fluide bietet. Der miteinander in Verbindung stehende Gesteins-Porenraum, der benötigt wird, um die gemessene Erhöhung der Leitfähigkeit durch Fluide im Gestein zu erklären, kann anhand der Salinität einiger Grundwasserproben abgeschätzt werden (Archies Gesetz). Wasserproben aus größerer Tiefe, weisen aufgrund intensiverer Fluid-Gesteins-Wechselwirkung eine höhere Salinität, und damit eine verbesserte Leitfähigkeit, auf. Für eine Probe aus einer Tiefe von 200 m ergibt sich demnach eine benötigte Porosität im Bereich von 0.8% - 4%. Dies legt nahe, daß Wässer, die von der Oberfläche in die Bruchzone der Störung eindringen, ausreichen, um die beobachtete Leitfähigkeitserhöhung zu erklären. Diese Deutung wird von der geochemischen Signatur von Gesteinsproben aus dem Alterationsbereich bestätigt, wonach die Alteration in einem Regime niedriger Temperatur (<95°C) stattfand. Der Einfluß von aufsteigenden Tiefenwässern wurde hier nicht nachgewiesen. Die geringe Tiefenerstreckung des Störungsleiters geht wahrscheinlich auf Verheilungs- und Zementationsprozesse der Bruchstrukturen zurück, die aufgrund der Lösung und Fällung von Mineralen in größerer Tiefe, und damit bei erhöhter Temperatur, aktiv sind. Der Vergleich der Untersuchungsergebnisse der zur Zeit seismisch inaktiven West Fault mit veröffentlichten Studien zur elektrischen Leitfähigkeitsstruktur der aktiven San Andreas Störung, deutet darauf hin, daß die Tiefenerstreckung und die Leitfähigkeit von Störungsleitern eine Funktion der Störungsaktivität ist. Befindet sich eine Störung in einem Stadium der Deformation, so bleibt das Bruchnetzwerk für Fluide permeabel und verhindert die Versiegelung desselben. N2 - The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways. KW - Anden / Störung / Strukturgeologie / Magnetotellurik / Chile KW - Magnetotellurik KW - Seitenverschiebung KW - Anden KW - West Fault Zone KW - Störungsbau KW - elektrische Leitfähigkeit KW - Magnetotelluric KW - Strike-slip fault KW - Andes KW - West Fault Zone KW - Fault architecture KW - electrical conductivity Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000569 ER - TY - THES A1 - Güntner, Andreas T1 - Large-scale hydrological modelling in the semi-arid north-east of Brazil N2 - Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes. N2 - Semiaride Gebiete sind auf Grund der klimatischen Bedingungen durch geringe Wasserressourcen gekennzeichnet. Ein zukünftig steigender Wasserbedarf in Folge von Bevölkerungswachstum und ökonomischer Entwicklung sowie eine geringere Wasserverfügbarkeit durch mögliche Klimaänderungen können dort zu einer Verschärfung der vielfach schon heute auftretenden Wasserknappheit führen. Das Verständnis der Mechanismen und Wechselwirkungen des komplexen Systems von Mensch und Umwelt sowie die quantitative Bestimmung zukünftiger Veränderungen in der Menge, der zeitlichen Verteilung und der Qualität von Wasserressourcen sind eine grundlegende Voraussetzung für die Entwicklung von nachhaltigen Maßnahmen des Wassermanagements mit dem Ziel einer höheren Anpassungsfähigkeit dieser Regionen gegenüber künftigen Änderungen. Hierzu sind dynamische integrierte Modelle unerlässlich, die als eine Komponente ein hydrologisches Modell beinhalten. Vorrangiges Ziel dieser Arbeit ist daher die Erstellung eines hydrologischen Modells zur großräumigen Bestimmung der Wasserverfügbarkeit unter sich ändernden Umweltbedingungen in semiariden Gebieten. Als Untersuchungsraum dient der im semiariden tropischen Nordosten Brasiliens gelegene Bundestaat Ceará (150 000 km2). Die mittleren Jahresniederschläge in diesem Gebiet liegen bei 850 mm innerhalb einer etwa fünfmonatigen Regenzeit. Mit vorwiegend kristallinem Grundgebirge und geringmächtigen Böden stellt Oberflächenwasser den größten Teil der Wasserversorgung bereit. Die Region war wiederholt von Dürren betroffen, die zu schweren ökonomischen Schäden und sozialen Folgen wie Migration aus den ländlichen Gebieten geführt haben. Das hier entwickelte hydrologische Modell Wasa (Model of Water Availability in Semi-Arid Environments) ist ein deterministisches, flächendifferenziertes Modell, das aus konzeptionellen, prozess-basierten Ansätzen aufgebaut ist. Die Wasserverfügbarkeit (Abfluss im Gewässernetz, Speicherung in Stauseen, Bodenfeuchte) wird mit täglicher Auflösung bestimmt. Als räumliche Zieleinheiten können Teileinzugsgebiete, Rasterzellen oder administrative Einheiten (Gemeinden) gewählt werden. Letztere ermöglichen die Kopplung des Modells im Rahmen der integrierten Modellierung mit Modulen, die nicht auf der Basis natürlicher Raumeinheiten arbeiten. Im Rahmen eines neuen skalenübergreifenden, hierarchischen Ansatzes werden in Wasa die genannten Zieleinheiten in kleinere räumliche Modellierungseinheiten unterteilt. Die ausgewiesenen Landschaftseinheiten erfassen insbesondere die strukturierte Variabilität von Gelände-, Boden- und Vegetationseigenschaften entlang von Toposequenzen in ihrem Einfluss auf Bodenfeuchte und Abflussbildung. Laterale hydrologische Prozesse auf kleiner Skala, wie die für semiaride Bedingungen bedeutsame Wiederversickerung von Oberflächenabfluss, können somit auch in der erforderlichen großskaligen Modellanwendung vereinfacht wiedergegeben werden. In Abhängigkeit von der Auflösung der verfügbaren Daten wird in Wasa die kleinskalige Variabilität nicht räumlich explizit sondern über die Verteilung von Flächenanteilen subskaliger Einheiten und über statistische Übergangshäufigkeiten für laterale Flüsse zwischen den Einheiten berücksichtigt. Weitere Modellkomponenten von Wasa, die spezifische Bedingungen semiarider Gebiete berücksichtigen, sind: (1) Ein Zwei-Schichten-Modell zur Bestimmung der Evapotranspiration berücksichtigt auch den Energieumsatz an der Bodenoberfläche (inklusive Bodenverdunstung), der in Anbetracht der meist lichten Vegetationsbedeckung von Bedeutung ist. Die Vegetationsparameter werden zudem flächen- und zeitdifferenziert in Abhängigkeit vom Auftreten der Regenzeit modifiziert. (2) Das Infiltrationsmodul bildet insbesondere Oberflächenabfluss durch Infiltrationsüberschuss als dominierender Abflusskomponente ab. (3) Zur aggregierten Beschreibung der Wasserbilanz von im Modell nicht einzeln erfassbaren Stauseen wird ein Speichermodell unter Berücksichtigung verschiedener Größenklassen und ihrer Interaktion über das Gewässernetz eingesetzt. (4) Ein Modell zur Bestimmung der Entnahme durch Wassernutzung in verschiedenen Sektoren ist an Wasa gekoppelt. (5) Ein Kaskadenmodell zur zeitlichen Disaggregierung von Niederschlagszeitreihen, das in dieser Arbeit speziell für tropische konvektive Niederschlagseigenschaften angepasst wird, wird zur Erzeugung höher aufgelöster Niederschlagsdaten verwendet. Alle Modellparameter von Wasa können von physiographischen Gebietsinformationen abgeleitet werden, sodass eine Modellkalibrierung primär nicht erforderlich ist. Die Modellanwendung von Wasa für historische Zeitreihen ergibt im Allgemeinen eine gute Übereinstimmung der Simulationsergebnisse für Abfluss und Stauseespeichervolumen mit Beobachtungsdaten in unterschiedlich großen Einzugsgebieten. Die mittlere Wasserbilanz sowie die hohe monatliche und jährliche Variabilität wird vom Modell angemessen wiedergegeben. Die Grenzen der Anwendbarkeit des Modell-konzepts zeigen sich am deutlichsten in Teilgebieten mit Abflusskomponenten aus tieferen Grundwasserleitern, deren Dynamik ohne Kalibrierung nicht zufriedenstellend abgebildet werden kann. Die Modellanwendungen zeigen weiterhin: (1) Laterale Prozesse der Umverteilung von Bodenfeuchte und Abfluss auf der Hangskala, vor allem die Wiederversickerung von Oberflächenabfluss, führen auf der Skala von Einzugsgebieten zu deutlich kleineren Abflussvolumen als die einfache Summe der Abflüsse der Teilflächen. Diese Prozesse sollten daher auch in großskaligen Modellen abgebildet werden. Die unterschiedliche Ausprägung dieser Prozesse für unterschiedliche Bedingungen zeigt sich an Hand einer prozentual größeren Verringerung der Abflussvolumen in trockenen im Vergleich zu feuchten Jahren. (2) Die Niederschlagseigenschaften haben einen sehr großen Einfluss auf die hydrologische Reaktion in semiariden Gebieten. Insbesondere die durch die grobe zeitliche Auflösung des Modells und durch Interpolationseffekte unterschätzten Niederschlagsintensitäten in den Eingangsdaten und die daraus folgende Unterschätzung von Abflussvolumen müssen im Modell kompensiert werden. Ein Skalierungsfaktor in der Infiltrationsroutine oder die Verwendung disaggregierter stündlicher Niederschlagsdaten zeigen hier gute Ergebnisse. Die Simulationsergebnisse mit Wasa sind insgesamt durch große Unsicherheiten gekennzeichnet. Diese sind einerseits in Unsicherheiten der Modellstruktur zur adäquaten Beschreibung der relevanten hydrologischen Prozesse begründet, andererseits in Daten- und Parametersunsicherheiten in Anbetracht der geringen Datenverfügbarkeit. Von besonderer Bedeutung ist: (1) Die Unsicherheit der Niederschlagsdaten in ihrem räumlichen Muster und ihrer zeitlichen Struktur hat wegen der stark nicht-linearen hydrologischen Reaktion einen großen Einfluss auf die Simulationsergebnisse. (2) Die Unsicherheit von Bodenparametern hat im Vergleich zu Vegetationsparametern und topographischen Parametern im Allgemeinen einen größeren Einfluss auf die Modellunsicherheit. (3) Der Effekt der Unsicherheit einzelner Modellkomponenten und -parameter ist für Jahre mit unter- oder überdurchschnittlichen Niederschlagsvolumen zumeist unterschiedlich, da einzelne hydrologische Prozesse dann jeweils unterschiedlich relevant sind. Die Unsicherheit einzelner Modellkomponenten- und parameter hat somit eine unterschiedliche Bedeutung für die Unsicherheit von Szenarienrechnungen mit steigenden oder fallenden Niederschlagstrends. (4) Der bedeutendste Unsicherheitsfaktor für Szenarien der Wasserverfügbarkeit für die Untersuchungsregion ist die Unsicherheit der den regionalen Klimaszenarien zu Grunde liegenden Ergebnisse globaler Klimamodelle. Eine deutliche Zunahme oder Abnahme der Niederschläge bis 2050 kann gemäß den hier vorliegenden Daten für das Untersuchungsgebiet gleichermaßen angenommen werden. Modellsimulationen für Klimaszenarien bis zum Jahr 2050 ergeben, dass eine mögliche zukünftige Veränderung der Niederschlagsmengen zu einer prozentual zwei- bis dreifach größeren Veränderung der Abflussvolumen führt. Im Falle eines Trends von abnehmenden Niederschlagsmengen besteht in der Untersuchungsregion die Tendenz, dass auf Grund der gegenseitigen Beeinflussung der großen Zahl von Stauseen beim Rückhalt der tendenziell abnehmenden Abflussvolumen die Effizienz von neugebauten Stauseen zur Sicherung der Wasserverfügbarkeit zunehmend geringer wird. KW - Ceará / Semiarides Gebiet / Wasserreserve / Hydrologie / Mathematisches Modell KW - Hydrologie KW - Wasserverfügbarkeit KW - Klimaänderung KW - Niederschlag-Abfluss-Modellierung KW - Trockengebiet KW - semi-arid KW - Unsicherheiten KW - Brasilien KW - hydrology KW - water availability KW - climate change KW - rainfall-runoff modelling KW - drylands KW - semi-arid KW - uncertainties KW - Brazil Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000511 ER - TY - THES A1 - Kuhlbrodt, Till T1 - Stability and variability of open-ocean deep convection in deterministic and stochastic simple models N2 - Die Tiefenkonvektion ist ein wesentlicher Bestandteil der Zirkulation im Nordatlantik. Sie beeinflusst den nordwärtigen Wärmetransport der thermohalinen Zirkulation. Ein Verständnis ihrer Stabilität und Variabilität ist daher nötig, um Klimaveränderungen im Bereich des Nordatlantiks einschätzen zu können. Diese Arbeit hat zum Ziel, das konzeptionelle Verständnis der Stabilität und der Variabilität der Tiefenkonvektion zu verbessern. Beobachtungsdaten aus der Labradorsee zeigen Phasen mit und ohne Tiefenkonvektion. Ein einfaches Modell mit zwei Boxen wird an diese Daten angepasst. Das Ergebnis legt nahe, dass die Labradorsee zwei koexistierende stabile Zustände hat, einen mit regelmäßiger Tiefenkonvektion und einen ohne Tiefenkonvektion. Diese Bistabilität ergibt sich aus einer positiven Salzgehalts-Rückkopplung, deren Ursache ein Netto-Süßwassereintrag in die Deckschicht ist. Der konvektive Zustand kann schnell instabil werden, wenn der mittlere Antrieb sich hin zu wärmeren oder weniger salzhaltigen Bedingungen ändert. Die wetterbedingte Variabilität des externen Antriebs wird durch die Addition eines stochastischen Antriebsterms in das Modell eingebaut. Es zeigt sich, dass dann die Tiefenkonvektion häufig an- und wieder ausgeschaltet wird. Die mittlere Aufenthaltszeit in beiden Zuständen ist ein Maß ihrer stochastischen Stabilität. Die stochastische Stabilität hängt in glatter Weise von den Parametern des Antriebs ab, im Gegensatz zu der deterministischen (nichtstochastischen) Stabilität, die sich abrupt ändern kann. Sowohl das Mittel als auch die Varianz des stochastischen Antriebs beeinflussen die Häufigkeit von Tiefenkonvektion. Eine Abnahme der Konvektionshäufigkeit, als Reaktion auf eine Abnahme des Salzgehalts an der Oberfläche, kann zum Beispiel durch eine Zunahme der Variabilität in den Wärmeflüssen kompensiert werden. Mit einem weiter vereinfachten Box-Modell werden einige Eigenschaften der stochastischen Stabilität analytisch untersucht. Es wird ein neuer Effekt beschrieben, die wandernde Monostabilität: Auch wenn die Tiefenkonvektion aufgrund geänderter Parameter des Antriebs kein stabiler Zustand mehr ist, kann der stochastische Antrieb immer noch häufig Konvektionsereignisse auslösen. Die analytischen Gleichungen zeigen explizit, wie die wandernde Monostabilität sowie andere Effekte von den Modellparametern abhängen. Diese Abhängigkeit ist für die mittleren Aufenthaltszeiten immer exponentiell, für die Wahrscheinlichkeit langer nichtkonvektiver Phasen dagegen nur dann, wenn diese Wahrscheinlichkeit gering ist. Es ist zu erwarten, dass wandernde Monostabilität auch in anderen Teilen des Klimasystems eine Rolle spielt. Insgesamt zeigen die Ergebnisse, dass die Stabilität der Tiefenkonvektion in der Labradorsee sehr empfindlich auf den Antrieb reagiert. Die Rolle der Variabilität ist entscheidend für ein Verständnis dieser Empfindlichkeit. Kleine Änderungen im Antrieb können bereits die Häufigkeit von Tiefenkonvektionsereignissen deutlich mindern, was sich vermutlich stark auf das regionale Klima auswirkt. N2 - Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam. KW - Labradorsee ; Thermohaline Konvektion ; Stochastisches Modell KW - Stochastische dynamische Systeme KW - Nichtlineare Dynamik KW - Bistabilität KW - Nordatlantik KW - Stochastic dynamical systems KW - Nonlinear dynamics KW - Bistability KW - North Atlantic Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000622 ER - TY - THES A1 - Sahlmann, Hanno T1 - Coupling matter to loop quantum gravity N2 - Motiviert durch neuere Vorschläge zur experimentellen Untersuchung von Quantengravitationseffekten werden in der vorliegenden Arbeit Annahmen und Methoden untersucht, die für die Vorhersagen solcher Effekte im Rahmen der Loop-Quantengravitation verwendet werden können. Dazu wird als Modellsystem ein skalares Feld, gekoppelt an das Gravitationsfeld, betrachtet. Zunächst wird unter bestimmten Annahmen über die Dynamik des gekoppelten Systems eine Quantentheorie für das Skalarfeld vorgeschlagen. Unter der Annahme, dass sich das Gravitationsfeld in einem semiklassischen Zustand befindet, wird dann ein "QFT auf gekrümmter Raumzeit-Limes" dieser Theorie definiert. Im Gegensatz zur gewöhnlichen Quantenfeldtheorie auf gekrümmter Raumzeit beschreibt die Theorie in diesem Grenzfall jedoch ein quantisiertes Skalarfeld, das auf einem (klassisch beschriebenen) Zufallsgitter propagiert. Sodann werden Methoden vorgeschlagen, den Niederenergieliemes einer solchen Gittertheorie, vor allem hinsichtlich der resultierenden modifizierten Dispersonsrelation, zu berechnen. Diese Methoden werden anhand von einfachen Modellsystemen untersucht. Schließlich werden die entwickelten Methoden unter vereinfachenden Annahmen und der Benutzung einer speziellen Klasse von semiklassischen Zuständen angewandt, um Korrekturen zur Dispersionsrelation des skalaren und des elektromagnetischen Feldes im Rahmen der Loop-Quantengravitation zu berechnen. Diese Rechnungen haben vorläufigen Charakter, da viele Annahmen eingehen, deren Gültigkeit genauer untersucht werden muss. Zumindest zeigen sie aber Probleme und Möglichkeiten auf, im Rahmen der Loop-Quantengravitation Vorhersagen zu machen, die sich im Prinzip experimentell verifizieren lassen. N2 - Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment. KW - Quantengravitation KW - Loop-Quantengravitation KW - semiklassische Zustände KW - Dispersionsrelationen KW - quantum gravity KW - loop quantum gravity KW - semiclassical states KW - dispersion relations Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000602 ER - TY - THES A1 - Franco González, Olga T1 - Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure N2 - Die Suche nach neuen Materialien von technischem Interesse hat in den letzten Jahren neue Antriebe zu der Untersuchung organischer Verbindungen gegeben. Organische Substanzen haben viele Vorteile wie z.B. die Möglichkeit, ihre Eigenschaften durch verschiedene chemische und physikalische Techniken im Herstellung-Prozess für ein bestimmtes Ziel zu modifizieren. Oxadiazolverbindungen sind interessant aufgrund ihrer Nutzung als Material für Licht emittierende Dioden und Scintillatoren. Die physikalischen Eigenschaften eines Festkörpers hängen von seiner Struktur ab. Unterschiedliche Strukturen entwickeln unterschiedliche intra- und intermolekülare Wechselwirkungen. Eine ausgezeichnete Weise, um sowohl die intra- als auch die intermolekularen Wechselwirkungen eines bestimmtes Stoffes zu beeinflussen, ohne seine chemischen Charakteristiken zu ändern, ist die Verwendung von hohem Druck. Wir haben den Einfluss von hohem Druck und hoher Temperatur auf die super-molekulare Struktur einiger Oxadiazolverbindungen im kristallinem Zustand untersucht. Aus diesen Untersuchungsergebnissen wurde eine Zustandsgleichung für diese Kristalle bestimmt. Überdies wurden die spektroskopischen Eigenschaften dieser Materialien unter hohem Druck charakterisiert. N2 - In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized. KW - Oxadiazolderivate ; Kristallstruktur ; Hochdruck ; UV-VIS-Spektroskopie ; Raman-Spektroskopie KW - Hochdruck KW - organische Kristalle KW - Kristallstruktur KW - Zustandsgleichung KW - UV-Vis Spektroskopie KW - Raman Streuung KW - high pressure KW - organic crystal KW - crystal structure KW - equation of state KW - UV-Vis spectroscopy KW - Raman scattering Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000572 ER - TY - THES A1 - Boeuf, Stéphane T1 - Comparative study of gene expression during the differentiation of white and brown preadipocytes N2 - Einleitung Säugetiere haben zwei verschiedene Arten von Fettgewebe: das weiße Fettgewebe, welches vorwiegend zur Lipidspeicherung dient, und das braune Fettgewebe, welches sich durch seine Fähigkeit zur zitterfreien Thermogenese auszeichnet. Weiße und braune Adipozyten sind beide mesodermalen Ursprungs. Die Mechanismen, die zur Entwicklung von Vorläuferzellen in den weißen oder braunen Fettzellphenotyp führen, sind jedoch unbekannt. Durch verschiedene experimentelle Ansätze konnte gezeigt werden, daß diese Adipocyten vermutlich durch die Differenzierung zweier Typen unterschiedlicher Vorläuferzellen entstehen: weiße und braune Preadipozyten. Von dieser Hypothese ausgehend, war das Ziel dieser Studie, die Genexpression weißer und brauner Preadipozyten auf Unterschiede systematisch zu analysieren. Methoden Die zu vergleichenden Zellen wurden aus primären Zellkulturen weißer und brauner Preadipozyten des dsungarischen Zwerghamsters gewonnen. „Representational Difference Analysis“ wurde angewandt, um potentiell unterschiedlich exprimierte Gene zu isolieren. Die daraus resultierenden cDNA Fragmente von Kandidatengenen wurden mit Hilfe der Microarraytechnik untersucht. Die Expression dieser Gene wurde in braunen und weißen Fettzellen in verschiedenen Differenzierungsstadien und in braunem und weißem Fettgewebe verglichen. Ergebnisse 12 Gene, die in braunen und weißen Preadipozyten unterschiedlich exprimiert werden, konnten identifiziert werden. Drei Komplement Faktoren und eine Fettsäuren Desaturase werden in weißen Preadipozyten höher exprimiert; drei Struktur Gene (Fibronectin, Metargidin und a Actinin 4), drei Gene verbunden mit transkriptioneller Regulation (Necdin, Vigilin und das „small nuclear ribonucleoprotein polypeptide A“) sowie zwei Gene unbekannter Funktion werden in braunen Preadipozyten höher exprimiert. Mittels Clusteranalyse (oder Gruppenanalyse) wurden die gesamten Genexpressionsdaten charakterisiert. Dabei konnten die Gene in 4 typischen Expressionsmuster aufgeteilt werden: in weißen Preadipozyten höher exprimierte Gene, in braunen Preadipozyten höher exprimierte Gene, während der Differenzierung herunter regulierte Gene und während der Differenzierung hoch regulierte Gene. Schlußfolgerungen In dieser Studie konnte gezeigt werden, daß weiße und braune Preadipozyten aufgrund der Expression verschiedener Gene unterschieden werden können. Es wurden mehrere Kandidatengene zur Bestimmung weißer und brauner Preadipozyten identifiziert. Außerdem geht aus den Genexpressionsdaten hervor, daß funktionell unterschiedliche Gruppen von Genen eine wichtige Rolle bei der Differenzierung von weißen und braunen Preadipozyten spielen könnten, wie z.B. Gene des Komplementsystems und der extrazellulären Matrix. N2 - Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix. KW - Säugetiere ; Fettgewebe ; Zelldifferenzierung ; Genexpression KW - Preadipozyt KW - Adipozyt KW - Fettzelle KW - braunes Fettgewebe KW - Differenzierung KW - Genexpression KW - Microarray KW - preadipocyte KW - adipocyte KW - brown adipose tissue KW - differentiation KW - gene expression KW - microarray Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000542 ER - TY - THES A1 - Schaber, Jörg T1 - Phenology in Germany in the 20th century : methods, analyses and models N2 - Die Länge der Vegetationsperiode (VP) spielt eine zentrale Rolle für die interannuelle Variation der Kohlenstoffspeicherung terrestrischer Ökosysteme. Die Analyse von Beobachtungsdaten hat gezeigt, dass sich die VP in den letzten Jahrzehnten in den nördlichen Breiten verlängert hat. Dieses Phänomen wurde oft im Zusammenhang mit der globalen Erwärmung diskutiert, da die Phänologie von der Temperatur beeinflusst wird. Die Analyse der Pflanzenphänologie in Süddeutschland im 20. Jahrhundert zeigte: - Die starke Verfrühung der Frühjahrsphasen in dem Jahrzehnt vor 1999 war kein singuläres Ereignis im 20. Jahrhundert. Schon in früheren Dekaden gab es ähnliche Trends. Es konnten Perioden mit unterschiedlichem Trendverhalten identifiziert werden. - Es gab deutliche Unterschiede in den Trends von frühen und späten Frühjahrsphasen. Die frühen Frühjahrsphasen haben sich stetig verfrüht, mit deutlicher Verfrühung zwischen 1931 und 1948, moderater Verfrühung zwischen 1948 und 1984 und starker Verfrühung zwischen 1984 und 1999. Die späten Frühjahrsphasen hingegen, wechselten ihr Trendverhalten in diesen Perioden von einer Verfrühung zu einer deutlichen Verspätung wieder zu einer starken Verfrühung. Dieser Unterschied in der Trendentwicklung zwischen frühen und späten Frühjahrsphasen konnte auch für ganz Deutschland in den Perioden 1951 bis 1984 und 1984 bis 1999 beobachtet werden. Der bestimmende Einfluss der Temperatur auf die Frühjahrsphasen und ihr modifizierender Einfluss auf die Herbstphasen konnte bestätigt werden. Es zeigt sich jedoch, dass - die Phänologie bestimmende Funktionen der Temperatur nicht mit einem globalen jährlichen CO2 Signal korreliert waren, welches als Index für die globale Erwärmung verwendet wurde - ein Index für grossräumige regionale Zirkulationsmuster (NAO-Index) nur zu einem kleinen Teil die beobachtete phänologischen Variabilität erklären konnte. Das beobachtete unterschiedliche Trendverhalten zwischen frühen und späten Frühjahrsphasen konnte auf die unterschiedliche Entwicklung von März- und Apriltemperaturen zurückgeführt werden. Während sich die Märztemperaturen im Laufe des 20. Jahrhunderts mit einer zunehmenden Variabilität in den letzten 50 Jahren stetig erhöht haben, haben sich die Apriltemperaturen zwischen dem Ende der 1940er und Mitte der 1980er merklich abgekühlt und dann wieder deutlich erwärmt. Es wurde geschlussfolgert, dass die Verfrühungen in der Frühjahrsphänologie in den letzten Dekaden Teile multi-dekadischer Fluktuationen sind, welche sich nach Spezies und relevanter saisonaler Temperatur unterscheiden. Aufgrund dieser Fluktuationen konnte kein Zusammenhang mit einem globalen Erwärmungsignal gefunden werden. Im Durchschnitt haben sich alle betrachteten Frühjahrsphasen zwischen 1951 und 1999 in Naturräumen in Deutschland zwischen 5 und 20 Tagen verfrüht. Ein starker Unterschied in der Verfrühung zwischen frühen und späten Frühjahrsphasen liegt an deren erwähntem unterschiedlichen Verhalten. Die Blattverfärbung hat sich zwischen 1951 und 1999 für alle Spezies verspätet, aber nach 1984 im Durchschnitt verfrüht. Die VP hat sich in Deutschland zwischen 1951 und 1999 um ca. 10 Tage verlängert. Es ist hauptsächlich die Änderung in den Frühjahrphasen, die zu einer Änderung in der potentiell absorbierten Strahlung (PAS) führt. Darüber hinaus sind es die späten Frühjahrsphasen, die pro Tag Verfrühung stärker profitieren, da die zusätzlichen Tage länger undwärmer sind als dies für die frühen Phasen der Fall ist. Um die relative Änderung in PAS im Vergleich der Spezies abzuschätzen, müssen allerdings auch die Veränderungen in den Herbstphasen berücksichtigt werden. Der deutliche Unterschied zwischen frühen und späten Frühjahrsphasen konnte durch die Anwendung einer neuen Methode zur Konstruktion von Zeitreihen herausgearbeitet werden. Der neue methodische Ansatz erlaubte die Ableitung verlässlicher 100-jähriger Zeitreihen und die Konstruktion von lokalen kombinierten Zeitreihen, welche die Datenverfügbarkeit für die Modellentwicklung erhöhten. Ausser analysierten Protokollierungsfehlern wurden mikroklimatische, genetische und Beobachtereinflüsse als Quellen von Unsicherheit in phänologischen Daten identifiziert. Phänologischen Beobachtungen eines Ortes können schätzungsweise 24 Tage um das parametrische Mittel schwanken.Dies unterstützt die 30-Tage Regel für die Detektion von Ausreissern. Neue Phänologiemodelle, die den Blattaustrieb aus täglichen Temperaturreihen simulieren, wurden entwickelt. Diese Modelle basieren auf einfachen Interaktionen zwischen aktivierenden und hemmenden Substanzen, welche die Entwicklungsstadien einer Pflanze bestimmen. Im Allgemeinen konnten die neuen Modelle die Beobachtungsdaten besser simulieren als die klassischen Modelle. Weitere Hauptresultate waren: - Der Bias der klassischen Modelle, d.h. Überschätzung von frühen und Unterschätzung von späten Beobachtungen, konnte reduziert, aber nicht vollständig eliminiert werden. - Die besten Modellvarianten für verschiedene Spezies wiesen darauf hin, dass für die späten Frühjahrsphasen die Tageslänge eine wichtigere Rolle spielt als für die frühen Phasen. - Die Vernalisation spielte gegenüber den Temperaturen kurz vor dem Blattaustrieb nur eine untergeordnete Rolle. N2 - The length of the vegetation period (VP) plays a central role for the interannual variation of carbon fixation of terrestrial ecosystems. Observational data analysis has indicated that the length of the VP has increased in the last decades in the northern latitudes mainly due to an advancement of bud burst (BB). This phenomenon has been widely discussed in the context of Global Warming because phenology is correlated to temperatures. Analyzing the patterns of spring phenology over the last century in Southern Germany provided two main findings: - The strong advancement of spring phases especially in the decade before 1999 is not a singular event in the course of the 20th century. Similar trends were also observed in earlier decades. Distinct periods of varying trend behavior for important spring phases could be distinguished. - Marked differences in trend behavior between the early and late spring phases were detected. Early spring phases changed as regards the magnitude of their negative trends from strong negative trends between 1931 and 1948 to moderate negative trends between 1948 and 1984 and back to strong negative trends between 1984 and 1999. Late spring phases showed a different behavior. Negative trends between 1931 and 1948 are followed by marked positive trends between 1948 and 1984 and then strong negative trends between 1984 and 1999. This marked difference in trend development between early and late spring phases was also found all over Germany for the two periods 1951 to 1984 and 1984 to 1999. The dominating influence of temperature on spring phenology and its modifying effect on autumn phenology was confirmed in this thesis. However, - temperature functions determining spring phenology were not significantly correlated with a global annual CO2 signal which was taken as a proxy for a Global Warming pattern. - an index for large scale regional circulation patterns (NAO index) could only to a small part explain the observed phenological variability in spring. The observed different trend behavior of early and late spring phases is explained by the differing behavior of mean March and April temperatures. Mean March temperatures have increased on average over the 20th century accompanied by an increasing variation in the last 50 years. April temperatures, however, decreased between the end of the 1940s and the mid-1980s, followed by a marked warming after the mid-1980s. It can be concluded that the advancement of spring phenology in recent decades are part of multi-decadal fluctuations over the 20th century that vary with the species and the relevant seasonal temperatures. Because of these fluctuations a correlation with an observed Global Warming signal could not be found. On average all investigated spring phases advanced between 5 and 20 days between 1951 and 1999 for all Natural Regions in Germany. A marked difference be! tween late and early spring phases is due to the above mentioned differing behavior before and after the mid-1980s. Leaf coloring (LC) was delayed between 1951 and 1984 for all tree species. However, after 1984 LC was advanced. Length of the VP increased between 1951 and 1999 for all considered tree species by an average of ten days throughout Germany. It is predominately the change in spring phases which contributes to a change in the potentially absorbed radiation. Additionally, it is the late spring species that are relatively more favored by an advanced BB because they can additionally exploit longer days and higher temperatures per day advancement. To assess the relative change in potentially absorbed radiation among species, changes in both spring and autumn phenology have to be considered as well as where these changes are located in the year. For the detection of the marked difference between early and late spring phenology a new time series construction method was developed. This method allowed the derivation of reliable time series that spanned over 100 years and the construction of locally combined time series increasing the available data for model development. Apart from analyzed protocolling errors, microclimatic site influences, genetic variation and the observers were identified as sources of uncertainty of phenological observational data. It was concluded that 99% of all phenological observations at a certain site will vary within approximately 24 days around the parametric mean. This supports to the proposed 30-day rule to detect outliers. New phenology models that predict local BB from daily temperature time series were developed. These models were based on simple interactions between inhibitory and promotory agents that are assumed to control the developmental status of a plant. Apart from the fact that, in general, the new models fitted and predicted the observations better than classical models, the main modeling results were: - The bias of the classical models, i.e. overestimation of early observations and underestimation of late observations, could be reduced but not completely removed. - The different favored model structures for each species indicated that for the late spring phases photoperiod played a more dominant role than for early spring phases. - Chilling only plays a subordinate role for spring BB compared to temperatures directly preceding BB. KW - Phänologie KW - kombinierte Zeitreihen KW - Physiologie-basierte Modelle KW - Unsicherheit KW - Variabilität KW - Ausreisser KW - Trends KW - Naturräume KW - Trendwendepunkte KW - Fag KW - phenology KW - combined time series KW - physiology-based models KW - uncertainty KW - variability KW - outliers KW - trends KW - Natural Regions KW - trend turning points KW - Fagus syl Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000532 ER - TY - THES A1 - Gschwendt, Miriam A. T1 - Early manifestations of aggression in infants of high risk mother-infant dyads N2 - Ziel dieser Untersuchung war es frühe Risikofaktoren von aggressivem Verhalten bei Kleinkindern in einer Stichprobe von Teenager-Müttern und ihren Babys aus sozial schwachen Verhältnissen (high risk sample) zu identifizieren. In den zurückliegenden zwei Jahrzehnten haben Wissenschaftler immer wieder auf die Bedeutung von Strategien hingewiesen, die es ermöglichen, Kinder und Babys mit einem Risiko für aggresives Verhalten zu identifiezieren. Eine frühe Identifizierung ist besonders wichtig, weil schon Babys und Kinder eine signifikante Psychopathologie besitzen können und u. U. von einer Behandlung profitieren. Außerdem postulieren einige Entwicklungstheorien, dass der Ursprung einer späteren Psychopathologie schon in Verhaltensmustern in den ersten Lebensjahren erkannt werden kann. Dies scheint insbesondere für aggressives Verhalten zu gelten. Deshalb besteht grosses Interesse daran, relevante Faktoren in der frühen Kindheit zu identifizieren, die es erlauben aggressives Verhalten im weiteren Verlauf der Kindheit vorauszusagen. Methodik 60 Teenager-Mütter im Alter zwischen 14 und 20 Jahre und ihre Kleinkinder im Alter zwischen 12 und 17 Monaten aus sozial schwachen Verhältnissen wurden untersucht (high risk sample). Die Teenager-Mütter füllten Fragebögen über ihre Kleinkinder (The Infant-Toddler Social and Emotional Assessment [ITSEA], Carter & Briggs-Gowan, 1993) und über sich selber aus (The Parenting Stress Index [PSI], Abidin, 1990, The Symptom CheckList-90-Revised [SCL-90-R], Derogatis, 1986, The Demographic Qüstionnaire, Zelenko et al., in press). Die Kleinkinder nahmen weiters an zwei objektiven Laboruntersuchungen teil (The Strange Situation Procedure, [SS], Ainsworth, 1978, The Bayley Scales of Infant Development Assessment, [BSID-II], Bayley, 1993). Die Studie untersuchte folgende Beziehungen: (1) Psychosoziale Funktionen der Mutter mit berichteter (berichet von Mutter anhand des ITSEA) und beobachteter Aggression und negativer Emotionalität bei Kleinkindern (beobachtet während des BSID-II und SS), (2) berichtete Aggression und negative Emotionalität mit beobachteter Aggression und negative Emotionalität bei Kleinkindern, (3) negative Emotionalität mit Aggression bei Kleinkindern, (4) Emotionsregulation mit Aggression und negativer Emotionalität bei Kleinkindern, und (5) eine mögliche Interaktion zwischen Emotionsregulation und negativer Emotionalität in Beziehung zu Aggression bei Kleinkindern. Zusätzlich wurde die Frage untersucht, ob Geschlecht einen Einfluss hat auf die oben genannten fünf Beziehungen. Ergebnisse Mütter mit höheren Depressionenswerten und Stresswerten berichteten signifikant mehr negative Emotionalität und tendenziell mehr Aggressionen bei ihren Kleinkindern als Mütter mit niedrigeren Depressionswerten und Stresswerten. Keine signifikanten Beziehungen konnten festgestellt werden zwischen Depressionswerten und Stresswerten der Mutter und objektiv beobachteten Aggressionen und negativer Emotionalität bei Kleinkindern. Die Beziehung zwischen beobachteter und berichteter negativer Emotionalität bei Kleinkindern war schwach signifikant. Keine signifikante Beziehung konnte jedoch zwischen beobachteter und berichteter Aggression bei Kleinkindern gezeigt werden. Sowohl berichtete als auch beobachtete negative Emotionalität korrelierte signifikant mit berichteter und beobachteter Aggression bei Kleinkindern. Eine signifikante Beziehung zwischen Emotionsregulation und negativer Emotionalität und Aggression bei Kleinkindern konnte aufgezeigt werden. Kleinkinder mit schwacher Emotionsregulation zeigten signifikant mehr negative Emotionalität und Aggressionen als Kleinkinder mit starker Emotionsregulation. Kleinkinder mit hohen negativen Emotionswerten und schwacher Emotionsregulation zeigten signifikant mehr Aggressionen als Kleinkinder mit hohen negativen Emotionswerten und starker Emotionsregulation und Kleinkindern mit niedrigen negativen Emotionswerten und schwacher oder starker Emotionsregulation. Das Geschlecht des Kleinkindes hatte einen signifikanten Einfluss auf folgende Beziehungen: Mütter mit höheren Depressionswerten und Stresswerten berichteten signifikant mehr Aggressionen und negative Emotionalität bei ihren Töchtern, jedoch nicht signifikant mehr Aggressionen und negative Emotionalität bei ihren Söhnen als Mütter mit niedrigeren Depressionswerten und Stresswerten. Das Geschlecht des Kleinkindes hatte keinen signifikanten Einfluss auf die Beziehung zwischen Depressionswerten und Stresswerten der Mutter und beobachteter Aggression und negativer Emotionalität bei Kleinkindern. Ein interessantes Ergebnis ergab sich hinsichtlich Geschlecht und Emotionsregulationsverhaltensweisen. Buben mit höheren Aggressionswerten schauten signifikant weniger zu ihrer Mutter und signifikant weniger in die Umgebung als Buben mit niedrigeren Aggressionswerten. Mädchen mit höheren Aggressionswerten schauten signifikant mehr zu ihrer Mutter, signifikant mehr in die Umgebung und signifikant mehr auf Spielzeuge als Mädchen mit niedrigen Aggressionswerten. Schlussfolgerung Die Ergebnisse der Untersuchung haben Implikationen für die Einschätzung und die Behandlung von Aggressionen bei Kleinkindern. Erstens, die Ergebnisse weisen darauf hin, dass es unter Umständen wichtig sein könnte verschiedene Messverfahren (Mutter Report und objektive Messverfahren) zu verwenden, um Kleinkinder zu diagnostizieren, die ein erhöhtes Risiko aufweisen im Laufe ihres Lebens Aggressionen zu entwickeln. Zweitens, Ergebnisse identifizierten mütterliche negative Attributionen als einen möglichen Risikofaktor für späteres Aggressionsverhalten bei Kindern. Zukünftige Studien sollten die Beziehung zwischen Aggressionsverhalten im Kleinkindalter und Aggressionen im späteren Leben untersuchen. Ein weiteres interessantes Ergebnis ergab sich hinsichtlich Emotionsregulation. Kleinkinder mit hoher negativer Emotionalität und schwacher Emotionsregualtion zeigten die meisten Aggressionen. Für die Behandlung und die zukünftige Erforschung von Kleinkindaggressionen sollten die drei Konstrukte (Emotionsregualtion, negative Emotionalität und Aggression) miteinander kombiniert werden und nicht alleine untersucht werden. N2 - The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time. KW - Junge Mutter / Kind / Aggressivität / Risikoverhalten KW - Aggression KW - Emotionsregulation KW - Negative Emotionalität KW - Kleinkinder KW - Mutter-Kind Interaktion KW - Depression KW - Aggression KW - Emotion Regulation KW - Negative Emotionality KW - Infants KW - Mother-Child Interaction KW - Depression Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000528 ER - TY - THES A1 - Imperia, Paolo T1 - Localised states in organic semiconductors and their detection N2 - In den letzten Jahren ist eine Vielzahl neuer organischer Polymere und niedermolekularer Verbindungen synthetisiert worden, die sich als aktive Komponente für Elektrolumineszenz-Bauelemente und andere elektronische Anwendungen eignen. Trotz der großen technologischen Bedeutung und des erheblichen Fortschrittes, der bei der Herstellung solcher Materialien erzielt worden ist, sind grundlegende physikalische Eigenschaften dieser Materialklassen noch nicht ausreichend erforscht. Insbesondere das Auftreten lokalisierter Zustände innerhalb der Bandlücke hat besondere Bedeutung für ihre elektronischen Eigenschaften. Sowohl die Präsenz dieser flachen traps (Fallen, Löcher) als auch der Einfluß der Herstellungsbedingungen auf die tiefen und flachen lokalisierten Zustände wurden bisher nicht systematisch untersucht. Thermische Techniken sind wichtige Methoden, um lokalisierte Niveaus in organischen und anorganischen Materialien zu erforschen. Themisch-Stimulierte Lumineszenz (TSL), Thermisch-Stimulierte Ströme (TSC) und Thermisch-Stimulierte Depolarisierte Ströme (TSDC) ermöglichen die Untersuchung flacher und tiefer traps; in Verbindung mit DiElektrischer Spektroskopie (DES) können außerdem Polarisations- und Depolarisationseffekte studiert werden. Mit Hilfe numerischer Simulationen haben wir die kinetischen Gleichungen erster und zweiter Ordnung untersucht, die sich durch schwaches bzw. starkes Wieder-Fangen beschreiben lassen. In diesen Gleichungen haben wir Gaussian-, exponentielle und quasi-kontinuierliche Verteilungen von lokalisierten Zustände berücksichtigt. Durch Veränderung der beiden wichtigsten Parameter (Tiefe der traps E und Häufigkeit) konnte die Form der thermischen Maxima untersucht werden. Auch die die Gaussian-Verteilung bestimmenden Faktoren wurden verändert. Diese theoretischen Ergebnisse wurden auf die experimentellen Glow-Kurven angewandt. Dünne Filme aus polymeren und niedermolekularen Verbindungen (Polyphenylquinoxaline, Trisphenylquinoxaline und Oxadiazole), die wegen ihrer technologischen Bedeutung ausgewählt wurden, zeigen komplexes thermisches Verhalten. Insbesondere hoch geordnete Filme eines amphiphil substituierten 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazols (NADPO) zeichnen sich durch komplexe TSL-Diagramme aus. Im Bereich von Em = 4 meV wurde eine Region flacher traps gefunden. Zwei weitere TSL-Maxima treten bei Tm = 221.5 K bzw. Tm = 254.2 K auf. Sie besitzen Aktivierungsenergien von Em= 0.63 eV bzw. Em = 0.66 eV, ihre Frequenzfaktoren betragen s = 2.4x1012 s-1 bzw. s = 1.85x1011 s-1, sie zeigen Breiten der Verteilung von s = 0.045 eV bzw. s = 0.088 eV. Des weiteren zeigt diese Arbeit, daß die Form der Glow-Kurven stark von der Anregungstemperatur und vom thermischen Kreislauf beeinflußt wird. N2 - New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered. KW - Themisch-Stimulierte Lumineszenz KW - TSL KW - Verteilungen von lokalisierten Zustände KW - Thermally stimulated luminescence KW - TSL KW - distributions of localised states Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000477 ER - TY - THES A1 - Memola, Elisabetta T1 - Magnetic jets from accretion disks : field structure and X-ray emission N2 - Astrophysikalische Jets sind stark kollimierte Materieströmungen hoher Geschwindigkeit. Sie stehen im Zusammenhang mit einer Fülle verschiedener astrophysikalischer Objekte wie jungen Sternen, stellaren schwarzen Löchern ('Mikro-Quasare'), Galaxien mit aktivem Kern (AGN) und wahrscheinlich auch mit dem beobachteten intensiven Aufblitzen von Gamma-Strahlung (Gamma Ray Bursts). Insbesondere hat sich gezeigt, dass die Jets der Mikro-Quasare wahrscheinlich als kleinskalige Version der Jets der AGN anzusehen sind. Neben den Beobachtungen haben vor allem auch theoretische Überlegungen gezeigt, dass Magnetfelder bei der Jetentstehung, -beschleunigung und -kollimation eine wichtige Rolle spielen. Weiterhin scheinen Jets systematisch verknüpft zu sein mit dem Vorhandensein einer Akkretionsscheibe um das zentrale Objekt. Insbesondere wenn ein schwarzes Loch den Zentralkörper darstellt, ist die umgebende Akkretionsscheibe der einzig mögliche Ort um Magnetfeld erzeugen zu können. Wir sind speziell interessiert am Entstehungsprozess hoch relativistischer Jets wie sie bei Mikro-Quasaren und AGN beobachtet werden. Insbesondere untersuchen wir die Region, in der der Jet kollimiert, eine Region, deren räumliche Ausdehnung extrem klein ist selbst im Vergleich zur Auflösung der Radioteleskope. Dies ist ein Grund, wieso zum heutigen Zeitpunkt für die meisten Quellen die theoretische Modellierung die einzige Möglichkeit darstellt, um Information über die physikalischen Prozesse in der innersten Region der Jetentstehung zu erhalten. Uns ist es zum ersten Mal gelungen, die globale zwei-dimensionale Magnetfeldstruktur stationärer, axialsymmetrischer, relativistischer und stark magnetisierter (kräfte-freier) Jets zu berechnen, die zum einen asymptotisch in einen zylindrischen Jet kollimieren, zum anderen aber in einer differential rotierenden Akkretionsscheibe verankert sind. Damit erlaubt dieser Ansatz eine physikalische Verkn¨upfung zwischen Akkretionsscheibe und dem asymptotischen Jet. Nimmt man also an, dass die Fußpunkte der Magnetfeldlinien mit Keplergeschwindigkeit rotieren, so kann man eine direkte Skalierung der Jetmagnetosphere mit der Größe des Zentralobjektes erhalten. Unsere Resultate zeigen eine gute Übereinstimmung zwischen unserem Modell und Beobachtungen des Jets von M87. Für das Beispiel eines relativistischen Mikroquasarjets haben wir die Röntgenemission im Bereich von 0.2-10.1 keV berechnet. Dafür haben wir in der Literatur aus den relativistischen magnetohydrodynamischen Gleichungen berechnete Jetgrößen (Dichte-, Geschwindigkeits-, und Temperaturprofil) verwendet und das Spektrum für jeden Punkt entlang der Jetströmung abgeleitet. Das theoretische thermische Röntgenspektrum des innersten, heißen Teils des Jets erhalten wir zusammengesetzt aus den spektralen Anteilen der einzelnen Volumenelemente entlang des Jets. Um relativistische Effekte wie Dopplerverschiebung und -verstärkung (boosting) aufgrund der Jetbewegung zu untersuchen, haben wir für verschiedene Inklinationswinkel des Jets zur Sichtlinie berechnet, wie die erhaltenen Spektren davon beeinflusst werden. Unsere Spektren zeigen deutlich die hochionisierten Eisen-Emissionslinien, die in den galaktischen Mikroquasaren GRS 1915+105 und XTE J1748-288 andeutungsweise beobachtet wurden. Eine Dopplerverschiebung dieser Linien ist in unseren Spektren deutlichzu sehen. Da die innerste, Röntgenstrahlung emittierende Region des magnetohydrodynamischen Jets allerdings noch unkollimiert ist, spielt Dopplerboosting in unseren Spektren, abhängig vom Sichtwinkel, keine große Rolle. Mit unseren Resultaten konnte zum ersten Mal ein Röntgenspektrum gewonnen werden, das auf der numerischen Lösung eines magnetohydrodynamischen Jets beruht. N2 - Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet. KW - MHD ; Röntgenstrahlung ; Jets ; AGN ; Mikro-Quasare KW - MHD ; X-rays ; Jets ; AGN ; Microquasars Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000458 ER - TY - THES A1 - Kraut, Suso T1 - Multistable systems under the influence of noise N2 - Nichtlineare multistabile Systeme unter dem Einfluss von Rauschen weisen vielschichtige dynamische Eigenschaften auf. Ein mittleres Rauschlevel zeitigt ein Springen zwischen den metastabilen Zustaenden. Dieser “attractor-hopping” Prozess ist gekennzeichnet durch laminare Bewegung in der Naehe von Attraktoren und erratische Bewegung, die sich auf chaotischen Satteln abspielt, welche in die fraktalen Einzugsgebietsgrenzen eingebettet sind. Er hat rauschinduziertes Chaos zur Folge. Bei der Untersuchung der dissipativen Standardabbildung wurde das Phaenomen der Praeferenz von Attraktoren durch die Wirkung des Rauschens gefunden. Dies bedeutet, dass einige Attraktoren eine groessere Wahrscheinlichkeit erhalten aufzutreten, als dies fuer das rauschfreie System der Fall waere. Bei einer bestimmten Rauschstaerke ist diese Bevorzugung maximal. Andere Attraktoren werden aufgrund des Rauschens weniger oft angelaufen. Bei einer entsprechend hohen Rauschstaerke werden sie komplett ausgeloescht. Die Komplexitaet des Sprungprozesses wird fuer das Modell zweier gekoppelter logistischer Abbildungen mit symbolischer Dynamik untersucht. Bei Variation eines Parameters steigt an einem bestimmten Wert des Parameters die topologische Entropie steil an, die neben der Shannon Entropie als Komplexitaetsmass verwendet wird. Dieser Anstieg wird auf eine neuartige Bifurkation von chaotischen Satteln zurueckgefuehrt, die in einem Verschmelzen zweier Sattel besteht und durch einen “Snap-back”-Repellor vermittelt wird. Skalierungsgesetze sowohl der Verweilzeit auf einem der zuvor getrennten Teile des Sattels als auch des Wachsens der fraktalen Dimension des entstandenen Sattels beschreiben diese neuartige Bifurkation genauer. Wenn ein chaotischer Sattel eingebettet in der offenen Umgebung eines Einzugsgebietes eines metastabilen Zustandes liegt, fuehrt das zu einer deutlichen Senkung der Schwelle des rauschinduzierten Tunnelns. Dies wird anhand der Ikeda-Abbildung, die ein Lasersystem mit einer zeitverzoegerden Interferenz beschreibt, demonstriert. Dieses Resultat wird unter Verwendung der Theorie der Quasipotentiale erzielt. Sowohl dieser Effekt, die Senkung der Schwelle für rauschinduziertes Tunneln aus einem metastabilen Zustand durch einen chaotischen Sattel, als auch die beiden Skalierungsgesteze sind von experimenteller Relevanz. N2 - Nonlinear multistable systems under the influence of noise exhibit a plethora of interesting dynamical properties. A medium noise level causes hopping between the metastable states. This attractorhopping process is characterized through laminar motion in the vicinity of the attractors and erratic motion taking place on chaotic saddles, which are embedded in the fractal basin boundary. This leads to noise-induced chaos. The investigation of the dissipative standard map showed the phenomenon of preference of attractors through the noise. It means, that some attractors get a larger probability of occurrence than in the noisefree system. For a certain noise level this prefernce achieves a maximum. Other attractors are occur less often. For sufficiently high noise they are completely extinguished. The complexity of the hopping process is examined for a model of two coupled logistic maps employing symbolic dynamics. With the variation of a parameter the topological entropy, which is used together with the Shannon entropy as a measure of complexity, rises sharply at a certain value. This increase is explained by a novel saddle merging bifurcation, which is mediated by a snapback repellor. Scaling laws of the average time spend on one of the formerly disconnected parts and of the fractal dimension of the connected saddle describe this bifurcation in more detail. If a chaotic saddle is embedded in the open neighborhood of the basin of attraction of a metastable state, the required escape energy is lowered. This enhancement of noise-induced escape is demonstrated for the Ikeda map, which models a laser system with time-delayed feedback. The result is gained using the theory of quasipotentials. This effect, as well as the two scaling laws for the saddle merging bifurcation, are of experimental relevance. KW - Multistabilität KW - Rauschen KW - Nichtlineare Systeme KW - Chaotische Sattel KW - Multistability KW - noise KW - nonlinear systems KW - chaotic saddle Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000424 ER - TY - THES A1 - Rätsch, Gunnar T1 - Robust boosting via convex optimization N2 - In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. Die Arbeit behandelt folgende Sachverhalte: o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt. o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben. o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen. o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben. o Ist Boosting praktisch anwendbar? Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert. N2 - In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002. KW - Boosting KW - Klassifikation mit großem Margin KW - Support-Vector Lernen KW - Regression KW - Regularisierung KW - Mathematische Optimierung KW - Stromverbrauchüberwachung KW - Boosting KW - Large Margin Classification KW - Support Vectors KW - Regression KW - Regularization KW - Mathematical Optimization KW - Power Monitoring KW - Time Series Analysis Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000399 ER - TY - THES A1 - Topaj, Dmitri T1 - Synchronization transitions in complex systems N2 - Gegenstand dieser Arbeit ist die Untersuchung generischer Synchronisierungsphänomene in interagierenden komplexen Systemen. Diese Phänomene werden u.a. in gekoppelten deterministischen chaotischen Systemen beobachtet. Bei sehr schwachen Interaktionen zwischen individuellen Systemen kann ein Übergang zum schwach kohärenten Verhalten der Systeme stattfinden. In gekoppelten zeitkontinuierlichen chaotischen Systemen manifestiert sich dieser Übergang durch den Effekt der Phasensynchronisierung, in gekoppelten chaotischen zeitdiskreten Systemen durch den Effekt eines nichtverschwindenden makroskopischen Feldes. Der Übergang zur Kohärenz in einer Kette lokal gekoppelter Oszillatoren, beschrieben durch Phasengleichungen, wird im Bezug auf die Symmetrien des Systems untersucht. Es wird gezeigt, daß die durch die Symmetrien verursachte Reversibilität des Systems nichttriviale topologische Eigenschaften der Trajektorien bedingt, so daß das als dissipativ konstruierte System in einem ganzen Parameterbereich quasi-Hamiltonische Züge aufweist, d.h. das Phasenvolumen ist im Schnitt erhalten, und die Lyapunov-Exponenten sind paarweise symmetrisch. Der Übergang zur Kohärenz in einem Ensemble global gekoppelter chaotischer Abbildungen wird durch den Verlust der Stabilität des entkoppelten Zustandes beschrieben. Die entwickelte Methode besteht darin, die Selbstkonsistenz des makroskopischen Feldes aufzuheben, und das Ensemble in Analogie mit einem Verstärkerschaltkreis mit Rückkopplung durch eine komplexe lineare Übertragungssfunktion zu charakterisieren. Diese Theorie wird anschließend für einige theoretisch interessanten Fälle verallgemeinert. N2 - Subject of this work is the investigation of generic synchronization phenomena in interacting complex systems. These phenomena are observed, among all, in coupled deterministic chaotic systems. At very weak interactions between individual systems a transition to a weakly coherent behavior of the systems can take place. In coupled continuous time chaotic systems this transition manifests itself with the effect of phase synchronization, in coupled chaotic discrete time systems with the effect of non-vanishing macroscopic mean field. Transition to coherence in a chain of locally coupled oscillators described with phase equations is investigated with respect to the symmetries in the system. It is shown that the reversibility of the system caused by these symmetries results to non-trivial topological properties of trajectories so that the system constructed to be dissipative reveals in a whole parameter range quasi-Hamiltonian features, i.e. the phase volume is conserved on average and Lyapunov exponents come in symmetric pairs. Transition to coherence in an ensemble of globally coupled chaotic maps is described with the loss of stability of the disordered state. The method is to break the self-consistensy of the macroscopic field and to characterize the ensemble in analogy to an amplifier circuit with feedback with a complex linear transfer function. This theory is then generalized for several cases of theoretic interest. KW - Synchronisierung KW - komplex KW - System KW - komplexe Systeme KW - gekoppelt KW - chaotisch KW - Chaos KW - Interaktion KW - Übergang KW - P hasensynchronisierung KW - Phase KW - Feld KW - Effekt KW - synchronization KW - complex KW - system KW - complex systems KW - coupled KW - chaotic KW - chaos KW - interaction KW - transition KW - phase KW - phase synchronization KW - field KW - meanfield KW - o Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000367 ER - TY - THES A1 - Ahlers, Volker T1 - Scaling and synchronization in deterministic and stochastic nonlinear dynamical systems N2 - Gegenstand dieser Arbeit ist die Untersuchung universeller Skalengesetze, die in gekoppelten chaotischen Systemen beobachtet werden. Ergebnisse werden erzielt durch das Ersetzen der chaotischen Fluktuationen in der Störungsdynamik durch stochastische Prozesse. Zunächst wird ein zeitkontinuierliches stochastisches Modell fürschwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke (coupling sensitivity of chaos) zu untersuchen. Mit Hilfe der Fokker-Planck-Gleichung werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird der neuartige Effekt der vermiedenen Kreuzung von Lyapunov-Exponenten schwach gekoppelter ungeordneter chaotischer Systeme beschrieben, der qualitativ der Abstoßung zwischen Energieniveaus in Quantensystemen ähnelt. Unter Benutzung der für die coupling sensitivity of chaos gewonnenen Skalengesetze wird ein asymptotischer Ausdruck für die Verteilungsfunktion kleiner Abstände zwischen Lyapunov-Exponenten hergeleitet und mit Ergebnissen numerischer Simulationen verglichen. Schließlich wird gezeigt, dass der Synchronisationsübergang in starkgekoppelten räumlich ausgedehnten chaotischen Systemen einem kontinuierlichen Phasenübergang entspricht, mit der Kopplungsstärke und dem Synchronisationsfehler als Kontroll- beziehungsweise Ordnungsparameter. Unter Benutzung von Ergebnissen numerischer Simulationen sowie theoretischen Überlegungen anhand einer partiellen Differentialgleichung mit multiplikativem Rauschen werden die Universalitätsklassen der zwei beobachteten Übergangsarten bestimmt (Kardar-Parisi-Zhang-Gleichung mit Sättigungsterm, gerichtete Perkolation). N2 - Subject of this work is the investigation of universal scaling laws which are observed in coupled chaotic systems. Progress is made by replacing the chaotic fluctuations in the perturbation dynamics by stochastic processes. First, a continuous-time stochastic model for weakly coupled chaotic systems is introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck equation scaling relations are derived, which are confirmed by results of numerical simulations. Next, the new effect of avoided crossing of Lyapunov exponents of weakly coupled disordered chaotic systems is described, which is qualitatively similar to the energy level repulsion in quantum systems. Using the scaling relations obtained for the coupling sensitivity of chaos, an asymptotic expression for the distribution function of small spacings between Lyapunov exponents is derived and compared with results of numerical simulations. Finally, the synchronization transition in strongly coupled spatially extended chaotic systems is shown to resemble a continuous phase transition, with the coupling strength and the synchronization error as control and order parameter, respectively. Using results of numerical simulations and theoretical considerations in terms of a multiplicative noise partial differential equation, the universality classes of the observed two types of transition are determined (Kardar-Parisi-Zhang equation with saturating term, directed percolation). KW - Nichtlineare Dynamik KW - Chaostheorie KW - Stochastische Prozesse KW - Synchronisation KW - nonlinear dynamics KW - chaos KW - stochastic processes KW - synchronization Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000320 ER - TY - THES A1 - Ohrnberger, Matthias T1 - Continuous automatic classification of seismic signals of volcanic origin at Mt. Merapi, Java, Indonesia N2 - Aufgrund seiner nahezu kontinuierlichen eruptiven Aktivität zählt der Merapi zu den gefährlichsten Vulkanen der Welt. Der Merapi befindet sich im Zentralteil der dicht bevölkerten Insel Java (Indonesien). Selbst kleinere Ausbrüche des Merapi stellen deswegen eine große Gefahr für die ansässige Bevölkerung in der Umgebung des Vulkans dar. Die am Merapi beobachtete enge Korrelation zwischen seismischer und vulkanischer Aktivität erlaubt es, mit Hilfe der Überwachung der seismischen Aktivität Veränderungen des Aktivitätszustandes des Merapi zu erkennen. Ein System zur automatischen Detektion und Klassifizierung seismischer Ereignisse liefert einen wichtigen Beitrag für die schnelle Analyse der seismischen Aktivität. Im Falle eines bevorstehenden Ausbruchszyklus bedeutet dies ein wichtiges Hilfsmittel für die vor Ort ansässigen Wissenschaftler. In der vorliegenden Arbeit wird ein Mustererkennungsverfahren verwendet, um die Detektion und Klassifizierung seismischer Signale vulkanischen Urprunges aus den kontinuierlich aufgezeichneten Daten in Echtzeit zu bewerkstelligen. Der hier verwendete A nsatz der hidden Markov Modelle (HMM) wird motiviert durch die große Ähnlichkeit von seismischen Signalen vulkanischen Ursprunges und Sprachaufzeichnungen und den großen Erfolg, den HMM-basierte Erkennungssysteme in der automatischen Spracherkennung erlangt haben. Für eine erfolgreiche Implementierung eines Mustererkennungssytems ist es notwendig, eine geeignete Parametrisierung der Rohdaten vorzunehmen. Basierend auf den Erfahrungswerten seismologischer Observatorien wird ein Vorgehen zur Parametrisierung des seismischen Wellenfeldes auf Grundlage von robusten Analyseverfahren vorgeschlagen. Die Wellenfeldparameter werden pro Zeitschritt in einen reell-wertigen Mustervektor zusammengefasst. Die aus diesen Mustervektoren gebildete Zeitreihe ist dann Gegenstand des HMM-basierten Erkennungssystems. Um diskrete hidden Markov Modelle (DHMM) verwenden zu können, werden die Mustervektoren durch eine lineare Transformation und nachgeschaltete Vektor Quantisierung in eine diskrete Symbolsequenz überführt. Als Klassifikator kommt eine Maximum-Likelihood Testfunktion zwischen dieser Sequenz und den, in einem überwachten Lernverfahren trainierten, DHMMs zum Einsatz. Die am Merapi kontinuierlich aufgezeichneten seismischen Daten im Zeitraum vom 01.07. und 05.07.1998 sind besonders für einen Test dieses Klassifikationssystems geeignet. In dieser Zeit zeigte der Merapi einen rapiden Anstieg der Seismizität kurz bevor dem Auftreten zweier Eruptionen am 10.07. und 19.07.1998. Drei der bekannten, vom Vulkanologischen Dienst in Indonesien beschriebenen, seimischen Signalklassen konnten in diesem Zeitraum beobachtet werden. Es handelt sich hierbei um flache vulkanisch-tektonische Beben (VTB, h < 2.5 km), um sogenannte MP-Ereignisse, die in direktem Zusammenhang mit dem Wachstum des aktiven Lavadoms gebracht werden, und um seismische Ereignisse, die durch Gesteinslawinen erzeugt werden (lokaler Name: Guguran). Die spezielle Geometrie des digitalen seismischen Netzwerkes am Merapi besteht aus einer Kombination von drei Mini-Arrays an den Flanken des Merapi. Für die Parametrisierung des Wellenfeldes werden deswegen seismische Array-Verfahren eingesetzt. Die individuellen Wellenfeld Parameter wurden hinsichtlich ihrer Relevanz für den Klassifikationsprozess detailliert analysiert. Für jede der drei Signalklassen wurde ein Satz von DHMMs trainiert. Zusätzlich wurden als Ausschlussklassen noch zwei Gruppen von Noise-Modellen unterschieden. Insgesamt konnte mit diesem Ansatz eine Erkennungsrate von 67 % erreicht werden. Im Mittel erzeugte das automatische Klassifizierungssystem 41 Fehlalarme pro Tag und Klasse. Die Güte der Klassifikationsergebnisse zeigt starke Variationen zwischen den individuellen Signalklassen. Flache vulkanisch-tektonische Beben (VTB) zeigen sehr ausgeprägte Wellenfeldeigenschaften und, zumindest im untersuchten Zeitraum, sehr stabile Zeitmuster der individuellen Wellenfeldparameter. Das DHMM-basierte Klassifizierungssystem erlaubte für diesen Ereignistyp nahezu 89% richtige Entscheidungen und erzeugte im Mittel 2 Fehlalarme pro Tag. Ereignisse der Klassen MP und Guguran sind mit dem automatischen System schwieriger zu erkennen. 64% aller MP-Ereignisse und 74% aller Guguran-Ereignisse wurden korrekt erkannt. Im Mittel kam es bei MP-Ereignissen zu 87 Fehlalarmen und bei Guguran Ereignissen zu 33 Fehlalarmen pro Tag. Eine Vielzahl der Fehlalarme und nicht detektierten Ereignisse entstehen jedoch durch eine Verwechslung dieser beiden Signalklassen im automatischen Erkennnungsprozess. Dieses Ergebnis konnte aufgrund der ähnlichen Wellenfeldeigenschaften beider Signalklassen erklärt werden, deren Ursache vermutlich in den bekannt starken Einflüssen des Mediums entlang des Wellenausbreitungsweges in vulkanischen Gebieten liegen. Insgesamt ist die Erkennungsleistung des entwickelten automatischen Klassifizierungssystems als sehr vielversprechend einzustufen. Im Gegensatz zu Standardverfahren, bei denen in der Seismologie üblicherweise nur der Startzeitpunkt eines seismischen Ereignisses detektiert wird, werden in dem untersuchten Verfahren seismische Ereignisse in ihrer Gesamtheit erfasst und zudem im selben Schritt bereits klassifiziert. N2 - Merapi volcano is one of the most active and dangerous volcanoes of the earth. Located in central part of Java island (Indonesia), even a moderate eruption of Merapi poses a high risk to the highly populated area. Due to the close relationship between the volcanic unrest and the occurrence of seismic events at Mt. Merapi, the monitoring of Merapi's seismicity plays an important role for recognizing major changes in the volcanic activity. An automatic seismic event detection and classification system, which is capable to characterize the actual seismic activity in near real-time, is an important tool which allows the scientists in charge to take immediate decisions during a volcanic crisis. In order to accomplish the task of detecting and classifying volcano-seismic signals automatically in the continuous data streams, a pattern recognition approach has been used. It is based on the method of hidden Markov models (HMM), a technique, which has proven to provide high recognition rates at high confidence levels in classification tasks of similar complexity (e.g. speech recognition). Any pattern recognition system relies on the appropriate representation of the input data in order to allow a reasonable class-decision by means of a mathematical test function. Based on the experiences from seismological observatory practice, a parametrization scheme of the seismic waveform data is derived using robust seismological analysis techniques. The wavefield parameters are summarized into a real-valued feature vector per time step. The time series of this feature vector build the basis for the HMM-based classification system. In order to make use of discrete hidden Markov (DHMM) techniques, the feature vectors are further processed by applying a de-correlating and prewhitening transformation and additional vector quantization. The seismic wavefield is finally represented as a discrete symbol sequence with a finite alphabet. This sequence is subject to a maximum likelihood test against the discrete hidden Markov models, learned from a representative set of training sequences for each seismic event type of interest. A time period from July, 1st to July, 5th, 1998 of rapidly increasing seismic activity prior to the eruptive cycle between July, 10th and July, 19th, 1998 at Merapi volcano is selected for evaluating the performance of this classification approach. Three distinct types of seismic events according to the established classification scheme of the Volcanological Survey of Indonesia (VSI) have been observed during this time period. Shallow volcano-tectonic events VTB (h < 2.5 km), very shallow dome-growth related seismic events MP (h < 1 km) and seismic signals connected to rockfall activity originating from the active lava dome, termed Guguran. The special configuration of the digital seismic station network at Merapi volcano, a combination of small-aperture array deployments surrounding Merapi's summit region, allows the use of array methods to parametrize the continuously recorded seismic wavefield. The individual signal parameters are analyzed to determine their relevance for the discrimination of seismic event classes. For each of the three observed event types a set of DHMMs has been trained using a selected set of seismic events with varying signal to noise ratios and signal durations. Additionally, two sets of discrete hidden Markov models have been derived for the seismic noise, incorporating the fact, that the wavefield properties of the ambient vibrations differ considerably during working hours and night time. A total recognition accuracy of 67% is obtained. The mean false alarm (FA) rate can be given by 41 FA/class/day. However, variations in the recognition capabilities for the individual seismic event classes are significant. Shallow volcano-tectonic signals (VTB) show very distinct wavefield properties and (at least in the selected time period) a stable time pattern of wavefield attributes. The DHMM-based classification performs therefore best for VTB-type events, with almost 89% recognition accuracy and 2 FA/day. Seismic signals of the MP- and Guguran-classes are more difficult to detect and classify. Around 64% of MP-events and 74% of Guguran signals are recognized correctly. The average false alarm rate for MP-events is 87 FA/day, whereas for Guguran signals 33 FA/day are obtained. However, the majority of missed events and false alarms for both MP and Guguran events are due to confusion errors between these two event classes in the recognition process. The confusion of MP and Guguran events is interpreted as being a consequence of the selected parametrization approach for the continuous seismic data streams. The observed patterns of the analyzed wavefield attributes for MP and Guguran events show a significant amount of similarity, thus providing not sufficient discriminative information for the numerical classification. The similarity of wavefield parameters obtained for seismic events of MP and Guguran type reflect the commonly observed dominance of path effects on the seismic wave propagation in volcanic environments. The recognition rates obtained for the five-day period of increasing seismicity show, that the presented DHMM-based automatic classification system is a promising approach for the difficult task of classifying volcano-seismic signals. Compared to standard signal detection algorithms, the most significant advantage of the discussed technique is, that the entire seismogram is detected and classified in a single step. KW - volcanic seismology KW - Merapi KW - monitoring KW - classification KW - pattern recognition KW - Hidden Markov Model (HMM) KW - Seismic Array Methods Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000028 ER - TY - THES A1 - Johann, Robert T1 - Thermodynamic, morphological and structural properties of dissociated fatty acid monolayers at the air-water interface N2 - Untersuchungen an Monoschichten amphiphiler Lipide auf wässriger Lösung sind in der Grenzflächenforschung von grundlegender Bedeutung. Aufgrund der Anwendbarkeit zahlreicher analytischer Methoden sind schwimmende unlösliche Monoschichten als Modellsysteme sehr geeignet, um Ordnung und Strukturbildung sowie den Transport von Materie in zwei Dimensionen oder die Wechselwirkung von Molekülen an der Grenzfläche mit Teilchen in Lösung (Stichwort “molekulare Erkennung”) zu studieren. Aus dem Verhalten von Monoschichten lassen sich z. B. Rückschlüsse ziehen auf die Eigenschaften von Lipidschichten auf festen Substraten oder in biologischen Membranen. Diese Arbeit befasst sich mit spezifischen und fundamentalen Wechselwirkungen in Monoschichten sowohl auf molekularer als auch auf mikroskopischer Ebene und deren Beziehung zu Gitterstruktur, Aussehen und thermodynamischem Verhalten von Monoschichten an der Wasser/Luft Grenzfläche. Als Modellsystem werden hauptsächlich Monoschichten langkettiger Fettsäuren verwendet, da in ihnen die molekularen Wechselwirkungen durch Änderung des Subphasen-pH-Werts über den Dissoziationsgrad gezielt und schrittweise verändert werden können. Ausser über die Subphasenzusammensetzung werden die molekularen Wechselwirkungen auch über die Temperatur und die Monoschichtzusammensetzung systematisch variiert. Mit Hilfe von Isothermen- und Oberflächenpotentialmessungen, Brewsterwinkel-Mikroskopie, Röntgenbeugung unter streifendem Einfall und polarisationsmodulierter Infrarot-Reflexions-Absorptions-Spektroskopie wird die Änderung der Monoschichteigenschaften als Funktion eines äusseren Parametern analysiert. Dabei werden aus den Röntgenbeugungsdaten quantitative Masse für die molekularen Wechselwirkungen und für die Kettenkonformationsordnung in Monoschichten abgeleitet. Zu den interessantesten Ergebnissen dieser Arbeit zählen die Aufklärung des Ursprungs von regelmässigen polygonalen und dendritischen Domänenformen, die vielfältige Wirkung von Cholesterin auf die Molekülpackung und Gitterordnung langkettiger Amphiphile, sowie die Entdeckung einer abrupten Änderung in den Kopfgruppenbindungswechselwirkungen, der Kettenkonformationsordnung und des Phasenübergangsdrucks zwischen geneigten Monoschichtphasen in Fettsäuremonoschichten nahe pH 9. Zur Deutung des letzten Punkts wird ein Modell für die Kopfgruppenbindungsstruktur von Fettsäuremonoschichten als Funktion des pH-Werts entwickelt. N2 - Research on monolayers of amphiphilic lipids on aqueous solution is of basic importance in surface science. Due to the applicability of a variety of surface sensitive techniques, floating insoluble monolayers are very suitable model systems for the study of order, structure formation and material transport in two dimensions or the interactions of molecules at the interface with ions or molecules in the bulk (headword 'molecular recognition'). From the behavior of monolayers conclusions can be drawn on the properties of lipid layers on solid substrates or in biological membranes. This work deals with specific and fundamental interactions in monolayers both on the molecular and on the microscopic scale and with their relation to the lattice structure, morphology and thermodynamic behavior of monolayers at the air-water interface. As model system especially monolayers of long chain fatty acids are used, since there the molecular interactions can be gradually adjusted by varying the degree of dissociation by means of the suphase pH value. For manipulating the molecular interactions besides the subphase composition also temperature and monolayer composition are systematically varied. The change in the monolayer properties as a function of an external parameter is analyzed by means of isotherm and surface potential measurements, Brewster-angle microscopy, X-ray diffraction at grazing incidence and polarization modulated infrared reflection absorption spectroscopy. For this a quantitative measure for the molecular interactions and for the chain conformational order is derived from the X-ray data. The most interesting results of this work are the elucidation of the origin of regular polygonal and dendritic domain shapes, the various effects of cholesterol on molecular packing and lattice order of long chain amphiphiles, as well as the detection of an abrupt change in the head group bonding interactions, the chain conformational order and the phase transition pressure between tilted phases in fatty acid monolayers near pH 9. For the interpretation of the latter point a model of the head group bonding structure in fatty acid monolayers as a function of the pH value is developed. KW - Wasseroberfläche KW - Fettsäuren KW - Monoschicht KW - Dissoziation KW - Thermodynamische Eigenschaft KW - Strukturbildung KW - Langmuir Monoschicht KW - Fettsäure KW - Cholesterin KW - Brewsterwinkel-Mikroskopie KW - GIXD KW - Oberflächenpotential KW - Isothermen KW - Linienspannung Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000050 ER - TY - THES A1 - Seuring, Markus T1 - Output space compaction for testing and concurrent checking N2 - In der Dissertation werden neue Entwurfsmethoden für Kompaktoren für die Ausgänge von digitalen Schaltungen beschrieben, die die Anzahl der zu testenden Ausgänge drastisch verkleinern und dabei die Testbarkeit der Schaltungen nur wenig oder gar nicht verschlechtern. Der erste Teil der Arbeit behandelt für kombinatorische Schaltungen Methoden, die die Struktur der Schaltungen beim Entwurf der Kompaktoren berücksichtigen. Verschiedene Algorithmen zur Analyse von Schaltungsstrukturen werden zum ersten Mal vorgestellt und untersucht. Die Komplexität der vorgestellten Verfahren zur Erzeugung von Kompaktoren ist linear bezüglich der Anzahl der Gatter in der Schaltung und ist damit auf sehr große Schaltungen anwendbar. Im zweiten Teil wird erstmals ein solches Verfahren für sequentielle Schaltkreise beschrieben. Dieses Verfahren baut im wesentlichen auf das erste auf. Der dritte Teil beschreibt eine Entwurfsmethode, die keine Informationen über die interne Struktur der Schaltung oder über das zugrundeliegende Fehlermodell benötigt. Der Entwurf basiert alleine auf einem vorgegebenen Satz von Testvektoren und die dazugehörenden Testantworten der fehlerfreien Schaltung. Ein nach diesem Verfahren erzeugter Kompaktor maskiert keinen der Fehler, die durch das Testen mit den vorgegebenen Vektoren an den Ausgängen der Schaltung beobachtbar sind. N2 - The objective of this thesis is to provide new space compaction techniques for testing or concurrent checking of digital circuits. In particular, the work focuses on the design of space compactors that achieve high compaction ratio and minimal loss of testability of the circuits. In the first part, the compactors are designed for combinational circuits based on the knowledge of the circuit structure. Several algorithms for analyzing circuit structures are introduced and discussed for the first time. The complexity of each design procedure is linear with respect to the number of gates of the circuit. Thus, the procedures are applicable to large circuits. In the second part, the first structural approach for output compaction for sequential circuits is introduced. Essentially, it enhances the first part. For the approach introduced in the third part it is assumed that the structure of the circuit and the underlying fault model are unknown. The space compaction approach requires only the knowledge of the fault-free test responses for a precomputed test set. The proposed compactor design guarantees zero-aliasing with respect to the precomputed test set. KW - digital circuit KW - output space compaction KW - zero-aliasing KW - test KW - concurrent checking KW - propagation probability KW - IP core Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000165 ER - TY - THES A1 - Breidenich, Markus T1 - Polymers at membranes N2 - Die Oberfläche biologischer Zellen besteht aus einer Lipidmembran und einer Vielzahl von Proteinen und Polymeren, die in die Membran eingebaut sind. Die Beeinflussung der Membran durch Polymere, die mit einem Ende an der Membran verankert sind, wird im Rahmen dieser Arbeit anhand eines vereinfachten biomimetischen Systems studiert. Der entropische Druck, den das Polymer durch Stöße auf die Membran ausübt, führt dazu, dass sich die Membran vom Polymer weg krümmt. Die resultierende Membranform ist ein Kegel in der Nähe des Ankers und ein Katenoid in grossem Abstand vom Ankerpunkt. Monte Carlo-Simulationen bestätigen die perturbativ berechneten Resultate. Bei Hinzunahme eines attraktiven Potentials zwischen Polymer und Membran verringert sich die ursprünglich vom Polymer induzierte Krümmung. Im Limes starker Adsorption, in welchem das Polymer ganz auf der Membranoberfläche lokalisiert ist, verschwindet der Polymerdruck und die durch diesen induzierte Krümmung der Membran. Falls das Polymer nicht direkt auf der Membranoberfläche verankert ist, sondern in endlichem Ankerabstand, biegt sich die Membran im adsorbierten Fall zum Polymer hin. Im letzten Teil der Arbeit werden nicht verankerte Polymere in Lösung betrachtet. Untersucht wird der Einfluss einer solchen Polymerlösung auf die Krümmung der Membran. Im Grenzfall einer rein sterischen, repulsiven Wechselwirkung zwischen Polymeren und Membran biegt sich diese, im Gegensatz zur verankerten Situation, zur Lösung hin. Bei zunehmender Attraktion biegt sich die Membran im Limes starker Adsorption der Polymere von der Lösung weg. N2 - The surface of biological cells consists of a lipid membrane and a large amount of various proteins and polymers, which are embedded in the membrane or attached to it. We investigate how membranes are influenced by polymers, which are anchored to the membrane by one end. The entropic pressure exerted by the polymer induces a curvature, which bends the membrane away from the polymer. The resulting membrane shape profile is a cone in the vicinity of the anchor segment and a catenoid far away from it. The perturbative calculations are confirmed by Monte-Carlo simulations. An additional attractive interaction between polymer and membrane reduces the entropically induced curvature. In the limit of strong adsorption, the polymer is localized directly on the membrane surface and does not induce any pressure, i.e. the membrane curvature vanishes. If the polymer is not anchored directly on the membrane surface, but in a non-vanishing anchoring distance, the membrane bends towards the polymer for strong adsorption. In the last part of the thesis, we study membranes under the influence of non-anchored polymers in solution. In the limit of pure steric interactions between the membrane and free polymers, the membrane curves towards the polymers (in contrast to the case of anchored polymers). In the limit of strong adsorption the membrane bends away from the polymers. KW - Polymere KW - Membranen KW - Biomembranen Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000284 ER - TY - THES A1 - Peitzker, Tania T1 - Dymphna Cusack (1902 - 1981) : a feminist analysis of gender in her romantic realistic texts N2 - Das Dissertationsprojekt befasst sich mit der australischen Autorin Dymphna Cusack, deren Popularität in Ost und West zwischen 1955 und 1975 ihren Höhepunkt erreichte. In diesem Zeitraum wurde sie nicht nur in den westlichen Industriestaaten, in Australien, England, Frankreich und Nord Amerika viel gelesen, sondern auch in China, Russland, der Deutschen Demokratischen Republik und in vielen Sowjetrepubliken. Im Verlauf ihres Schaffens wurde ihr grosse Anerkennung für ihren Beitrag zur australischen Literatur zuteil; sie erhielt die „Commonwealth Literary Pension“, die „Queen′s Silver Jubilee Medal“ und 1981 den „Award of her Majesty“. Trotz dieser Unterstützung durch den Staat in Australien und England äusserte Cusack immer wieder feministische, humanistisch-pazifistische, und anti-faschistisch bzw. pro-sowjetische Sozialkritik. Sie war auch für ihren starken Nationalismus bekannt, plädierte dafür, eine „einheimische“ Literatur und Kultur zu pflegen. Besonders das australische Bildungssystem war das Ziel ihrer Kritik, basierend auf ihren Erfahrungen als Lehrerin in städtischen und ländlichen Schulen, die sie ihrer Autobiographie beschrieb. 'Weder ihr Intellekt, noch ihre Seele oder ihre Körper wurden gefördert, um ganze Männer oder ganze Frauen aus ihnen zu machen. Besonders letztere wurden vernachlässigt. Mädchen wurden ermutigt, ihren Platz dort zu sehen, wo deutsche Mädchen ihn einst zu sehen hatten: bei Kindern, Küche, Kirche.' Cusack engagierte sich stark für Bildungsreformen, die das Versagen australischer Schulen, das erwünschte liberal-humanistische Subjekt zu herauszubilden, beheben sollten. Der liberale Humanismus der Nachkriegszeit schuf ein populäres Bedürfnis nach romantischem Realismus, den man in Cusacks Texten finden kann. Um verstehen zu können, wie Frauen sich zwischen „Realismus und Romanze“ verfingen, biete ich eine Dekonstruktion von Geschlecht innerhalb dieses „hybriden“ Genres an. Mittels feministischer Methodik können Einblicke in die konfliktvolle Subjektivität beider Geschlechter in verschiedenen historischen Perioden gewonnen werden: die Zeit zwischen den Kriegen, während des Pazifischen Krieges und den Weltkriegen, während des Kalten Krieges, zur Zeit der Aborigine-Bewegung, des Vietnamkrieges, sowie zu Beginn der zweiten feministischen Bewegung in den siebziger Jahren. Eine Rezeptionsanalyse des romantischen Realismus und der Diskurse, die diesen prägen, sind in Kapitel zwei und drei untersucht. Die Dekonstruktion von Weiblichkeit und eines weiblichen Subjekts ist in Kapitel vier unternommen, innerhalb einer Diskussion der Art und Weise, wie Cusacks romantischer Erzählstil mit dem sozialen Realismus interagiert. Nach der Forschung von Janice Radway, werden Cusacks Erzählungen in zwei Tabellen unterteilt: die Liebesgeschichte versagt, ist erfolgreich, eine Parodie oder Idealisierung (s. „Ideal and Failed Romances“; „Primary Love Story Succeeds or Fails“). Unter Einbeziehung von Judith Butlers philosophischem Ansatz in die Literaturkritik wird deutlich, dass diese Hybridisierung der Gattungen das fiktionale Subjekt davon abhält, ihr/sein Geschlecht „sinnvoll“ zu inszenieren. Wie das „reale Subjekt“, der Frau in der Gesellschaft, agiert die fiktionale Protagonistin in einer nicht intelligiblen Art und Weise aufgrund der multiplen Anforderungen an und den Einschränkungen für ihr Geschlecht. Demnach produziert die geschlechtliche Benennung des Subjektes eine Vielfalt von Geschlechtern: Cusacks Frauen und Männer sind geprägt von den unterschiedlichen und konfliktvollen Ansprüchen der dichotom gegenübergestellten Genres. Geschlecht, als biologisches und soziales Gebilde, wird danach undefinierbar durch seine komplexen und inkonsistenten Ausdrucksformen in einem romantisch-realistischen Text. Anders gesagt führt die populäre Kombination von Liebesroman und Realismus zu einer Überschreitung der Geschlechtsbinarität, die in beiden Genres vorausgesetzt wird. Weiterführend dient eine Betrachtung von Sexualität und Ethnie in Kapitel fünf einer differenzierteren Analyse humanistischer Repräsentationen von Geschlecht in der Nachkriegsliteratur. Die Notwendigkeit, diese Repräsentationen in der Populär- und in der Literatur des Kanons zu dekonstruieren, ist im letzten Kapitel dieser Dissertation weiter erläutert. N2 - In her lifetime, Dymphna Cusack continually launched social critiques on the basis of her feminism, humanism, pacificism and anti-fascist/pro-Soviet stance. Recalling her experi-ences teaching urban and country schoolchildren in A Window in the Dark, she was particularly scathing of the Australian education system. Cusack agitated for educational reforms in the belief that Australian schools had failed to cultivate the desired liberal humanist subject: 'Neither their minds, their souls, nor their bodies were developed to make the Whole Man or the Whole Woman - especially the latter. For girls were encouraged to regard their place as German girls once did: Kinder, Küche, Kirche - Children, Kitchen and Church.' I suggest that postwar liberal humanism, with its goals of equality among the sexes and self-realisation or 'becoming Whole', created a popular demand for the romantic realism found in Cusack′s texts. This twentieth century form of humanism, evident in new ideas of the subject found in psychoanalysis, Western economic theory and Modernism, informed each of the global lobbies for peace and freedom that followed the destruction of World War II. Liberal ideas of the individual in society became synonymous with the humanist representations of gender in much of postwar, realistic literature in English-speaking countries. The individual, a free agent whose aim was to 'improve the life of human beings', was usually given the masculine gender. He was shown to achieve self-realisation through a commitment to the development of “mankind”, either materially or spiritually. Significantly, the majority of Cusack′s texts diverge from this norm by portraying women as social agents of change and indeed, as the central protagonists. Although the humanist goal of self-realisation seems to be best adapted to social realism, the generic conventions of popular romance also have humanist precepts, as Catherine Belsey has argued. The Happy End is contrived through the heroine′s mental submission to her physical desire for the previously rejected or criticised lover. As Belsey has noted, desire might be considered a deconstructive force which momentarily prevents the harmonious, permanent unification of mind and body because the body, at the moment of seduction, does not act in accord with the mind. In popular romance, however, desire usually leads to a relationship or proper union of the protagonists. In Cusack′s words, the heroine and hero become “whole men and women” through the “realistic” love story. Thus romance, like realism, seeks to stabilise gender relations, even though female desire is temporarily disruptive in the narrative. In the end, women and men become fully realised characters according to the generic conventions of the love story or the consummation of potentially subversive desire. It stayed anxieties associated with women seeking independence and self-realisation rather than traditional romance which signalled a threat to existing gender relations. I proposed that an analysis of gender in Cusack′s fiction is warranted, since these apparently unified, humanist representations of romantic realism belie the conflicting aims and actions of the gendered subjects in this historical period. For instance, when we examine women′s lives immediately after the war, we can identify in both East and West efforts initiated by women and men to reconstruct private/public roles. In order to understand how women were caught between “realism and romance”, I plan to deconstruct gender within the paradigm of this hybrid genre. By adopting a femininist methodology, new insights may be gained into the conflictual subjectivity of both genders in the periods of the interwar years, the Pacific and World Wars, the Cold War, the Australian Aboriginal Movement at the time of the Vietnam War, as well as the moment of second wave Western feminism in the seventies. My definition of romantic realism and the discourses that inform it are examined in chapters two and three. A deconstruction of femininity and the female subject is pursued in chapter four, when I argue that Cusack′s romantic narratives interact in different ways with social realism: romance variously fails, succeeds, is parodic or idealised. Applying Judith Butler′s philosophical ideas to literary criticism, I argue that this hybridisation of genre prevents the fictional subject from performing his or her gender. Like the “real” subject - actual women in society - the fictional protagonist acts in an unintelligible fashion due to the multifarious demands and constraints on her gender. Consequently, the gendering of the sexed subject produces a multiplicity of genders: Cusack′s women and men are constituted by differing and conflicting demands of the dichotomously opposed genres. Thus gender and sex become indefinite through their complex, inconsistent expression in the romantic realistic text. In other words, the popular combination of romance and realism leads to an explosion of the gender binary presupposed by both genres. Furthermore, a consideration of sexuality and race in chapter five leads to a more differentiated analysis of the humanist representations of gender in postwar fiction. The need to deconstruct these representations in popular and canonical literature is recapitulated in the final chapter of this Dissertation. KW - Cusack KW - Dymphna ; Geschlechtsunterschied KW - Gender / Geschlecht KW - Judith Butler KW - Romanze KW - Realismus KW - australische Literaturgeschichte KW - Ost/West Rezeption Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000276 ER - TY - THES A1 - Schmid, Robert T1 - Geology of ultra-high-pressure rocks from the Dabie Shan, Eastern China N2 - Um das Verständnis der geologischen Entwicklung des größten bekannten Vorkommens von ultra-hochdruck (UHP) Gesteinen auf der Erde, des Dabie Shan im östlichen China, zu erhöhen, wurde eine multidisziplinäre Studie durchgeführt. Geophysikalische Daten wurden entlang einer ca. 20 km langen seismischen Linie im östlichen Dabie Shan gesammelt. Diese reflektionsseismischen Daten zeigen, dass die Kruste aus drei Lagen besteht. Die Oberkruste besitzt eine durchgehend niedrige Reflektivität und meist subhorizontale Reflektoren bis in eine Tiefe von ca. 15 km. Aufgrund dieser Charakteristika wird diese Zone als UHP-bezogener krustaler Keil interpretiert, der auf nicht UHP Kruste überschoben wurde. Ein abrupter Wechsel in der Geometrie aber auch Intensität der Reflektoren markiert die Grenze zu einer mittel- bis unterkrustalen Zone, die sich bis ca. 33 km Tiefe erstreckt. Diese Zone repräsentiert wahrscheinlich kratonale Yangtze Kruste, die von der triassischen UHP-Orogenese nicht erfasst wurde, aber während der Exhumierung das Liegende relativ zum UHP Keil war. Starke und kontinuierliche Reflektoren im Tiefenintervall von 33-40 km bilden höchstwahrscheinlich die Moho an der Basis der Kruste ab. Relikte einer Krustenwurzel, die sich wahrscheinlich während der Kollisionstektonik gebildet hatte, sind nicht sichtbar. Ein flaches tomographisches Geschwindigkeitsmodell, das auf der Inversion der Ersteinsätze gründet, konnte zusätzlich erstellt werden. Dieses Modell bildet deutlich die unterschiedlichen Lithologien auf beiden Seiten der Tan Lu Störung ab. Sedimente östlich der Störung zeigen Geschwindigkeiten von 3.4 - 5.0 km* s^-1, wohingegen die Gneise im Westen 5.2 - 6.0 km*s^-1 aufweisen. Die Geometrie der Geschwindigkeits-Isolinien kann als Ausdruck der Strukturen der Gesteine angenommen werden. Somit zeigen die Sedimente ein nordwestliches Einfallen zur Störung hin, wohingegen isoklinale Falten in den Gneisen abgebildet werden. Geländedaten aus der UHP Einheit des Dabie Shan ermöglichen die Definition von Grundgebirgs- und Deckeinheiten, die Teile des ehemaligen passiven Kontinentalrandes des Yangtze Kratons repräsentieren. Eine der Deckeinheiten, die Changpu Einheit, besitzt nach wie vor einen stratigraphischen Kontakt zu den Grundgebirgs-Gneisen. Der anderen Einheit hingegen, der Ganghe Einheit, fehlt ein entsprechendes Grundgebirge. Diese Einheit steht vielmehr über einen Blasto-Mylonit in tektonischem Kontakt zum Grundgebirge der vorherigen. Die Changpu Einheit baut sich aus kalk-arenitischen Metasedimenten auf, die mit Metabasalten assoziiert sind. Die Ganghe Einheit wird von arenitisch-vulkanoklastischen Metasedimenten, die ebenfalls mit metabasaltischen Gesteinen vergesellschaftet sind, dominiert. Das Grundgebirge baut sich aus diversen felsischen Gneisen auf, die von reliktisch eklogitfaziell bis grünschieferfaziell ausgeprägt sind, und in denen, zusätzlich zu Metabasalten, sporadisch mafisch-ultramafische Meta-Plutone auftreten. Mit Ausnahme der Ganghe Einheit, führen die Metabasite Coesit und belegen somit das UHP Ereignis. Die Mineralchemie der analysierten Proben dokumentiert deutliche Variationen in der Zusammensetzung der Hauptminerale, Granat und Omphazit, was entweder unterschiedliche Protolithe oder unterschiedliche Grade von Stoffaustausch mit den Wirtsgesteinen reflektiert. Gehalte von dreiwertigem Eisen in Omphaziten mit geringen Gesamteisengehalten, wurden mittels Titration bestimmt, wobei sich Werte von 30-40 % ergaben. Dennoch wurde ein noch konservativerer Wert von 50% dreiwertigem Eisen in den entsprechenden Berechnungen angenommen, hauptsächlich, um mit anderen Arbeiten vergleichbar zu sein. Texturen und chemische Zonierungen in den Mineralen sind kompatibel mit Gleichgewichtsbedingungen während dem Höhepunkt der Metamorphose, der retrograd überprägt wird. P-T Daten wurden mit deutlicher Betonung auf das Granat-Omphazit-Phengit Barometer, das mit Fe-Mg Austausch-Thermometern kombiniert wurde, berechnet. Höchstdrucke reichen von 42-48 kbar (für die Changpu Einheit) bis ca. 37 kbar (für das Grundgebirge und die Ganghe Einheit). Während der eklogitfaziellen Metamorphose wurden Temperaturen von ca. 750 °C erreicht. Obwohl die maximalen Drucke deutlich schwanken, sind die Temperaturbestimmungen in guter Übereinstimmung. Die Druckschwankungen können zum einen durch deutlich Ca-dominierte Granate (bis zu 50 mol% Grossular in der Changpu Einheit) und/oder zum anderen durch Modifikationen der Mineralzusammensetzungen während der retrograden Metamorphose erklärt werden. Die präsentierten integrativen geologischen Daten ermöglichen die folgenden Schlussfolgerungen i) Grundgebirgs- und Deckeinheiten treten im Dabie Shan auf und wurden beide UHP metamorph überprägt ii) Der Dabie Shan ist das metamorphe Äquivalent des früheren passiven Kontinentalrandes des Yangtze Kratons iii) felsische Gneise, die eine UHP Metamorphose durchlaufen, sind von Volumenver-änderungen betroffen, die durch großräumige Phasenumwandlungen (Quarz <-> Coesit) hervorgerufen werden, was direkt die tektono-metamorphen Prozesse beeinflusst iv) Initiale Unterschiede in der Temperatur sind möglicherweise dafür verantwortlich, dass generell Unterkrustengesteine in UHP Fazies fehlen N2 - A multidisciplinary study has been carried out to contribute to the understanding of the geologic evolution of the largest known occurrence of ultra-high-pressure (UHP) rocks on Earth, the Dabie Shan of eastern China. Geophysical data, collected along a ca. 20 km E-W trending seismic line in the eastern Dabie Shan, indicate that the crust comprises three layers. The upper crust has a homogeneously low reflectivity and exhibits roughly subhorizontal reflectors down to ca. 15 km. It is therefore interpreted to portray a crustal UHP slab thrust over non-UHP crust. An aprubt change in intensity and geometry of observed reflectors marks the boundary of a mid- to lower crustal zone which is present down to ca. 33 km. This crustal zone likely represents cratonal Yangtze crust that was unaffected by the Triassic UHP event and which has acted as the footwall during exhumation of the crustal wedge. Strong and continuous reflectors occurring at ca. 33-40 km depth most likely trace the Moho at the base of the crust. Any trace of a crustal root, that may have formed in response to collision tectonics, is therefore not preserved. A shollow tomographic velocity modell based on inversion of the first arrivals is constructed additionally. This model clearly images the distinct lithologies on both sides of the Tan Lu fault. Sediments to the east exhibit velocities of about 3.4 - 5.0 km* s^-1, whereas the gneisses have 5.2 - 6.0 km*s^-1. Geometry of velocity isolines may trace the structures present in the rocks. Thus the sediments dip shallowly towards the fault, whereas isoclinal folds are imaged to occur in the gneisses. Field data from the UHP unit of the Dabie Shan enables definition of basement-cover sequences that represent sections of the former passive margin of the Yangtze craton. One of the cover sequences, the Changpu unit, still displays a stratigraphic contact with basement gneisses, while the other, the Ganghe unit, includes no relative basement exposure. The latter unit is in tectonic contact with the basement of the former unit via a greenschist-facies blastomylonite. The Changpu unit is chiefly constituted by calc-arenitic metasediments intercalated with meta-basalts, whereas the Ganghe unit contains arenitic-volcanoclastic metasediments that are likewise associated with meta-basalts. The basement comprises a variety of felsic gneisses, ranging from preserved eclogitic- to greenschist-facies paragenesis, and locally contains mafic-ultramafic meta-plutons in addition to minor basaltic rocks. Metabasites of all lithologies are eclogite-facies or are retrogressed equivalents, which, with the exception of those from the Ganghe unit, bear coesite and thus testify to an UHP metamorphic overprint. Mineral chemistry of the analysed samples reveal large compositional variations among the main minerals, i.e. garnet and omphacite, indicating either distinct protoliths or different degrees of interaction with their host-rocks. Contents of ferric iron in low Fetot omphacites are determined by wet chemical titration and found to be rather high, i.e. 30-40 %. However, a even more conservative estimate of 50% is applied in the corresponding calculations, in order to be comparable with previous studies. Textural constraints and compositional zonation pattern are compatible with equilibrium conditions during peak metamorphism followed by a retrogressive overprint. P-T data are calculated with special focus on the application of the garnet-omphacite-phengite barometer, combined with Fe-Mg exchange thermometers. Maximum pressures range from 42-48 kbar (for the Changpu unit) to ~37 kbar (for the Ganghe unit and basement rocks). Temperatures during the eclogite metamorphism reached ca. 750 °C. Although the sample suite reveals variable peak-pressures, temperatures are in reasonable agreement. Pressure differences are interpreted to be due to strongly Ca-dominated garnet (up to 50 mol % grossular in the Changpu unit) and modification of peak-compositions during retrogressive metamorphism. The integrated geological data presented in this thesis allow it to be concluded that, i) basement and cover rocks are present in the Dabie Shan and both experienced UHP conditions ii) the Dabie Shan is the metamorphic equivalent of the former passive margin of the Yangtze craton iii) felsic gneisses undergoing UHP metamorphism are affected by volume changes due to phase transitions (qtz <-> coe), which directly influence the tectono-metamorphic processes iv) initial differences in temperature may account for the general lack of lower crustal rocks in UHP-facies KW - UHP KW - coesite KW - eclogite KW - Dabie Shan KW - thermobarometry KW - reflection seismology KW - 2D tomography Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000093 ER - TY - THES A1 - Schmidt, Robert W. T1 - Cosmological applications of gravitational lensing N2 - In dieser Arbeit benutze ich den Gravitationslinseneffekt als ein Werkzeug, um zwei recht unterschiedliche kosmologische Fragestellungen zu bearbeiten: die Natur der dunklen Materie in Galaxienhalos und die Rotation des Universums. Zuerst untersuche ich den Mikrolinseneffekt in den Gravitationlinsensystemen Q0957+561 und Q2237+0305. In diesen Systemen scheint das Licht eines Quasars durch die Linsengalaxie hindurch. Aufgrund der Relativbewegung zwischen Quasar, Linsengalaxie und Beobachter verursachen kompakte Objekte innerhalb der Galaxie oder dem Galaxienhalo Helligkeitsfluktuationen des Hintergrundquasars. Ich vergleiche die am 3.5m Teleskop des Apache Point Observatory zwischen 1995 und 1998 gewonnene Lichtkurve des Doppelquasars Q0957+561 (Colley, Kundic & Turner 2000) mit numerischen Simulationen, um zu untersuchen, ob der Halo der Linsengalaxie aus massiven kompakten Objekten (MACHOs) besteht. Dieser Test wurde zuerst von Gott (1981) vorgeschlagen. Ich kann MACHO-Massen von 10^-6 M_sun bis zu 10^-2 M_sun ausschliessen, sofern der Quasar kleiner ist als 3x10^14 h_60^-0.5 cm und MACHOs mehr als 50% des dunklen Halos ausmachen. Im zweiten Teil der Arbeit stelle ich neue Beobachtungsdaten fuer den Vierfachquasar Q2237+0305 vor, die am 3.5m Teleskop des Apache Point Observatory zwischen Juni 1995 und Januar 1998 gewonnen wurden. Obwohl die Daten bei veraenderlichen, oft schlechten Seeing Bedingungen und grober Pixelaufloesung aufgenommen wurden, ist die Photometrie der beiden helleren Quasarbilder A und B mit Hilfe von HST-Beobachtungen moeglich. Ich finde ein Helligkeitsmaximum in Bild A mit einer Amplitude von 0.4 bis 0.5 mag und einer Dauer von wenigstens 100 Tagen. Dies zeigt, dass in der Linsengalaxie der Mikrolinseneffekt stattgefunden hat. Im abschliessenden Teil der Arbeit benutze ich dann den schwachen Gravitationslinseneffekt, um Grenzen fuer eine Klasse von rotierenden Kosmologien vom Goedel-Typ zu ermitteln, die von Korotky & Obukhov (1996) beschrieben wurde. In Studien des schwachen Linseneffektes werden die Formen von tausenden von Hintergrundgalaxien vermessen und gemittelt. Dabei werden kohaerente Verzerrungen der Galaxienformen gemessen, die von Massenverteilungen im Vordergrund oder von der grossraeumigen Struktur der Raumzeit selbst verursacht werden. Ich berechne die vorhergesagte Scherung als Funktion der Rotverschiebung in rotierenden Kosmologien vom Goedel-Typ und vergleiche diese mit der oberen Grenze fuer die kosmische Scherung gamma_limit von 0.04, die in Studien des schwachen Linseneffektes gewonnen wurde. Dieser Vergleich zeigt, dass Modelle vom Goedel-Typ keine groesseren Rotationen omega als H_0=6.1x10^-11 h_60/Jahr haben koennen, wenn die Grenze fuer die kosmische Scherung fuer den ganzen Himmel gilt. N2 - In this thesis we use the gravitational lensing effect as a tool to tackle two rather different cosmological topics: the nature of the dark matter in galaxy halos, and the rotation of the universe. Firstly, we study the microlensing effect in the gravitational lens systems Q0957+561 and Q2237+0305. In these systems the light from the quasar shines directly through the lensing galaxy. Due to the relative motion of the quasar, the lensing galaxy, and the observer compact objects in the galaxy or galaxy halo cause brightness fluctuations of the light from the background quasar. We compare light curve data from a monitoring program of the double quasar Q0957+561 at the 3.5m telescope at Apache Point Observatory from 1995 to 1998 (Colley, Kundic & Turner 2000) with numerical simulations to test whether the halo of the lensing galaxy consists of massive compact objects (MACHOs). This test was first proposed by Gott (1981). We can exclude MACHO masses from 10^-6 M_sun up to 10^-2 M_sun for quasar sizes of less than 3x10^14 h_60^-0.5 cm if the MACHOs make up at least 50% of the dark halo. Secondly, we present new light curve data for the gravitationally lensed quadruple quasar Q2237+0305 taken at the 3.5m telescope at Apache Point Observatory from June 1995 to January 1998. Although the images were taken under variable, often poor seeing conditions and with coarse pixel sampling, photometry is possible for the two brighter quasar images A and B with the help from HST observations. We find independent evidence for a brightness peak in image A of 0.4 to 0.5 mag with a duration of at least 100 days, which indicates that microlensing has taken place in the lensing galaxy. Finally, we use the weak gravitational lensing effect to put limits on a class of Goedel-type rotating cosmologies described by Korotky & Obukhov (1996). In weak lensing studies the shapes of thousands of background galaxies are measured and averaged to reveal coherent gravitational distortions of the galaxy shapes by foreground matter distributions, or by the large-scale structure of space-time itself. We calculate the predicted shear as a function of redshift in Goedel-type rotating cosmologies and compare this to the upper limit on cosmic shear gamma_limit of approximately 0.04 from weak lensing studies. We find that Goedel-type models cannot have larger rotations omega than H_0=6.1x10^-11 h_60/year if this shear limit is valid for the whole sky. KW - Gravitationslinseneffekt KW - Quasare KW - Kosmologie KW - dunkle Materie Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000261 ER - TY - THES A1 - Marwan, Norbert T1 - Encounters with neighbours BT - current developments of concepts based on recurrence plots and their applications N2 - Diese Arbeit beschäftigt sich mit verschiedenen Aspekten und Anwendungen von Recurrence Plots. Nach einer Übersicht über Methoden, die auf Recurrence Plots basieren, werden neue Komplexitätsmaße eingeführt, die geometrische Strukturen in den Recurrence Plots beschreiben. Diese neuen Maße erlauben die Identifikation von Chaos-Chaos-Übergängen in dynamischen Prozessen. In einem weiteren Schritt werden Cross Recurrence Plots eingeführt, mit denen zwei verschiedene Prozesse untersucht werden. Diese bivariate Analyse ermöglicht die Bewertung von Unterschieden zwischen zwei Prozessen oder das Anpassen der Zeitskalen von zwei Zeitreihen. Diese Technik kann auch genutzt werden, um ähnliche Abschnitte in zwei verschiedenen Datenreihen zu finden. Im Anschluß werden diese neuen Entwicklungen auf Daten verschiedener Art angewendet. Methoden, die auf Recurrence Plots basieren, können an die speziellen Probleme angepaßt werden, so daß viele weitere Anwendungen möglich sind. Durch die Anwendung der neu eingeführten Komplexitätsmaße können Chaos-Chaos-Übergänge in Herzschlagdaten vor dem Auftreten einer lebensbedrohlichen Herzrhythmusstörung festgestellt werden, was für die Entwicklung neuer Therapien dieser Herzrhythmusstörungen von Bedeutung sein könnte. In einem weiteren Beispiel, in dem EEG-Daten aus einem kognitiv orientierten Experiment untersucht werden, ermöglichen diese Komplexitätsmaße das Erkennen von spezifischen Reaktionen im Gehirn bereits in Einzeltests. Normalerweise können diese Reaktionen erst durch die Auswertung von vielen Einzeltests erkannt werden. Mit der Hilfe von Cross Recurrence Plots wird die Existenz einer klimatischen Zirkulation, die der heutigen El Niño/ Southern Oscillation sehr ähnlich ist, im Nordwesten Argentiniens vor etwa 34000 Jahren nachgewiesen. Außerdem können mit Cross Recurrence Plots die Zeitskalen verschiedener Bohrlochdaten aufeinander abgeglichen werden. Diese Methode kann auch dazu genutzt werden, ein geologisches Profil mit Hilfe eines Referenzprofiles mit bekannter Zeitskala zu datieren. Weitere Beispiele aus den Gebieten der Molekularbiologie und der Spracherkennung unterstreichen das Potential dieser Methode. N2 - In this work, different aspects and applications of the recurrence plot analysis are presented. First, a comprehensive overview of recurrence plots and their quantification possibilities is given. New measures of complexity are defined by using geometrical structures of recurrence plots. These measures are capable to find chaos-chaos transitions in processes. Furthermore, a bivariate extension to cross recurrence plots is studied. Cross recurrence plots exhibit characteristic structures which can be used for the study of differences between two processes or for the alignment and search for matching sequences of two data series. The selected applications of the introduced techniques to various kind of data demonstrate their ability. Analysis of recurrence plots can be adopted to the specific problem and thus opens a wide field of potential applications. Regarding the quantification of recurrence plots, chaos-chaos transitions can be found in heart rate variability data before the onset of life threatening cardiac arrhythmias. This may be of importance for the therapy of such cardiac arrhythmias. The quantification of recurrence plots allows to study transitions in brain during cognitive experiments on the base of single trials. Traditionally, for the finding of these transitions the averaging of a collection of single trials is needed. Using cross recurrence plots, the existence of an El Niño/Southern Oscillation-like oscillation is traced in northwestern Argentina 34,000 yrs. ago. In further applications to geological data, cross recurrence plots are used for time scale alignment of different borehole data and for dating a geological profile with a reference data set. Additional examples from molecular biology and speech recognition emphasize the suitability of cross recurrence plots. KW - Recurrence-Plot KW - Cross-Recurrence-Plot KW - Wiederkehrdarstellung KW - Rekurrenzdarstellung KW - Rekurrenzanalyse KW - recurrence plot KW - cross recurrence plot KW - recurrence quantification analysis Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000856 ER -