TY - THES A1 - Rosner, Martin Siegfried T1 - Boron as a tracer for material transfer in subduction zones N2 - Spät-miozäne bis quartäre Vulkanite der vulkanischen Front und der Back-arc Region der Zentralen Vulkanischen Zone in den Anden weisen eine weite Spannbreite von delta 11B Werten (+4 bis –7 ‰) and Borkonzentrationen (6 bis 60 ppm) auf. Die positiven delta 11B Werte der Vulkanite der vulkanischen Front zeigen eine Beteiligung einer 11B-reichen Komponente am Aufbau der andinen Vulkanite, die am wahrscheinlichsten aus Fluiden der alterierten ozeanischen Kruste der abtauchenden Nazca-Platte stammt. Diese Beobachtung macht einen alleinigen Ursprung der untersuchten Laven aus der kontinentalen Kruste und/oder dem Mantelkeil unwahrscheinlich. Der Trend zu systematisch negativeren delta 11B Werten und kleineren B/Nb Verhältnissen von der vulkanischen Front zum Back-arc wird als Resultat einer Borisotopenfraktionierung einhergehend mit einer stetigen Abnahme der Fluidkomponente und einer relativ konstanten krustalen Kontamination, die sich durch relativ gleichbleibende Sr, Nd und Pb Isotopenverhältnisse ausdrückt, interpretiert. Weil die delta 11B Variation über den andinen vulkanischen Bogen sehr gut mit einer modellierten, sich als Funktion der Temperatur dynamisch verändernden, Zusammensetzung des Subduktionszonenfluides übereinstimmt, folgern wir, dass die Borisotopenzusammensetzung von Arc-Vulkaniten durch die sich dynamisch ändernde delta 11B Signatur eines Bor-reichen Subduktionsfluides bestimmt ird. Durch die Abnahme dieses Subduktionsfluides während der Subduktion nimmt der Einfluss der krustalen Kontamination auf die Borisotopie der Arc-Vulkanite im Back-arc zu. In Anbetracht der Borisotopenfraktionierung müssen hohe delta 11B Werte von Arc-Vulkaniten nicht notwendigerweise Unterschiede in der initialen Zusammensetzung der subduzierten Platte reflektieren. Eine Dreikomponenten Mischungskalkulation zwischen Subduktionsfluid, dem Mantelkeil und der kontinentalen Kruste, die auf Bor-, Strontium- und Neodymiumisotopendaten beruht, zeigt, dass das Subduktionsfluid die Borisotopie des fertilen Mantels dominiert und, dass die primären Arc-Magmen durchschnittlich einen Anteil von 15 bis 30 % krustalem Materiales aufweisen. N2 - Late Miocene to Quaternary volcanic rocks from the frontal arc to the back-arc region of the Central Volcanic Zone in the Andes show a wide range of delta 11B values (+4 to -7 ‰) and boron concentrations (6 to 60 ppm). Positive delta 11B values of samples from the volcanic front indicate involvement of a 11B-enriched slab component, most likely derived from altered oceanic crust, despite the thick Andean continental lithosphere, and rule out a pure crust-mantle origin for these lavas. The delta 11B values and B concentrations in the lavas decrease systematically with increasing depth of the Wadati-Benioff Zone. This across-arc variation in delta 11B values and decreasing B/Nb ratios from the arc to the back-arc samples are attributed to the combined effects of B-isotope fractionation during progressive dehydration in the slab and a steady decrease in slab-fluid flux towards the back arc, coupled with a relatively constant degree of crustal contamination as indicated by similar Sr, Nd and Pb isotope ratios in all samples. Modelling of fluid-mineral B-isotope fractionation as a function of temperature fits the across-arc variation in delta 11B and we conclude that the B-isotope composition of arc volcanics is dominated by changing delta 11B composition of B-rich slab-fluids during progressive dehydration. Crustal contamination becomes more important towards the back-arc due to the decrease in slab-derived fluid flux. Because of this isotope fractionation effect, high delta 11B signatures in volcanic arcs need not necessarily reflect differences in the initial composition of the subducting slab. Three-component mixing calculations for slab-derived fluid, the mantle wedge and the continental crust based on B, Sr and Nd isotope data indicate that the slab-fluid component dominates the B composition of the fertile mantle and that the primary arc magmas were contaminated by an average addition of 15 to 30 % crustal material. KW - Borisotope; Zentrale Anden; kontinentaler Arc-Vulkanismus; Across-arc Variation; Borisotopenfraktionierung; krustale Kontamination KW - Boron isotopes; Central Andes; continental arc volcanism; across-arc variation; boron isotope fractionation; crustal contamination Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000899 ER - TY - THES A1 - Jaster, Nicole T1 - Ratchet models of molecular motors N2 - Transportvorgänge in und von Zellen sind von herausragender Bedeutung für das Überleben des Organismus. Muskeln müssen sich kontrahieren können, Chromosomen während der Mitose an entgegengesetzte Enden der Zelle bewegt und Organellen, das sind von Membranen umschlossene Kompartimente, entlang molekularer Schienen transportiert werden. Molekulare Motoren sind Proteine, deren Hauptaufgabe es ist, andere Moleküle zu bewegen. Dazu wandeln sie die bei der ATP-Hydrolyse freiwerdende chemische Energie in mechanische Arbeit um. Die Motoren des Zellskeletts gehören zu den drei Superfamilien Myosin, Kinesin und Dynein. Ihre Schienen sind Filamente des Zellskeletts, Actin und die Microtubuli. In dieser Arbeit werden stochastische Modelle untersucht, welche dazu dienen, die Fortbewegung dieser linearen molekularen Motoren zu beschreiben. Die Skala, auf der wir die Bewegung betrachten, reicht von einzelnen Schritten eines Motorproteins bis in den Bereich der gerichteten Bewegung entlang eines Filaments. Ein Einzelschritt überbrückt je nach Protein etwa 10 nm und wird in ungefähr 10 ms zurückgelegt. Unsere Modelle umfassen M Zustände oder Konformationen, die der Motor annehmen kann, während er sich entlang einer eindimensionalen Schiene bewegt. An K Orten dieser Schiene sind Übergänge zwischen den Zuständen möglich. Die Geschwindigkeit des Proteins lässt sich in Abhängigkeit von den vertikalen Übergangsraten zwischen den einzelnen Zuständen analytisch bestimmen. Wir berechnen diese Geschwindigkeit für Systeme mit bis zu vier Zuständen und Orten und können weiterhin eine Reihe von Regeln ableiten, die uns einschätzen helfen, wie sich ein beliebiges vorgegebenes System verhalten wird. Darüber hinaus betrachten wir entkoppelte Subsysteme, also einen oder mehrere Zustände, die keine Verbindung zum übrigen System haben. Mit einer bestimmten Wahrscheinlichkeit kann ein Motor einen Zyklus von Konformationen durchlaufen, mit einer anderen Wahrscheinlichkeit einen davon unabhängigen anderen. Aktive Elemente werden in realen Transportvorgängen durch Motorproteine nicht auf die Übergänge zwischen den Zuständen beschränkt sein. In verzerrten Netzwerken oder ausgehend von der diskreten Mastergleichung des Systems können auch horizontale Raten spezifiziert werden und müssen weiterhin nicht mehr die Bedingungen der detaillierten Balance erfüllen. Damit ergeben sich eindeutige, komplette Pfade durch das jeweilige Netzwerk und Regeln für die Abhängigkeit des Gesamtstroms von allen Raten des Systems. Außerdem betrachten wir die zeitliche Entwicklung für vorgegebene Anfangsverteilungen. Bei Enzymreaktionen gibt es die Idee des Hauptpfades, dem diese bevorzugt folgen. Wir bestimmen optimale Pfade und den maximalen Fluss durch vorgegebene Netzwerke. Um darüber hinaus die Geschwindigkeit des Motors in Abhängigkeit von seinem Treibstoff ATP angeben zu können, betrachten wir mögliche Reaktionskinetiken, die den Zusammenhang zwischen den unbalancierten Übergangsraten und der ATP-Konzentration bestimmen. Je nach Typ der Reaktionskinetik und Anzahl unbalancierter Raten ergeben sich qualitativ unterschiedliche Verläufe der Geschwindigkeitskurven in Abhängigkeit von der ATP-Konzentration. Die molekularen Wechselwirkungspotentiale, die der Motor entlang seiner Schiene erfährt, sind unbekannt.Wir vergleichen unterschiedliche einfache Potentiale und die Auswirkungen auf die Transportkoeffizienten, die sich durch die Lokalisation der vertikalen Übergänge im Netzwerkmodell im Vergleich zu anderen Ansätzen ergeben. N2 - Transport processes in and of cells are of major importance for the survival of the organism. Muscles have to be able to contract, chromosomes have to be moved to opposing ends of the cell during mitosis, and organelles, which are compartments enclosed by membranes, have to be transported along molecular tracks. Molecular motors are proteins whose main task is moving other molecules.For that purpose they transform the chemical energy released in the hydrolysis of ATP into mechanical work. The motors of the cytoskeleton belong to the three super families myosin, kinesin and dynein. Their tracks are filaments of the cytoskeleton, namely actin and the microtubuli. Here, we examine stochastic models which are used for describing the movements of these linear molecular motors. The scale of the movements comprises the regime of single steps of a motor protein up to the directed walk along a filament. A single step bridges around 10 nm, depending on the protein, and takes about 10 ms, if there is enough ATP available. Our models comprise M states or conformations the motor can attain during its movement along a one-dimensional track. At K locations along the track transitions between the states are possible. The velocity of the protein depending on the transition rates between the single states can be determined analytically. We calculate this velocity for systems of up to four states and locations and are able to derive a number of rules which are helpful in estimating the behaviour of an arbitrary given system. Beyond that we have a look at decoupled subsystems, i.e., one or a couple of states which have no connection to the remaining system. With a certain probability a motor undergoes a cycle of conformational changes, with another probability an independent other cycle. Active elements in real transport processes by molecular motors will not be limited to the transitions between the states. In distorted networks or starting from the discrete Master equation of the system, it is possible to specify horizontal rates, too, which furthermore no longer have to fulfill the conditions of detailed balance. Doing so, we obtain unique, complete paths through the respective network and rules for the dependence of the total current on all the rates of the system. Besides, we view the time evolutions for given initial distributions. In enzymatic reactions there is the idea of a main pathway these reactions follow preferably. We determine optimal paths and the maximal flow for given networks. In order to specify the dependence of the motor's velocity on its fuel ATP, we have a look at possible reaction kinetics determining the connection between unbalanced transitions rates and ATP-concentration. Depending on the type of reaction kinetics and the number of unbalanced rates, we obtain qualitatively different curves connecting the velocity to the ATP-concentration. The molecular interaction potentials the motor experiences on its way along its track are unknown. We compare different simple potentials and the effects the localization of the vertical rates in the network model has on the transport coefficients in comparison to other models. KW - Molekularer Motor KW - stochastische Ratsche KW - Motorzyklus KW - stochastisches Netzwerk KW - Motorgeschwindigkeit KW - molecular motor KW - stochastic ratchet KW - motor cycle KW - stochastic network KW - motor velocity Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000867 ER - TY - THES A1 - Kito, Tadashi T1 - Heterogeneities in the D” layer beneath the southwestern Pacific inferred from anomalous P- and S-waves N2 - Die P- und S-Wellen-Geschwindigkeitsstruktur der D” Schicht unter dem südwestlichen Pazifik wurde mittels kurzperiodischer Daten von 12 Tiefbeben in der Tonga-Fiji-Region untersucht, die vom J-Array und Hi-net-Array in Japan registriert wurden. Es wurde für Punktstreuer und ebene Schichten migriert, um schwache Signale zu extrahieren, die an relativ kleinräumigen Heterogenitäten des unteren Mantels entstehen. Um eine höhere Auflösung zu erzielen, wurde die Double Array-Methode (DAM) verwendet, die Empfängerarray und Quellarray gleichzeitig nutzt. Hierbei ist auch das Phase-Weighted Stack-Verfahren angewendet worden, um inkohärentes Rauschen zu reduzieren und somit schwache kohärente Signale aus dem unteren Mantel aufzulösen. Das Ergebnis der Ebenen-Schichten-Methode (RWB) zeigt, dass sich in der D”-Schicht negative Geschwindigkeitsdiskontinuitäten mit P-Wellen Geschwindigkeitskontrasten von höchstens –1 % in den Tiefen von 2520 km und 2650 km befinden. Zusätzlich befindet sich eine positive Geschwindigkeitsdiskontinuitäten in der Tiefe von 2800 km. Bei den S Wellen treten Geschwindigkeitsdiskontinuitäten in einer Tiefe von etwa 2550 km und 2850 km auf. Die scheinbare Verschiebung (50 km) der S-Wellen-Geschwindigkeitsdiskontinuität in der Tiefe von 2850 km deutet darauf hin, daß die S-Wellen-Geschwindigkeitsreduktion im unteren Mantel 2-3 mal stärker ist als die P- Wellen-Geschwindigkeitsreduktion. Ein zweidimensionaler Querschnitt, der mittels der RWB Methode und der Aufspaltung des Gesamtempfängerarrays in Subarrays gewonnen wurde, deutet darauf hin, dass die beobachteten Diskontinuitäten als intermittierende laterale Heterogenitäten mit einer Wellenlänge von einigen hundert km charakterisiert werden können. Die Kern-Mantel-Grenze (KMG) weist möglicherweise Undulationen mit einer Amplitude von 10 km auf. Die Migration weist nur schwache Hinweise für räumliche Streukörper auf. Die in der Migration abgebildeten heterogenen Regionen korrespondieren mit den mittels der RWB Methode gefundenen seismischen Diskontinuitäten. Bei den gefundenen Heterogenitäten könnte es sich um einen Teil eines aufsteigenden heißen Stroms unter dem südwestlichen Pazifik handeln. N2 - The P- and S-wave velocity structure of the D” layer beneath the southwestern Pacific was investigated by using short-period data from 12 deep events in the Tonga-Fiji region recorded by the J-Array and the Hi-net in Japan. A migration method and reflected wave beamforming (RWB) were used in order to extract weak signals originating from small-scale heterogeneities in the lowermost mantle. In order to acquire high resolution, a double array method (DAM) which integrates source array beamforming with receiver array beamforming was applied to the data. A phase-weighted stacking technique, which reduces incoherent noise by employing complex trace analysis, was also applied to the data, amplifying the weak coherent signals from the lowermost mantle. This combination greatly enhances small phases common to the source and receiver beams. The results of the RWB method indicate that seismic energy is reflected at discontinuities near 2520 km and 2650 km, which have a negative P-wave velocity contrast of 1 % at the most. In addition, there is a positive seismic discontinuity at a depth of 2800 km. In the case of the S-wave, reflected energy is produced almost at the same depth (2550 km depth). The different depth (50 km) between the P-wave velocity discontinuity at the depth of 2800 and a further S-wave velocity discontinuity at the depth of 2850 km may indicate that the S-wave velocity reduction in the lowermost mantle is about 2-3 times stronger that that of P wave. A look at a 2D cross section, constructed with the RWB method, suggests that the observed discontinuities can be characterized as intermittent lateral heterogeneities whose lateral extent is a few hundred km, and that the CMB might have undulations on a scale of less than 10 km in amplitude. The migration shows only weak evidence for the existence of scattering objects. Heterogeneous regions in the migration belong to the detected seismic discontinuities. These anomalous structures may represent a part of hot plume generated beneath the southwestern Pacific in the lowermost mantle. KW - Seismische Arrays KW - Kern-Mantel Grenze KW - D” Schicht KW - Seismic arrays KW - Core-mantle baundary KW - D” layer Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000847 ER - TY - THES A1 - John, Cédric Michaël T1 - Miocene climate as recorded on slope carbonates : examples from Malta (Central Mediterranean) and Northeastern Australia (Marion Plateau, ODP LEG 194) N2 - Im Rahmen dieser Doktorarbeit wurden die Hangkarbonate von zwei miozänen heterozoischen Karbonatsystemen näher untersucht: die Malta Inselgruppe (zentrales Mittelmeer) und das Marion Plateau (Nordost Australien, ODP Leg 194). Die Auswirkungen der mittelmiozänen Abkühlung (Mi3), die auf 13.6 Ma datiert wird und starken Einfluß auf die Sauerstoffisotopenkurve hatte, in den oben genannten Flachwassersystemen stellten das Ziel dieser Arbeit dar. Dieses Abkühlungsereignis beeinflußte außerdem sehr stark die ozeanographischen und klimatischen Muster, die im weiteren Verlauf zum modernen Eishausklima führten. So steht insbesondere die Vereisung von Ostantarktika mit diesem Ereignis in Verbindung. Diese Arbeit untersucht den Einfluß dieses Ereignisses auf Flachwassersysteme, um vorliegende Untersuchungen in Tiefwassersystemen zu ergänzen und so zum globalen Verständnis des miozänen Klimawechsels beizutragen. Die Profile auf der Maltainselgruppe wurden mit Hilfe von Kohlenstoff- und Sauerstoffisotopen Auswertungen im Gesamtgestein, Gesamtgesteinmineralogie, Tonmineralanalyse und organischer Geochemie untersucht. Durch einen Wechsel von karbonatischeren zu tonigeren Sedimenten beeinflußte das mittelmiozäne Abkühlungsereignis die Sedimentation in diesem Gebiet sehr stark. Weiterhin wurde beobachtet, daß jede Phase der antarktischen Vereisung, nicht nur das mittelmiozäne Hauptereignis, zu einem erhöhten terrigenen Eintrag in den Hangsedimenten der Maltainselgruppe führte. Akkumulationsraten zeigen, daß dieser erhöhte terrigene Eintrag den einzelnen Vereisungsperioden zusammenhängt und die karbonatischen Sedimente durch tonreiche Sedimente “verunreinigt” wurden. Das daraufhin entwickelte Modell erklärt diesen erhöhten terrigenen Eintrag mit einer nordwärtigen Verlagerung der innertropischen Konvergenzzone durch die Bildung von kalten, dichten Luftmassen, die zu verstärkten Niederschlägen in Nordafrika führten. Diese verstärkten Niederschläge (oder verstärkter afrikanischer Monsun) beeinflußten die kontinentale Verwitterung und den Eintrag, mit der Folge, daß verstärkt terrigene Sedimente im Bereich der Hangsedimente der Maltainselgruppe abgelagert wurden. Die tonreichen Intervalle weisen Ähnlichkeiten zu sapropelischen Ablagerungen auf, was mit Hilfe der Spektral analyse des Karbonatgehalts und der geochemischen Analyse des organischen Materials gezeigt wurde. Auf dem Marion Plateau wurden die Sauerstoff- und Kohlenstoffisotopenkurven anhand von Foraminiferen der Gattung Cibicidoides spp. rekonstruiert. Der Karbonatgehalt wurde mit Hilfe einer chemischen Methode (Coulometer) ermittelt. Genauso wie die Sedimente der Maltainselgruppe beeinflußte das mittelmiozäne Abkühlungsereignis (Mi3) auch die Sedimente auf dem Marion Plateau. So kam es bei 13,8 Ma, in etwa zur Zeit der Vereisung von Ostantarktika, zu einem Abfall der Karbonatakkumulationsraten. Weiterhin traten Änderungen in der Zusammensetzung der Sedimente auf, so nehmen neritische Karbonatfragmente ab, der planktische Foraminiferengehalt nimmt zu und es wurden verstärkt Quarz und Glaukonit abgelagert. Ein überraschendes Ergebnis ist die Tatsache, daß der große N12-N14 Meeresspiegelabfall um 11,5 Ma die Akkumulationsraten der Karbonate auf dem Hang nicht beeinflußte. Dieses Ergebnis ist umso erstaunlicher, da Karbonatplattformen normalerweise sehr sensitiv auf Meeresspiegeländerungen reagieren. Der Grund, warum sich die Karbonatakkumulationsraten schon um 13,6 Ma (Mi3) und nicht erst um 11,5 Ma (N12-N14) verringerten, liegt in der Tatsache, daß die ozeanischen Strömungen die Karbonatsedimentation auf dem Hang des Marion Plateau schon im Miozän kontrollierten. Das mittelmiozäne Ereignis (Mi3) erhöhte die Stärke diese Strömungen und als eine Ursache wurde die Karbonatakkumulation auf den Hängen reduziert. Die Amplitude des N12-N14 Meeresspiegelabfalls liegt bei 90 m unter der Berücksichtigung der Sauerstoffisotopendaten aus der Tiefsee und Berechnungen des Meeresspiegels anhand des “coastal onlaps”, die während Leg 194 gemacht wurden. Die Isotopendaten dieser Arbeit weisen hingegen auf einen verringerten Meeresspiegelabfall von 70 m hin. Als allgemeine Schlußfolgerung kann gesagt werden, daß der mittelmiozäne Klimaumschwung die Karbonatsysteme zumindest an den beiden untersuchten Lokalitäten beeinflußt hat. Allerdings waren die Auswirkungen sehr von den unterschiedlichen lokalen Gegebenheiten abhängig. Insbesondere wirkten sich die Anwesenheit einer Landmasse (Malta) und die Abwesenheit einer Barriere vor den Einflüssen des offenen Ozeans (Marion Plateau) stark auf die Ablagerung der Karbonate aus. N2 - This study investigated the slope carbonates of two Miocene carbonate systems: the Maltese Islands (in the Central Mediterranean) and the Marion Plateau (Northeastern Australia, drilled during ODP Leg 194). The aim of the study was to trace the impact of the Miocene cooling steps (events Mi1-Mi6) in these carbonate systems, especially the Mi3 event, which took place around 13.6 Ma and deeply impacted the marine oxygen isotope record. This event also profoundly impacted oceanographic and climatic patterns, eventually leading to the establishment of the modern ice-house world. In particular, East Antarctica became ice covered at that period. The rational behind the present study was to investigate the impact that this event had on shallow water systems in order to complement the deep-sea record and hence acquire a more global perspective on Miocene climate change. The Maltese Islands were investigated for trends in bulk-rock carbon and oxygen isotopes, as well as bulk-rock mineralogy, clay minerals analysis and organic geochemisty. Results showed that the mid Miocene cooling event deeply impacted sedimentation at that location by changing sedimentation from carbonate to clay-rich sediments. Moreover, it was discovered that each phase of Antarctic glaciation, not just the major mid Miocene event, resulted in higher terrigenous input on Malta. Mass accumulation rates revealed that this was linked to increased runoff during periods when Antarctica was glaciated, and thus that the carbonate sediments were “diluted” by clay-rich sediments. The model subsequently developed to explain this implies feedback from Antarctic glaciations creating cold, dense air masses that push the ITCZ Northward, thus increasing precipitation on the North African subcontinent. Increased precipitation (or stronger African monsoon) accelerated continental weathering and runoff, thus bringing more terrigenous sediment to the paleo-location of the slope sediments of Malta. Spectral analysis of carbonate content and organic matter geochemical analysis furthermore suggest that the clay-rich intervals are similar to sapropelic deposits. On the Marion Plateau, trends in oxygen and carbon isotopes were obtained by measuring Cibicidoides spp foraminifers. Moreover, carbonate content was reconstructed using a chemical method (coulometer). Results show that the mid Miocene cooling step profoundly affected this system: a major drop in accumulation rates of carbonates occurs precisely at 13.8 Ma, around the time of the East Antarctic ice sheet formation. Moreover, sedimentation changes occurred at that time, carbonate fragments coming from neritic environments becoming less abundant, planktonic foraminifer content increasing and quartz and reworked glauconite being deposited. Conversely, a surprising result is that the major N12-N14 sea-level fall occurring around 11.5 Ma did not impact the accumulation of carbonates on the slope. This was unexpected since carbonate platform are very sensitive to sea-level changes. The model developed to explain that mass accumulation rates of carbonates diminished around 13.6 Ma (Mi3 Event) instead of 11.5 Ma (N12-N14 event), suggests that oceanic currents were controlling slope carbonate deposition on the Marion Plateau prior to the mid-Miocene, and that the mid Miocene event considerably increase their strength, hence reducing the amount of carbonate being deposited on slope sites. Moreover, by combining results from deep-sea oxygen isotopes with sea-level estimates based on coastal onlaps made during Leg 194, we constrain the amplitude of the N12-N14 sea-level fall to 90 meters. When integrating isotopic results from this study, this amplitude is lowered to 70 meters. A general conclusion of this work is that the mid Miocene climatic shift did impact carbonate systems, at least at the two locations studied. However, the nature of this response was highly dependant on the regional settings, in particular the presence of land mass (Malta) and the absence of a barrier to shelter from the effects of open ocean (Marion Plateau). KW - mittleres Miozän KW - Klima KW - Sauerstoffisotope KW - Kohlenstoffisotope KW - Kontinentalrand KW - Tonmineralien KW - Karbonate KW - Malta KW - Mittelmeer KW - Australien KW - ODP Leg 194 KW - middle Miocene KW - climate KW - oxygen isotopes KW - carbon isotopes KW - continental margins KW - clay mineral KW - carbonate systems KW - Malta KW - Meditteranean sea KW - Australia Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000820 ER - TY - THES A1 - Krasia, Theodora T1 - Synthese und kolloidale Eigenschaften neuartiger Blockcopolymere mit beta-Dicarbonyl Einheiten = Synthesis and colloidal properties of a novel type of block copolymers bearing beta-dicarbonyl residues T1 - Synthese und kolloidale Eigenschaften neuartiger Blockcopolymere mit beta-Dicarbonyl Einheiten N2 - The present work is dealing with the first synthesis and characterisation of amphiphilic diblock copolymers bearing b-dicarbonyl (acetoacetoxy) chelating residues. Polymers were obtained by Group Transfer Polymerisation (GTP)/acetoacetylation and controlled radical polymerisation techniques (RAFT).Different micellar morphologies of poly(n-butyl methacrylate)-block-poly[2-(acetoacetoxy)ethyl methacrylate] (pBuMA-b-pAEMA) were observed in cyclohexane as a selective solvent. Depending on the block length ratio, either spherical, elliptical, or cylindrical micelles were formed. The density of the polymer chains at the core/corona interface is considerably higher as compared to any other strongly segregating system reported in the literature. It is demonstrated that there are H-bond interactions existing between acetoacetoxy groups, which increase the incompatibility between block segments. In addition, such interactions lead to the formation of secondary structures (such as b-sheets or globular structures) and larger superstructures in the micrometer length scale.Block copolymers were also used to solubilise metal ion salts of different geometries and oxidation states in organic media, in which are otherwise insoluble. Sterically stabilised colloidal hybrid materials are formed, i.e. monodisperse micelles having the metal ion salt incorporated in their core upon complexation with the ligating pAEMA block, whereas pBuMA forms the solvating corona responsible for stabilisation in solution. Systematic studies show that the aggregation behaviour is dependent on different factors, such as the tautomeric form of the beta-dicarbonyl ligand (keto/enol) as well as the nature and amount of added metal ion salt. T2 - Synthesis and colloidal properties of a novel type of block copolymers bearing beta-dicarbonyl residues KW - amphiphilic block copolymers KW - chelates KW - Group Transfer polymerisation KW - reversible addition-fragmentation chain transfer KW - micelles KW - organic-inorganic c Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000787 ER - TY - THES A1 - Klumpp, Stefan T1 - Movements of molecular motors : diffusion and directed walks N2 - Bewegungen von prozessiven molekularen Motoren des Zytoskeletts sind durch ein Wechselspiel von gerichteter Bewegung entlang von Filamenten und Diffusion in der umgebenden Lösung gekennzeichnet. Diese eigentümlichen Bewegungen werden in der vorliegenden Arbeit untersucht, indem sie als Random Walks auf einem Gitter modelliert werden. Ein weiterer Gegenstand der Untersuchung sind Effekte von Wechselwirkungen zwischen den Motoren auf diese Bewegungen. Im einzelnen werden vier Transportphänomene untersucht: (i) Random Walks von einzelnen Motoren in Kompartimenten verschiedener Geometrien, (ii) stationäre Konzentrationsprofile, die sich in geschlossenen Kompartimenten infolge dieser Bewegungen einstellen, (iii) randinduzierte Phasenübergänge in offenen röhrenartigen Kompartimenten, die an Motorenreservoirs gekoppelt sind, und (iv) der Einfluß von kooperativen Effekten bei der Motor-Filament-Bindung auf die Bewegung. Alle diese Phänomene sind experimentell zugänglich, und mögliche experimentelle Realisierungen werden diskutiert. N2 - Movements of processive cytoskeletal motors are characterized by an interplay between directed motion along filament and diffusion in the surrounding solution. In the present work, these peculiar movements are studied by modeling them as random walks on a lattice. An additional subject of our studies is the effect of motor-motor interactions on these movements. In detail, four transport phenomena are studied: (i) Random walks of single motors in compartments of various geometries, (ii) stationary concentration profiles which build up as a result of these movements in closed compartments, (iii) boundary-induced phase transitions in open tube-like compartments coupled to reservoirs of motors, and (iv) the influence of cooperative effects in motor-filament binding on the movements. All these phenomena are experimentally accessible and possible experimental realizations are discussed. KW - molekulare Motoren KW - aktive Prozesse KW - Diffusion KW - Random Walks KW - Gittermodelle KW - Phasenübergänge KW - Staus KW - kooperative Phänomene KW - molecular motors KW - active processes KW - diffusion KW - random walks KW - lattice models KW - phase transitions KW - traffic jams KW - cooperative phenomena Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000806 ER - TY - THES A1 - Heinig, Peter T1 - The geometry of interacting liquid domains in Langmuir monolayers N2 - Es werden die Strukturbildung und Benetzung zweidimensionaler (2D) Phasen von Langmuir-Monolagen im lokalen thermodynamischen Gleichgewicht untersucht. Eine Langmuir-Monolage ist ein isoliertes 2D System von Surfaktanten an der Wasser/Luft-Grenzfläche, in dem kristalline, flüssigkristalline, flüssige oder gasförmige Phasen auftreten, die sich in Positionsordnung und/oder Orientierungsordnung unterscheiden. Permanente elektrische Dipolmomente der Surfaktanten führen zu einer langreichweitigen repulsiven Selbstwechselwirkung der Monolage und zur Bildung mesoskopischer Strukturen. Es wird ein Wechselwirkungsmodell verwendet, das die Strukturbildung als Wechselspiel kurzreichweitiger Anziehung (nackte Linienspannung) und langreichweitiger Abstoßung (Oberflächenpotential) auf einer Skala Delta beschreibt. Physikalisch trennt Delta die beiden Längenskalen der lang- und kurzreichweitigen Wechselwirkung. In dieser Arbeit werden die thermodynamischen Stabilitätsbedingungen für die Form einer Phasengrenzlinie (Young-Laplace-Gleichung) und Dreiphasenkontaktpunkt (Young-Bedingung) hergeleitet und zur Beschreibung experimenteller Daten genutzt: Die Linienspannung benetzender 2D Tropfen wird mit Hilfe hängender-Tropfen-Tensiometrie gemessen. Die Blasenform und -größe von 2D Schäumen wird theoretisch modelliert und mit experimentellen 2D Schäumen verglichen. Kontaktwinkel werden durch die Anpassung von experimentellen Tropfen mit numerischen Lösungen der Young-Laplace-Gleichung auf Mikrometerskalen gemessen. Das Skalenverhalten des Kontaktwinkels ermöglicht die Bestimmung einer unteren Schranke von Delta. Weiterhin wird diskutiert, inwieweit das Schalten von 2D Benetzungsmodi in biologischen Membranen zur Steuerung der Reaktionskinetik ein Rolle spielen könnte. Hierzu werden Experimente aus unserer Gruppe, die in einer Langmuir-Monolage durchgeführt wurden, herangezogen. Abschließend wird die scheinbare Verletzung der Gibbs′schen Phasenregel in Langmuir-Monolagen (nicht-horizontales Plateau der Oberflächendruck-Fläche Isotherme, ausgedehntes Dreiphasengebiet in Einkomponentensystemen) quantitativ untersucht. Eine Verschmutzung der verwendeten Substanzen ist demnach die wahscheinlichste Erklärung, während Finite-Size-Effekte oder der Einfluss der langreichweitigen Elektrostatik die Größenordnung des Effektes nicht beschreiben können. N2 - The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect. KW - Langmuir KW - Monolage KW - 2D KW - langreichweitig KW - Benetzung KW - Schäume KW - Phasenregel KW - Langmuir monolayer KW - 2D KW - long range KW - wetting KW - foams KW - phase rule Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000814 ER - TY - THES A1 - Lanfermann, Gerd T1 - Nomadic migration : a service environment for autonomic computing on the Grid N2 - In den vergangenen Jahren ist es zu einer dramatischen Vervielfachung der verfügbaren Rechenzeit gekommen. Diese 'Grid Ressourcen' stehen jedoch nicht als kontinuierlicher Strom zur Verfügung, sondern sind über verschiedene Maschinentypen, Plattformen und Betriebssysteme verteilt, die jeweils durch Netzwerke mit fluktuierender Bandbreite verbunden sind. Es wird für Wissenschaftler zunehmend schwieriger, die verfügbaren Ressourcen für ihre Anwendungen zu nutzen. Wir glauben, dass intelligente, selbstbestimmende Applikationen in der Lage sein sollten, ihre Ressourcen in einer dynamischen und heterogenen Umgebung selbst zu wählen: Migrierende Applikationen suchen eine neue Ressource, wenn die alte aufgebraucht ist. 'Spawning'-Anwendungen lassen Algorithmen auf externen Maschinen laufen, um die Hauptanwendung zu beschleunigen. Applikationen werden neu gestartet, sobald ein Absturz endeckt wird. Alle diese Verfahren können ohne menschliche Interaktion erfolgen. Eine verteilte Rechenumgebung besitzt eine natürliche Unverlässlichkeit. Jede Applikation, die mit einer solchen Umgebung interagiert, muss auf die gestörten Komponenten reagieren können: schlechte Netzwerkverbindung, abstürzende Maschinen, fehlerhafte Software. Wir konstruieren eine verlässliche Serviceinfrastruktur, indem wir der Serviceumgebung eine 'Peer-to-Peer'-Topology aufprägen. Diese “Grid Peer Service” Infrastruktur beinhaltet Services wie Migration und Spawning, als auch Services zum Starten von Applikationen, zur Dateiübertragung und Auswahl von Rechenressourcen. Sie benutzt existierende Gridtechnologie wo immer möglich, um ihre Aufgabe durchzuführen. Ein Applikations-Information- Server arbeitet als generische Registratur für alle Teilnehmer in der Serviceumgebung. Die Serviceumgebung, die wir entwickelt haben, erlaubt es Applikationen z.B. eine Relokationsanfrage an einen Migrationsserver zu stellen. Der Server sucht einen neuen Computer, basierend auf den übermittelten Ressourcen-Anforderungen. Er transferiert den Statusfile des Applikation zu der neuen Maschine und startet die Applikation neu. Obwohl das umgebende Ressourcensubstrat nicht kontinuierlich ist, können wir kontinuierliche Berechnungen auf Grids ausführen, indem wir die Applikation migrieren. Wir zeigen mit realistischen Beispielen, wie sich z.B. ein traditionelles Genom-Analyse-Programm leicht modifizieren lässt, um selbstbestimmte Migrationen in dieser Serviceumgebung durchzuführen. N2 - In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment. KW - Peer-to-Peer-Netz ; GRID computing ; Zuverlässigkeit ; Web Services ; Betriebsmittelverwaltung ; Migration KW - Grid KW - 'Peer To Peer' KW - Migration KW - Spawning Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000773 ER - TY - THES A1 - Zaikin, Alexei T1 - Noise-induced transitions and resonant effects in nonlinear systems T1 - - N2 - Unsere alltägliche Erfahrung ist mit verschiedenen akustischen Einfluessen wie Lärm, aber auch Musik verbunden. Jeder weiss, wie Lärm stören kann und Kommunikation behindert oder gar unterbindet. Ähnliche optische Effekte sind bekannt: starkes Schneetreiben oder Regengüsse verschlechtern die Sicht und lassen uns Umrisse nur noch schemenhaft erkennen. Jedoch koennen ähnliche Stimuli auch sehr positive Auswirkungen haben: Autofahrer fahren bei leiser Musik konzentrierter -- die Behauptung von Schulkindern, nur bei dröhnenden Bässen die Mathehausaufgaben richtig rechnen zu können, ist allerdings nicht wissenschaftlich erwiesen. Außerordentlich interessant aus dieser Sicht sind auch Reizleitungsprozesse: Reize werden nur weitergleitet, wenn die strukturlosen Signale der Neuronen mit ausreichend starker Intensität erfolgen, also ein Schwellwert überschritten ist. Der Physiker Dr. Alexei Zaikin von der Universität Potsdam beschäftigt sich mit sogenannten rauschinduzierten Phänomenen aus theorischer Sicht. Sein Forschungsgebiet sind Prozesse, bei denen Rauschen mehrfach das Systemverhalten beeinflusst: ist es ausreichend gross, d.h. größer als ein kritischer Wert, wird eine reguläre Struktur gebildet, die durch das immernoch vorhandene Rauschen mit der Struktur des Nachbarsystems synchronisiert. Um ein solches System mit kritischem Wert zu erhalten, bedarf es einer weiteren Rauschquelle. Herr Zaikin analysierte noch weitere Beispiele solcher doppelt stochastischen Effekte. Die Ausarbeitung derartiger theoretischer Grundlagen ist wichtig, da diese Prozesse in der Neurophysik, in technischen Kommunikationssystemen und in den Lebenswissenschaften eine Rolle spielen. N2 - Our every-day experience is connected with different acoustical noise or music. Usually noise plays the role of nuisance in any communication and destroys any order in a system. Similar optical effects are known: strong snowing or raining decreases quality of a vision. In contrast to these situations noisy stimuli can also play a positive constructive role, e.g. a driver can be more concentrated in a presence of quiet music. Transmission processes in neural systems are of especial interest from this point of view: excitation or information will be transmitted only in the case if a signal overcomes a threshold. Dr. Alexei Zaikin from the Potsdam University studies noise-induced phenomena in nonlinear systems from a theoretical point of view. Especially he is interested in the processes, in which noise influences the behaviour of a system twice: if the intensity of noise is over a threshold, it induces some regular structure that will be synchronized with the behaviour of neighbour elements. To obtain such a system with a threshold one needs one more noise source. Dr. Zaikin has analyzed further examples of such doubly stochastic effects and developed a concept of these new phenomena. These theoretical findings are important, because such processes can play a crucial role in neurophysics, technical communication devices and living sciences. T2 - Noise-induced transitions and resonant effects in nonlinear systems KW - Rauschinduzierte Phänomene KW - Stochastische Prozesse KW - Rauschen KW - Stochastische Resonanz KW - Noise-induced phenomena KW - stochastic processes KW - noise KW - stochastic resonance Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000761 ER - TY - THES A1 - Dramlitsch, Thomas T1 - Distributed computations in a dynamic, heterogeneous Grid environment N2 - Die immer dichtere und schnellere Vernetzung von Rechnern und Rechenzentren über Hochgeschwindigkeitsnetzwerke ermöglicht eine neue Art des wissenschaftlich verteilten Rechnens, bei der geographisch weit auseinanderliegende Rechenkapazitäten zu einer Gesamtheit zusammengefasst werden können. Dieser so entstehende virtuelle Superrechner, der selbst aus mehreren Grossrechnern besteht, kann dazu genutzt werden Probleme zu berechnen, für die die einzelnen Grossrechner zu klein sind. Die Probleme, die numerisch mit heutigen Rechenkapazitäten nicht lösbar sind, erstrecken sich durch sämtliche Gebiete der heutigen Wissenschaft, angefangen von Astrophysik, Molekülphysik, Bioinformatik, Meteorologie, bis hin zur Zahlentheorie und Fluiddynamik um nur einige Gebiete zu nennen. Je nach Art der Problemstellung und des Lösungsverfahrens gestalten sich solche "Meta-Berechnungen" mehr oder weniger schwierig. Allgemein kann man sagen, dass solche Berechnungen um so schwerer und auch um so uneffizienter werden, je mehr Kommunikation zwischen den einzelnen Prozessen (oder Prozessoren) herrscht. Dies ist dadurch begründet, dass die Bandbreiten bzw. Latenzzeiten zwischen zwei Prozessoren auf demselben Grossrechner oder Cluster um zwei bis vier Grössenordnungen höher bzw. niedriger liegen als zwischen Prozessoren, welche hunderte von Kilometern entfernt liegen. Dennoch bricht nunmehr eine Zeit an, in der es möglich ist Berechnungen auf solch virtuellen Supercomputern auch mit kommunikationsintensiven Programmen durchzuführen. Eine grosse Klasse von kommunikations- und berechnungsintensiven Programmen ist diejenige, die die Lösung von Differentialgleichungen mithilfe von finiten Differenzen zum Inhalt hat. Gerade diese Klasse von Programmen und deren Betrieb in einem virtuellen Superrechner wird in dieser vorliegenden Dissertation behandelt. Methoden zur effizienteren Durchführung von solch verteilten Berechnungen werden entwickelt, analysiert und implementiert. Der Schwerpunkt liegt darin vorhandene, klassische Parallelisierungsalgorithmen zu analysieren und so zu erweitern, dass sie vorhandene Informationen (z.B. verfügbar durch das Globus Toolkit) über Maschinen und Netzwerke zur effizienteren Parallelisierung nutzen. Soweit wir wissen werden solche Zusatzinformationen kaum in relevanten Programmen genutzt, da der Grossteil aller Parallelisierungsalgorithmen implizit für die Ausführung auf Grossrechnern oder Clustern entwickelt wurde. N2 - In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus. KW - Paralleles Rechnen KW - Verteiltes Rechnen KW - Cactus KW - Globus KW - dynamisch KW - adaptiv KW - Grid Computing KW - Distributed Computing KW - Cactus KW - Globus KW - dynamic KW - adaptive Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000759 ER - TY - THES A1 - Montenegro, Rivelino V. D. T1 - Crystallization, biomimetics and semiconducting polymers in confined systems T1 - Kristallisation, Biomimetik und halbleitende Polymere in räumlich begrenzten Systemen N2 - populärwissenschaftlicher Abstract: Kristallisation, Biomimetik und halbleitende Polymere in räumlich begrenzten Systemen: Öl und Wasser mischen sich nicht, man kann aber aus beiden Flüssigkeiten Emulsionen herstellen, bei denen Tröpfchen der einen Flüssigkeit in der anderen Flüssigkeit vorliegen. Das heißt, es können entweder Öltröpfchen in Wasser oder Wassertröpfchen in Öl erzeugt werden. Aus täglichen Erfahrungen, z.B. beim Kochen weiß man jedoch, dass sich eine Emulsion durch Schütteln oder Rühren herstellen lässt, diese jedoch nicht besonders stabil ist. Mit Hilfe von hohen Scherenergien kann man nun sehr kleine, in ihrer Größe sehr einheitliche und außerdem sehr stabile Tröpfchen von 1/10000 mm erhalten. Eine solche Emulsion wird Miniemulsion genannt. In der Dissertation wurden nun z.B. Miniemulsionen untersucht, die aus kleinen Wassertröpfchen in einem Öl bestehen. Es konnte gezeigt werden, dass das Wasser in diesen Tröpfchen, also in den räumlich begrenzten Systemen, nicht bei 0 °C, sondern bei -22 °C kristallisierte. Wie lässt sich das erklären? Wenn man einen Eimer Wasser hat, dann bildet sich normalerweise bei 0 °C Eis, da nämlich in dem Wasser einige (manchmal ganz wenige) Keime (z.B. Schutzteilchen, ein Fussel etc.) vorhanden sind, an denen sich die ersten Kristalle bilden. Wenn sich dann einmal ein Kristall gebildet hat, kann das Wasser im gesamten Eimer schnell zu Eis werden. Ultrareines Wasser würde bei -22 °C kristallisieren. Wenn man jetzt die Menge Wasser aus dem Eimer in kleine Tröpfchen bringt, dann hat man eine sehr, sehr große Zahl, nämlich 1017 Tröpfchen, in einem Liter Emulsion vorliegen. Die wenigen Schmutzpartikel verteilen auf sehr wenige Tröpfchen, die anderen Tröpfchen sind ultrarein. Daher kristallisieren sie erst bei -22 °C. Im Rahmen der Arbeit konnte auch gezeigt werden, dass die Miniemulsionen genutzt werden können, um kleine Gelatine-Partikel, also Nanogummibärchen, herzustellen. Diese Nanogummibärchen quellen bei Erhöhung der Temperatur auf ca. 38 °C an. Das kann ausgenutzt werden, um zum Beispiel Medikamente zunächst in den Partikeln im menschlichen Körper zu transportieren, die Medikamente werden dann an einer gewünschten Stelle freigelassen. In der Arbeit wurde auch gezeigt, dass die Gelatine-Partikel genutzt werden können, um die Natur nachzuahnen (Biomimetik). Innerhalb der Partikel kann nämlich gezielt Knochenmaterial aufgebaut werden kann. Die Gelatine-Knochen-Partikel können dazu genutzt werden, um schwer heilende oder komplizierte Knochenbrüche zu beheben. Gelatine wird nämlich nach einigen Tagen abgebaut, das Knochenmaterial kann in den Knochen eingebaut werden. LEDs werden heute bereits vielfältig verwendet. LEDs bestehen aus Halbleitern, wie z.B. Silizium. Neuerdings werden dazu auch halbleitende Polymere eingesetzt. Das große Problem bei diesen Materialien ist, dass sie aus Lösungsmitteln aufgebracht werden. Im Rahmen der Doktorarbeit wurde gezeigt, dass der Prozess der Miniemulsionen genutzt werden kann, um umweltfreundlich diese LEDs herzustellen. Man stellt dazu nun wässrige Dispersionen mit den Polymerpartikeln her. Damit hat man nicht nur das Lösungsmittel vermieden, das hat nun noch einen weiteren Vorteil: man kann nämlich diese Dispersion auf sehr einfache Art verdrucken, im einfachsten Fall verwendet man einfach einen handelsüblichen Tintenstrahldrucker. N2 - The colloidal systems are present everywhere in many varieties such as emulsions (liquid droplets dispersed in liquid), aerosols (liquid dispersed in gas), foam (gas in liquid), etc. Among several new methods for the preparation of colloids, the so-called miniemulsion technique has been shown to be one of the most promising. Miniemulsions are defined as stable emulsions consisting of droplets with a size of 50-500 nm by shearing a system containing oil, water, a surfactant, and a highly water insoluble compound, the so-called hydrophobe 1. In the first part of this work, dynamic crystallization and melting experiments are described which were performed in small, stable and narrowly distributed nanodroplets (confined systems) of miniemulsions. Both regular and inverse systems were examined, characterizing, first, the crystallization of hexadecane, secondly, the crystallization of ice. It was shown for both cases that the temperature of crystallization in such droplets is significantly decreased (or the required undercooling is increased) as compared to the bulk material. This was attributed to a very effective suppression of heterogeneous nucleation. It was also found that the required undercooling depends on the nanodroplet size: with decreasing droplet size the undercooling increases. 2. It is shown that the temperature of crystallization of other n-alkanes in nanodroplets is also significantly decreased as compared to the bulk material due to a very effective suppression of heterogeneous nucleation. A very different behavior was detected between odd and even alkanes. In even alkanes, the confinement in small droplets changes the crystal structure from a triclinic (as seen in bulk) to an orthorhombic structure, which is attributed to finite size effects inside the droplets. An intermediate metastable rotator phase is of less relevance for the miniemulsion droplets than in the bulk. For odd alkanes, only a strong temperature shift compared to the bulk system is observed, but no structure change. A triclinic structure is formed both in bulk and in miniemulsion droplets. 3. In the next part of the thesis it is shown how miniemulsions could be successfully applied in the development of materials with potential application in pharmaceutical and medical fields. The production of cross-linked gelatin nanoparticles is feasible. Starting from an inverse miniemulsion, the softness of the particles can be controlled by varying the initial concentration, amount of cross-link agent, time of cross-linking, among other parameters. Such particles show a thermo-reversible effect, e.g. the particles swell in water above 37 °C and shrink below this temperature. Above 37 °C the chains loose the physical cross-linking, however the particles do not loose their integrity, because of the chemical cross-linking. Those particles have potential use as drug carriers, since gelatin is a natural polymer derived from collagen. 4. The cross-linked gelatin nanoparticles have been used for the biomineralization of hydroxyapatite (HAP), a biomineral, which is the major constituent of our bones. The biomineralization of HAP crystals within the gelatin nanoparticles results in a hybrid material, which has potential use as a bone repair material. 5. In the last part of this work we have shown that layers of conjugated semiconducting polymers can be deposited from aqueous dispersion prepared by the miniemulsion process. Dispersions of particles of different conjugated semiconducting polymers such as a ladder-type poly(para-phenylene) and several soluble derivatives of polyfluorene could be prepared with well-controlled particle sizes ranging between 70 - 250 nm. Layers of polymer blends were prepared with controlled lateral dimensions of phase separation on sub-micrometer scales, utilizing either a mixture of single component nanoparticles or nanoparticles containing two polymers. From the results of energy transfer it is demonstrated that blending two polymers in the same particle leads to a higher efficiency due to the better contact between the polymers. Such an effect is of great interest for the fabrication of opto-electronic devices such as light emitting diodes with nanometer size emitting points and solar cells comprising of blends of electron donating and electron accepting polymers. KW - Confinement KW - miniemulsion KW - crystallization KW - biomimetics and semiconducting polymers Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000726 ER - TY - THES A1 - Thonicke, Kirsten T1 - Fire disturbance and vegetation dynamics : analysis and models N2 - Untersuchungen zur Rolle natürlicher Störungen in der Vegetation bzw. in Ökosystemen zeigen, dass natürliche Störungen ein essentielles und intrinsisches Element in Ökosystemen darstellen, substanziell zur Vitalität und strukturellen Diversität der Ökosysteme beitragen und Stoffkreisläufe sowohl auf dem lokalen als auch auf dem globalen Niveau beeinflussen. Feuer als Grasland-, Busch- oder Waldbrand ist ein besonderes Störungsagens, da es sowohl durch biotische als auch abiotische Umweltfaktoren verursacht wird. Es beeinflusst biogeochemische Kreisläufe und spielt für die chemische Zusammensetzung der Atmosphäre durch Freisetzung klimarelevanter Spurengase und Aerosole aus der Verbrennung von Biomasse eine bedeutende Rolle. Dies wird auch durch die Emission von ca. 3.9 Gt Kohlenstoff pro Jahr unterstrichen, was einen großen Anteil am globalen Gesamtaufkommen ausmacht. Ein kombiniertes Modell, das die Effekte und Rückkopplungen zwischen Feuer und Vegetation beschreibt, wurde erforderlich, als Änderungen in den Feuerregimes als Folge von Änderungen in der Landnutzung und dem Landmanagement festgestellt wurden. Diese Notwendigkeit wurde noch durch die Erkenntnis unterstrichen, daß die Menge verbrennender Biomasse als ein bedeutender Kohlenstoffluß sowohl die chemische Zusammensetzung der Atmosphäre und das Klima, aber auch die Vegetationsdynamik selbst beeinflusst. Die bereits existierenden Modellansätze reichen hier jedoch nicht aus, um entsprechende Untersuchungen durchzuführen. Als eine Schlussfolgerung daraus wurde eine optimale Menge von Faktoren gefunden, die das Auftreten und die Ausbreitung des Feuers, sowie deren ökosystemare Effekte ausreichend beschreiben. Ein solches Modell sollte die Merkmale beobachteter Feuerregime simulieren können und Analysen der Interaktionen zwischen Feuer und Vegetationsdynamik unterstützen, um auch Ursachen für bestimmte Änderungen in den Feuerregimes herausfinden zu können. Insbesondere die dynamischen Verknüpfungen zwischen Vegetation, Klima und Feuerprozessen sind von Bedeutung, um dynamische Rückkopplungen und Effekte einzelner, veränderter Umweltfaktoren zu analysieren. Dadurch ergab sich die Notwendigkeit, neue Feuermodelle zu entwickeln, die die genannten Untersuchungen erlauben und das Verständnis der Rolle des Feuer in der globalen Ökologie verbessern. Als Schlussfolgerung der Dissertation wird festgestellt, dass Feuchtebedingungen, ihre Andauer über die Zeit (Länge der Feuersaison) und die Streumenge die wichtigsten Komponenten darstellen, die die Verteilung der Feuerregime global beschreiben. Werden Zeitreihen einzelner Regionen simuliert, sollten besondere Entzündungsquellen, brandkritische Klimabedingungen und die Bestandesstruktur als zusätzliche Determinanten berücksichtigt werden. Die Bestandesstruktur verändert das Niveau des Auftretens und der Ausbreitung von Feuer, beeinflusst jedoch weniger dessen interannuelle Variabilität. Das es wichtig ist, die vollständige Wirkungskette wichtiger Feuerprozesse und deren Verknüpfungen mit der Vegetationsdynamik zu berücksichtigen, wird besonders unter Klimaänderungsbedingungen deutlich. Eine länger werdende, vom Klima abhängige Feuersaison bedeutet nicht automatisch eine im gleichen Maße anwachsende Menge verbrannter Biomasse. Sie kann durch Änderungen in der Produktivität der Vegetation gepuffert oder beschleunigt werden. Sowohl durch Änderungen der Bestandesstruktur als auch durch eine erhöhte Produktivität der Vegetation können Änderungen der Feuereigenschaften noch weiter intensiviert werden und zu noch höheren, feuerbezogenen Emissionen führen. N2 - Studies of the role of disturbance in vegetation or ecosystems showed that disturbances are an essential and intrinsic element of ecosystems that contribute substantially to ecosystem health, to structural diversity of ecosystems and to nutrient cycling at the local as well as global level. Fire as a grassland, bush or forest fire is a special disturbance agent, since it is caused by biotic as well abiotic environmental factors. Fire affects biogeochemical cycles and plays an important role in atmospheric chemistry by releasing climate-sensitive trace gases and aerosols, and thus in the global carbon cycle by releasing approximately 3.9 Gt C p.a. through biomass burning. A combined model to describe effects and feedbacks between fire and vegetation became relevant as changes in fire regimes due to land use and land management were observed and the global dimension of biomass burnt as an important carbon flux to the atmosphere, its influence on atmospheric chemistry and climate as well as vegetation dynamics were emphasized. The existing modelling approaches would not allow these investigations. As a consequence, an optimal set of variables that best describes fire occurrence, fire spread and its effects in ecosystems had to be defined, which can simulate observed fire regimes and help to analyse interactions between fire and vegetation dynamics as well as to allude to the reasons behind changing fire regimes. Especially, dynamic links between vegetation, climate and fire processes are required to analyse dynamic feedbacks and effects of changes of single environmental factors. This led us to the point, where new fire models had to be developed that would allow the investigations, mentioned above, and could help to improve our understanding of the role of fire in global ecology. In conclusion of the thesis, one can state that moisture conditions, its persistence over time and fuel load are the important components that describe global fire pattern. If time series of a particular region are to be reproduced, specific ignition sources, fire-critical climate conditions and vegetation composition become additional determinants. Vegetation composition changes the level of fire occurrence and spread, but has limited impact on the inter-annual variability of fire. The importance to consider the full range of major fire processes and links to vegetation dynamics become apparent under climate change conditions. Increases in climate-dependent length of fire season does not automatically imply increases in biomass burnt, it can be buffered or accelerated by changes in vegetation productivity. Changes in vegetation composition as well as enhanced vegetation productivity can intensify changes in fire and lead to even more fire-related emissions. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2002/2003. KW - Waldbrand KW - Feuerregime KW - Vegetationsdynamik KW - natürliche Störungen KW - Waldbrandmodellierung KW - Klimaänderung KW - forest fires KW - fire regimes KW - vegetation dynamics KW - natural disturbances KW - fire modelling KW - climate change Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000713 ER - TY - THES A1 - Bissinger, Vera T1 - Factors determining growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2.7) N2 - Die vorliegende Dissertation beschäftigt sich mit den Faktoren, die das Wachstum und die Vertikalverteilung von Planktonalgen in extrem sauren Tagebaurestseen (TBS; pH 2-3) beeinflussen. Im exemplarisch untersuchten TBS 111 (pH 2.7; Lausitzer Revier) dominiert die Goldalge Ochromonas sp. in oberen und die Grünalge Chlamydomonas sp. in tieferen Wasserschichten, wobei letztere ein ausgeprägtes Tiefenchlorophyll-Maximum (DCM) ausbildet. Es wurde ein deutlicher Einfluss von Limitation durch anorganischen Kohlenstoff (IC) auf das phototrophe Wachstum von Chlamydomonas sp. in oberen Wasserschichten nachgewiesen, die mit zunehmender Tiefe von Lichtlimitation abgelöst wird. Im Vergleich mit Arbeiten aus neutralen Seen zeigte Chlamydomonas sp. erniedrigte maximale Wachstumsraten, einen gesteigerten Kompensationspunkt und erhöhte Dunkelrespirationsraten, was auf gesteigerte metabolische Kosten unter den extremen physikalisch-chemischen Bedingungen hinweist. Die Photosyntheseleistungen von Chlamydomonas sp. waren in Starklicht-adaptierten Zellen durch IC-Limitation deutlich verringert. Außerdem ergaben die ermittelten minimalen Zellquoten für Phosphor (P) einen erhöhten P-Bedarf unter IC-Limitation. Anschließend konnte gezeigt werden, dass Chlamydomonas sp. ein mixotropher Organismus ist, der seine Wachstumsraten über die osmotrophe Aufnahme gelösten organischen Kohlenstoffs (DOC) erhöhen kann. Dadurch ist dieser Organismus fähig, in tieferen, Licht-limitierten Wasserschichten zu überleben, die einen höheren DOC-Gehalt aufweisen. Da die Vertikalverteilung der Algen im TBS 111 jedoch weder durch IC-Limitation, P-Verfügbarkeit noch die in situ DOC-Konzentrationen abschließend erklärt werden konnte (bottom-up Kontrolle), wurde eine neue Theorie zur Entstehung der Vertikalverteilung geprüft. Grazing der phagotrophen und phototrophen Alge Ochromonas sp. auf der phototrophen Alge Chlamydomonas sp. erwies sich als herausragender Faktor, der über top-down Kontrolle die Abundanz der Beute in höheren Wasserschichten beeinflussen kann. Gemeinsam mit der Tatsache, dass Chlamydomonas sp. DOC zur Wachstumssteigerung verwendet, führt dies zu einer Akkumulation von Chlamydomonas sp. in der Tiefe, ausgeprägt als DCM. Daher erscheint grazing als der Hauptfaktor, der die beobachtete Vertikalschichtung der Algen im TBS 111 hervorruft. Die erzielten Ergebnisse liefern grundlegende Informationen, um die Auswirkungen von Strategien zur Neutralisierung der TBS auf das Nahrungsnetz abschätzen zu können. N2 - In this thesis, I investigated the factors influencing the growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2-3). In the focal study site, Lake 111 (pH 2.7; Lusatia, Germany), the chrysophyte, Ochromonas sp., dominates in the upper water strata and the chlorophyte, Chlamydomonas sp., in the deeper strata, forming a pronounced deep chlorophyll maximum (DCM). Inorganic carbon (IC) limitation influenced the phototrophic growth of Chlamydomonas sp. in the upper water strata. Conversely, in deeper strata, light limited its phototrophic growth. When compared with published data for algae from neutral lakes, Chlamydomonas sp. from Lake 111 exhibited a lower maximum growth rate, an enhanced compensation point and higher dark respiration rates, suggesting higher metabolic costs due to the extreme physico-chemical conditions. The photosynthetic performance of Chlamydomonas sp. decreased in high-light-adapted cells when IC limited. In addition, the minimal phosphorus (P) cell quota was suggestive of a higher P requirement under IC limitation. Subsequently, it was shown that Chlamydomonas sp. was a mixotroph, able to enhance its growth rate by taking up dissolved organic carbon (DOC) via osmotrophy. Therefore, it could survive in deeper water strata where DOC concentrations were higher and light limited. However, neither IC limitation, P availability nor in situ DOC concentrations (bottom-up control) could fully explain the vertical distribution of Chlamydomonas sp. in Lake 111. Conversely, when a novel approach was adopted, the grazing influence of the phagotrophic phototroph, Ochromonas sp., was found to exert top-down control on its prey (Chlamydomonas sp.) reducing prey abundance in the upper water strata. This, coupled with the fact that Chlamydomonas sp. uses DOC for growth, leads to a pronounced accumulation of Chlamydomonas sp. cells at depth; an apparent DCM. Therefore, grazing appears to be the main factor influencing the vertical distribution of algae observed in Lake 111. The knowledge gained from this thesis provides information essential for predicting the effect of strategies to neutralize the acidic mining lakes on the food-web. KW - Tagebaurestseen KW - Saure Seen KW - Chlamydomonas KW - IC KW - DOC KW - pH KW - Wachstumsraten KW - Mining lakes KW - acidic lakes KW - chlamydomonas KW - IC KW - DOC KW - pH KW - growthrates Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000695 ER - TY - THES A1 - Moreira, André Guérin T1 - Charged systems in bulk and at interfaces N2 - Eine der Faustregeln der Kolloid- und Oberflächenphysik ist, dass die meisten Oberflächen geladen sind, wenn sie mit einem Lösungsmittel, normalerweise Wasser, in Kontakt treten. Dies ist zum Beispiel bei ladungsstabilisierten Kolloidalen Suspensionen der Fall, bei denen die Oberfläche der Kolloidteilchen geladen ist (gewöhnlich mit einer Ladung von mehreren Hunderttausend Elementarladungen), oder bei Monoschichten ionischer Tenside, die auf einer Luft-Wasser Grenzfläche sitzen (wobei die wasserliebenden Kopfgruppen durch die Freisetzung von Gegenionen geladen werden), sowie bei Doppelschichten, die geladene phospholipide enthalten (wie Zellmembranen). In dieser Arbeit betrachten wir einige Modellsysteme, die zwar eine vereinfachte Fassung der Realität darstellen, von denen wir aber dennoch erwarten koennen, dass wir mit ihrer Hilfe einige physikalische Eigenschaften realer geladener Systeme (Kolloide und Elektrolyte) einfangen können. N2 - One of the rules-of-thumb of colloid and surface physics is that most surfaces are charged when in contact with a solvent, usually water. This is the case, for instance, in charge-stabilized colloidal suspensions, where the surface of the colloidal particles are charged (usually with a charge of hundreds to thousands of e, the elementary charge), monolayers of ionic surfactants sitting at an air-water interface (where the water-loving head groups become charged by releasing counterions), or bilayers containing charged phospholipids (as cell membranes). In this work, we look at some model-systems that, although being a simplified version of reality, are expected to capture some of the physical properties of real charged systems (colloids and electrolytes). We initially study the simple double layer, composed by a charged wall in the presence of its counterions. The charges at the wall are smeared out and the dielectric constant is the same everywhere. The Poisson-Boltzmann (PB) approach gives asymptotically exact counterion density profiles around charged objects in the weak-coupling limit of systems with low-valent counterions, surfaces with low charge density and high temperature (or small Bjerrum length). Using Monte Carlo simulations, we obtain the profiles around the charged wall and compare it with both Poisson-Boltzmann (in the low coupling limit) and the novel strong coupling (SC) theory in the opposite limit of high couplings. In the latter limit, the simulations show that the SC leads in fact to asymptotically correct density profiles. We also compare the Monte Carlo data with previously calculated corrections to the Poisson-Boltzmann theory. We also discuss in detail the methods used to perform the computer simulations. After studying the simple double layer in detail, we introduce a dielectric jump at the charged wall and investigate its effect on the counterion density distribution. As we will show, the Poisson-Boltzmann description of the double layer remains a good approximation at low coupling values, while the strong coupling theory is shown to lead to the correct density profiles close to the wall (and at all couplings). For very large couplings, only systems where the difference between the dielectric constants of the wall and of the solvent is small are shown to be well described by SC. Another experimentally relevant modification to the simple double layer is to make the charges at the plane discrete. The counterions are still assumed to be point-like, but we constraint the distance of approach between ions in the plane and counterions to a minimum distance D. The ratio between D and the distance between neighboring ions in the plane is, as we will see, one of the important quantities in determining the influence of the discrete nature of the charges at the wall over the density profiles. Another parameter that plays an important role, as in the previous case, is the coupling as we will demonstrate, systems with higher coupling are more subject to discretization effects than systems with low coupling parameter. After studying the isolated double layer, we look at the interaction between two double layers. The system is composed by two equally charged walls at distance d, with the counterions confined between them. The charge at the walls is smeared out and the dielectric constant is the same everywhere. Using Monte-Carlo simulations we obtain the inter-plate pressure in the global parameter space, and the pressure is shown to be negative (attraction) at certain conditions. The simulations also show that the equilibrium plate separation (where the pressure changes from attractive to repulsive) exhibits a novel unbinding transition. We compare the Monte Carlo results with the strong-coupling theory, which is shown to describe well the bound states of systems with moderate and high couplings. The regime where the two walls are very close to each other is also shown to be well described by the SC theory. Finally, Using a field-theoretic approach, we derive the exact low-density ("virial") expansion of a binary mixture of positively and negatively charged hard spheres (two-component hard-core plasma, TCPHC). The free energy obtained is valid for systems where the diameters d_+ and d_- and the charge valences q_+ and q_- of positive and negative ions are unconstrained, i.e., the same expression can be used to treat dilute salt solutions (where typically d_+ ~ d_- and q_+ ~ q_-) as well as colloidal suspensions (where the difference in size and valence between macroions and counterions can be very large). We also discuss some applications of our results. KW - geladene Systeme KW - elektrische Doppelschicht KW - Elektrolyte KW - Theorie KW - Simulation KW - charged systems KW - electric double layer KW - electrolytes KW - theory KW - simulation Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000677 ER - TY - THES A1 - Streffer, Katrin T1 - Highly sensitive measurements of substrates and inhibitors on the basis of tyrosinase sensors and recycling systems N2 - Analytische Chemie heute meint nicht länger nur die große Messtechnik, die zeit- und kostenintensiv ist, die außerdem nur von qualifiziertem Personal zu bedienen ist und deren Resultate nur durch dieses Personal auswertbar sind. Meist erfordert diese sagen wir 'klassische analytische Messtechnik' auch noch spezielle Räumlichkeiten und oft eine relative große Menge an speziell vorbereiteten Proben. Neben dieser klassischen analytischen Messtechnik hat sich besonders in den letzten Jahren eine auf bestimmte Stoffgruppen und Anforderungen zugeschnittene Messtechnik durchgesetzt, die oft auch durch einen Laien bedient werden kann. Meist sind es sehr kleine Geräte. Auch die benötigten Probenvolumina sind klein und eine spezielle Probenvorbereitung ist nicht erforderlich. Ausserdem sind die Geräte einfach zu handhaben, billig sowohl in ihrer Herstellung als auch im Gebrauch und meist erlauben sie sogar eine kontinuierliche Messwerterfassung. Zahlreiche dieser in den letzten Jahren entwickelten Geräte greifen zurück auf 40 Jahre Forschung auf dem Gebiet der Biosensorik. Seit Clark und Lyons im Jahr 1962 in der Lage waren, mit einer einfachen Sauerstoffelektrode, ergänzt durch ein Enzym, Glucose zu messen, war die Entwicklung neuer Messtechnik nicht mehr aufzuhalten. Biosensoren, spezielle Messfühler, die aus einer Kombination aus biologischer Komponente (erlaubt eine spezifische Erkennung des Analyten auch ohne vorherige Reinigung der Probe) und einem physikalischen Messfühler (wandelt den primären physikochemischen Effekt in ein elektronisch messbares Signal um) bestehen, eroberten den Markt. Im Rahmen dieser Doktorarbeit wurden verschiedene Tyrosinasesensoren entwickelt, die je nach Herkunft und Eigenschaften der verwendeten Tyrosinase unterschiedliche Anforderungen erfüllen. Beispielsweise wurde einer dieser Tyrosinasesensoren für die Bestimmung phenolischer Verbindungen in Fluss- und Seewasserproben eingesetzt, und die mit diesem Sensor gemessenen Ergebnisse konnten sehr gut mit dem entsprechenden DIN-Test zur Bestimmung phenolischer Verbindungen korreliert werden. Ein anderer entwickelter Sensor zeigte eine sehr hohe Empfindlichkeit für Catecholamine, Substanzen die speziell in der medizinischen Diagnostik von Wichtigkeit sind. Ausserdem zeigten die ebenfalls im Rahmen dieser Doktorarbeit durchgeführten Untersuchungen zweier verschiedener Tyrosinasen, dass, will man in Zukunft noch empfindlichere Tyrosinasesensoren entwickeln, eine spezielle Tyrosinase (Tyrosinase aus Streptomyces antibioticus) die bessere Wahl sein wird, als die bisher im Bereich der Biosensorforschung verwendete Tyrosinase aus Agaricus bisporus. Desweiteren wurden erste Erfolge auf molekularbiologischem Gebiet erreicht, das heisst, dass Tyrosinasemutanten mit speziellen, vorher überlegten Eigenschaften, hergestellt werden sollen. Diese Erfolge können dazu genutzt werden, eine neue Generation an Tyrosinasesensoren zu entwickeln, Tyrosinasesensoren in denen Tyrosinase gerichtet gebunden werden kann, sowohl an den entsprechenden physikalischen Messfühler oder auch an ein anderes Enzym. Davon verspricht man sich deutlich minimierte Wege, die die zu bestimmende Substanz (oder deren Produkt) sonst zurücklegen müsste, was am Ende zu einer deutlich erhöhten Empfindlichkeit des resultierenden Biosensors führen sollte. N2 - Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor. KW - Enzymelektrode ; Monophenolmonooxygenase KW - Tyrosinase KW - Phenol KW - Biosensor KW - Glucosedehydrogenase KW - Recyclingsystem KW - Tyrosinaseinhibitoren KW - Bioelektrokatalytisches Recycling KW - Biokatalytisches Recyc KW - tyrosinase KW - phenol KW - biosensor KW - glucose dehydrogenase KW - recycling system KW - tyrosinase inhibitors KW - bioelectrocatalytic recycling KW - biocatalytic recycling Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000632 ER - TY - THES A1 - Hoffmann-Rothe, Arne T1 - Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile N2 - Untersuchungen zur internen Architektur von großen Störungszonen beschränken sich üblicherweise auf die, an der Erdoberfläche aufgeschlossene, störungsbezogene Deformation. Eine Methode, die es ermöglicht, Informationen über die Tiefenfortsetzung einer Störung zu erhalten, ist die Abbildung der elektrischen Leitfähigkeit des Untergrundes. Die vorliegende Arbeit beschäftigt sich mit der kombinierten strukturgeologischen und magnetotellurischen Untersuchung eines Segmentes der 'West Fault'-Störung in den nordchilenischen Anden. Die West Fault ist ein Abschnitt des über 2000 km langen Präkordilleren-Störungssystem, welches im Zusammenhang mit der Subduktion vor der südamerikanischen Westküste entstanden ist. Die Aktivität dieses Störungssystems reichte vom Eozän bis in das Quartär. Der Verlauf der West Fault ist im Untersuchungsgebiet (22°04'S, 68°53'W) an der Oberfläche klar definiert und weist über viele zehner Kilometer eine konstante Streichrichtung auf. Die Aufschlussbedingungen und die Morphologie des Arbeitsgebietes sind ideal für kombinierte Untersuchungen der störungsbezogenen Deformation und der elektrischen Leitfähigkeit des Untergrundes mit Hilfe magnetotellurischer Experimente (MT) und der erdmagnetischen Tiefensondierung (GDS). Ziel der Untersuchungen war es, eine mögliche Korrelation der beiden Meßmethoden herauszuarbeiten, und die interne Störungsarchitektur der West Fault umfassend zu beschreiben. Die Interpretation von Sprödbruch-Strukturen (kleinmaßstäbliche Störungen sowie Störungsflächen mit/ohne Bewegungslineationen) im Untersuchungsgebiet weist auf überwiegend seitenverschiebende Deformation entlang von subvertikal orientierten Scherflächen hin. Dextrale und sinistrale Bewegungsrichtungen können innerhalb der Störungszone bestätigt werden, was auf Reaktivierungen des Störungssystems schliessen läßt. Die jüngsten Deformationen im Arbeitsgebiet haben dehnenden Charakter, wobei die kinematische Analyse eine unterschiedliche Orientierung der Extensionsrichtung beiderseits der Störung andeutet. Die Bruchflächendichte nimmt mit Annäherung an die Störung zu und zeichnet einen etwa 1000 m breiten Bereich erhöhter Deformationsintensität um die Störungsspur aus (damage zone). Im Zentrum dieser Zone weist das Gestein eine intensive Alteration und Brekzierung auf, die sich über eine Breite von etwa 400 m erstreckt. Kleine Störungen und Scherflächen in diesem zentralen Abschnitt der Störung fallen überwiegend steil nach Osten ein (70-80°). Innerhalb desselben Arbeitsgebietes wurde ein 4 km langes MT/GDS Profil vermessen, welches senkrecht zum Streichen der West Fault verläuft. Für die zentralen 2 km dieses Hauptprofils beträgt der Abstand der Meßstationen jeweils 100 m. Ein weiteres Profil, bestehend aus 9 Stationen mit einem Abstand von 300 m zueinander, quert die Störung einige Kilometer entfernt vom eigentlichen Arbeitsgebiet. Die Aufzeichnung der Daten erfolgte mit vier S.P.A.M MkIII Apparaturen in einem Frequenzbereich von 1000 Hz bis 0.001 Hz. In den GDS Daten beider Profile ist die Störung für Frequenzen >1 Hz deutlich abgebildet: Die Induktionspfeile kennzeichnen eine mehrere hundert Meter breite Zone erhöhter Leitfähigkeit, welche sich entlang der West Fault erstreckt. Die Dimensionalitätsanalyse der MT Daten rechtfertigt die Anpassung der gemessenen Daten mit einem zwei-dimensionalen Modell für einen Frequenzbereich von 1000 Hz bis 0.1 Hz. In diesem Frequenzbereich, der eine Auflösung der Leitfähigkeitsstruktur bis mindestens 5 km Tiefe ermöglicht, läßt sich eine regionale geoelektrische Streichrichtung parallel zum Verlauf der West Fault nachweisen. Die Modellierung der MT Daten beruht auf einem Inversionsalgorithmus von Mackie et al. (1997). Leitfähigkeitsanomalien, die sich aus der Inversions-Modellierung ergeben, werden anhand von empirischen Sensitivitätsstudien auf ihre Robustheit überprüft. Dabei werden die Eigenschaften (Geometrie, Leitfähigkeit) der Strukturen systematisch variiert und sowohl Vorwärts- als auch Inversionsrechnungen der modifizierten Modelle durchgeführt. Die jeweiligen Modellergebnisse werden auf ihre Konsistenz mit dem Ausgangsdatensatz überprüft. Entlang beider MT Profile wird ein guter elektrischer Leiter im zentralen Abschnitt der West Fault aufgelöst, wobei die Bereiche erhöhter Leitfähigkeit östlich der Störungsspur liegen. Für das dicht vermessene MT Profil ergibt sich eine Breite des Störungsleiters von etwa 300 m sowie ein steiles Einfallen der Anomalie nach Osten (70°). Der Störungsleiter reicht bis in eine Tiefe von mindestens 1100 m, während die Modellierungsstudien auf eine maximale Tiefenerstreckung <2000 m hinweisen. Das Profil zeigt weitere leitfähige Anomalien, deren Geometrie aber weniger genau aufgelöst ist. Die Störungsleiter der beiden MT Profile stimmen in ihrer Position mit der Alterationszone überein. Im zentralen Bereich des Hauptprofils korreliert darüber hinaus das Einfallen der Sprödbruch-Strukturen und der Leitfähigkeitsanomalie. Dies weist darauf hin, daß die Erhöhung der Leitfähigkeit im Zusammenhang mit einem Netzwerk von Bruchstrukturen steht, welches mögliche Wegsamkeiten für Fluide bietet. Der miteinander in Verbindung stehende Gesteins-Porenraum, der benötigt wird, um die gemessene Erhöhung der Leitfähigkeit durch Fluide im Gestein zu erklären, kann anhand der Salinität einiger Grundwasserproben abgeschätzt werden (Archies Gesetz). Wasserproben aus größerer Tiefe, weisen aufgrund intensiverer Fluid-Gesteins-Wechselwirkung eine höhere Salinität, und damit eine verbesserte Leitfähigkeit, auf. Für eine Probe aus einer Tiefe von 200 m ergibt sich demnach eine benötigte Porosität im Bereich von 0.8% - 4%. Dies legt nahe, daß Wässer, die von der Oberfläche in die Bruchzone der Störung eindringen, ausreichen, um die beobachtete Leitfähigkeitserhöhung zu erklären. Diese Deutung wird von der geochemischen Signatur von Gesteinsproben aus dem Alterationsbereich bestätigt, wonach die Alteration in einem Regime niedriger Temperatur (<95°C) stattfand. Der Einfluß von aufsteigenden Tiefenwässern wurde hier nicht nachgewiesen. Die geringe Tiefenerstreckung des Störungsleiters geht wahrscheinlich auf Verheilungs- und Zementationsprozesse der Bruchstrukturen zurück, die aufgrund der Lösung und Fällung von Mineralen in größerer Tiefe, und damit bei erhöhter Temperatur, aktiv sind. Der Vergleich der Untersuchungsergebnisse der zur Zeit seismisch inaktiven West Fault mit veröffentlichten Studien zur elektrischen Leitfähigkeitsstruktur der aktiven San Andreas Störung, deutet darauf hin, daß die Tiefenerstreckung und die Leitfähigkeit von Störungsleitern eine Funktion der Störungsaktivität ist. Befindet sich eine Störung in einem Stadium der Deformation, so bleibt das Bruchnetzwerk für Fluide permeabel und verhindert die Versiegelung desselben. N2 - The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways. KW - Anden / Störung / Strukturgeologie / Magnetotellurik / Chile KW - Magnetotellurik KW - Seitenverschiebung KW - Anden KW - West Fault Zone KW - Störungsbau KW - elektrische Leitfähigkeit KW - Magnetotelluric KW - Strike-slip fault KW - Andes KW - West Fault Zone KW - Fault architecture KW - electrical conductivity Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000569 ER - TY - THES A1 - Güntner, Andreas T1 - Large-scale hydrological modelling in the semi-arid north-east of Brazil N2 - Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes. N2 - Semiaride Gebiete sind auf Grund der klimatischen Bedingungen durch geringe Wasserressourcen gekennzeichnet. Ein zukünftig steigender Wasserbedarf in Folge von Bevölkerungswachstum und ökonomischer Entwicklung sowie eine geringere Wasserverfügbarkeit durch mögliche Klimaänderungen können dort zu einer Verschärfung der vielfach schon heute auftretenden Wasserknappheit führen. Das Verständnis der Mechanismen und Wechselwirkungen des komplexen Systems von Mensch und Umwelt sowie die quantitative Bestimmung zukünftiger Veränderungen in der Menge, der zeitlichen Verteilung und der Qualität von Wasserressourcen sind eine grundlegende Voraussetzung für die Entwicklung von nachhaltigen Maßnahmen des Wassermanagements mit dem Ziel einer höheren Anpassungsfähigkeit dieser Regionen gegenüber künftigen Änderungen. Hierzu sind dynamische integrierte Modelle unerlässlich, die als eine Komponente ein hydrologisches Modell beinhalten. Vorrangiges Ziel dieser Arbeit ist daher die Erstellung eines hydrologischen Modells zur großräumigen Bestimmung der Wasserverfügbarkeit unter sich ändernden Umweltbedingungen in semiariden Gebieten. Als Untersuchungsraum dient der im semiariden tropischen Nordosten Brasiliens gelegene Bundestaat Ceará (150 000 km2). Die mittleren Jahresniederschläge in diesem Gebiet liegen bei 850 mm innerhalb einer etwa fünfmonatigen Regenzeit. Mit vorwiegend kristallinem Grundgebirge und geringmächtigen Böden stellt Oberflächenwasser den größten Teil der Wasserversorgung bereit. Die Region war wiederholt von Dürren betroffen, die zu schweren ökonomischen Schäden und sozialen Folgen wie Migration aus den ländlichen Gebieten geführt haben. Das hier entwickelte hydrologische Modell Wasa (Model of Water Availability in Semi-Arid Environments) ist ein deterministisches, flächendifferenziertes Modell, das aus konzeptionellen, prozess-basierten Ansätzen aufgebaut ist. Die Wasserverfügbarkeit (Abfluss im Gewässernetz, Speicherung in Stauseen, Bodenfeuchte) wird mit täglicher Auflösung bestimmt. Als räumliche Zieleinheiten können Teileinzugsgebiete, Rasterzellen oder administrative Einheiten (Gemeinden) gewählt werden. Letztere ermöglichen die Kopplung des Modells im Rahmen der integrierten Modellierung mit Modulen, die nicht auf der Basis natürlicher Raumeinheiten arbeiten. Im Rahmen eines neuen skalenübergreifenden, hierarchischen Ansatzes werden in Wasa die genannten Zieleinheiten in kleinere räumliche Modellierungseinheiten unterteilt. Die ausgewiesenen Landschaftseinheiten erfassen insbesondere die strukturierte Variabilität von Gelände-, Boden- und Vegetationseigenschaften entlang von Toposequenzen in ihrem Einfluss auf Bodenfeuchte und Abflussbildung. Laterale hydrologische Prozesse auf kleiner Skala, wie die für semiaride Bedingungen bedeutsame Wiederversickerung von Oberflächenabfluss, können somit auch in der erforderlichen großskaligen Modellanwendung vereinfacht wiedergegeben werden. In Abhängigkeit von der Auflösung der verfügbaren Daten wird in Wasa die kleinskalige Variabilität nicht räumlich explizit sondern über die Verteilung von Flächenanteilen subskaliger Einheiten und über statistische Übergangshäufigkeiten für laterale Flüsse zwischen den Einheiten berücksichtigt. Weitere Modellkomponenten von Wasa, die spezifische Bedingungen semiarider Gebiete berücksichtigen, sind: (1) Ein Zwei-Schichten-Modell zur Bestimmung der Evapotranspiration berücksichtigt auch den Energieumsatz an der Bodenoberfläche (inklusive Bodenverdunstung), der in Anbetracht der meist lichten Vegetationsbedeckung von Bedeutung ist. Die Vegetationsparameter werden zudem flächen- und zeitdifferenziert in Abhängigkeit vom Auftreten der Regenzeit modifiziert. (2) Das Infiltrationsmodul bildet insbesondere Oberflächenabfluss durch Infiltrationsüberschuss als dominierender Abflusskomponente ab. (3) Zur aggregierten Beschreibung der Wasserbilanz von im Modell nicht einzeln erfassbaren Stauseen wird ein Speichermodell unter Berücksichtigung verschiedener Größenklassen und ihrer Interaktion über das Gewässernetz eingesetzt. (4) Ein Modell zur Bestimmung der Entnahme durch Wassernutzung in verschiedenen Sektoren ist an Wasa gekoppelt. (5) Ein Kaskadenmodell zur zeitlichen Disaggregierung von Niederschlagszeitreihen, das in dieser Arbeit speziell für tropische konvektive Niederschlagseigenschaften angepasst wird, wird zur Erzeugung höher aufgelöster Niederschlagsdaten verwendet. Alle Modellparameter von Wasa können von physiographischen Gebietsinformationen abgeleitet werden, sodass eine Modellkalibrierung primär nicht erforderlich ist. Die Modellanwendung von Wasa für historische Zeitreihen ergibt im Allgemeinen eine gute Übereinstimmung der Simulationsergebnisse für Abfluss und Stauseespeichervolumen mit Beobachtungsdaten in unterschiedlich großen Einzugsgebieten. Die mittlere Wasserbilanz sowie die hohe monatliche und jährliche Variabilität wird vom Modell angemessen wiedergegeben. Die Grenzen der Anwendbarkeit des Modell-konzepts zeigen sich am deutlichsten in Teilgebieten mit Abflusskomponenten aus tieferen Grundwasserleitern, deren Dynamik ohne Kalibrierung nicht zufriedenstellend abgebildet werden kann. Die Modellanwendungen zeigen weiterhin: (1) Laterale Prozesse der Umverteilung von Bodenfeuchte und Abfluss auf der Hangskala, vor allem die Wiederversickerung von Oberflächenabfluss, führen auf der Skala von Einzugsgebieten zu deutlich kleineren Abflussvolumen als die einfache Summe der Abflüsse der Teilflächen. Diese Prozesse sollten daher auch in großskaligen Modellen abgebildet werden. Die unterschiedliche Ausprägung dieser Prozesse für unterschiedliche Bedingungen zeigt sich an Hand einer prozentual größeren Verringerung der Abflussvolumen in trockenen im Vergleich zu feuchten Jahren. (2) Die Niederschlagseigenschaften haben einen sehr großen Einfluss auf die hydrologische Reaktion in semiariden Gebieten. Insbesondere die durch die grobe zeitliche Auflösung des Modells und durch Interpolationseffekte unterschätzten Niederschlagsintensitäten in den Eingangsdaten und die daraus folgende Unterschätzung von Abflussvolumen müssen im Modell kompensiert werden. Ein Skalierungsfaktor in der Infiltrationsroutine oder die Verwendung disaggregierter stündlicher Niederschlagsdaten zeigen hier gute Ergebnisse. Die Simulationsergebnisse mit Wasa sind insgesamt durch große Unsicherheiten gekennzeichnet. Diese sind einerseits in Unsicherheiten der Modellstruktur zur adäquaten Beschreibung der relevanten hydrologischen Prozesse begründet, andererseits in Daten- und Parametersunsicherheiten in Anbetracht der geringen Datenverfügbarkeit. Von besonderer Bedeutung ist: (1) Die Unsicherheit der Niederschlagsdaten in ihrem räumlichen Muster und ihrer zeitlichen Struktur hat wegen der stark nicht-linearen hydrologischen Reaktion einen großen Einfluss auf die Simulationsergebnisse. (2) Die Unsicherheit von Bodenparametern hat im Vergleich zu Vegetationsparametern und topographischen Parametern im Allgemeinen einen größeren Einfluss auf die Modellunsicherheit. (3) Der Effekt der Unsicherheit einzelner Modellkomponenten und -parameter ist für Jahre mit unter- oder überdurchschnittlichen Niederschlagsvolumen zumeist unterschiedlich, da einzelne hydrologische Prozesse dann jeweils unterschiedlich relevant sind. Die Unsicherheit einzelner Modellkomponenten- und parameter hat somit eine unterschiedliche Bedeutung für die Unsicherheit von Szenarienrechnungen mit steigenden oder fallenden Niederschlagstrends. (4) Der bedeutendste Unsicherheitsfaktor für Szenarien der Wasserverfügbarkeit für die Untersuchungsregion ist die Unsicherheit der den regionalen Klimaszenarien zu Grunde liegenden Ergebnisse globaler Klimamodelle. Eine deutliche Zunahme oder Abnahme der Niederschläge bis 2050 kann gemäß den hier vorliegenden Daten für das Untersuchungsgebiet gleichermaßen angenommen werden. Modellsimulationen für Klimaszenarien bis zum Jahr 2050 ergeben, dass eine mögliche zukünftige Veränderung der Niederschlagsmengen zu einer prozentual zwei- bis dreifach größeren Veränderung der Abflussvolumen führt. Im Falle eines Trends von abnehmenden Niederschlagsmengen besteht in der Untersuchungsregion die Tendenz, dass auf Grund der gegenseitigen Beeinflussung der großen Zahl von Stauseen beim Rückhalt der tendenziell abnehmenden Abflussvolumen die Effizienz von neugebauten Stauseen zur Sicherung der Wasserverfügbarkeit zunehmend geringer wird. KW - Ceará / Semiarides Gebiet / Wasserreserve / Hydrologie / Mathematisches Modell KW - Hydrologie KW - Wasserverfügbarkeit KW - Klimaänderung KW - Niederschlag-Abfluss-Modellierung KW - Trockengebiet KW - semi-arid KW - Unsicherheiten KW - Brasilien KW - hydrology KW - water availability KW - climate change KW - rainfall-runoff modelling KW - drylands KW - semi-arid KW - uncertainties KW - Brazil Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000511 ER - TY - THES A1 - Kuhlbrodt, Till T1 - Stability and variability of open-ocean deep convection in deterministic and stochastic simple models N2 - Die Tiefenkonvektion ist ein wesentlicher Bestandteil der Zirkulation im Nordatlantik. Sie beeinflusst den nordwärtigen Wärmetransport der thermohalinen Zirkulation. Ein Verständnis ihrer Stabilität und Variabilität ist daher nötig, um Klimaveränderungen im Bereich des Nordatlantiks einschätzen zu können. Diese Arbeit hat zum Ziel, das konzeptionelle Verständnis der Stabilität und der Variabilität der Tiefenkonvektion zu verbessern. Beobachtungsdaten aus der Labradorsee zeigen Phasen mit und ohne Tiefenkonvektion. Ein einfaches Modell mit zwei Boxen wird an diese Daten angepasst. Das Ergebnis legt nahe, dass die Labradorsee zwei koexistierende stabile Zustände hat, einen mit regelmäßiger Tiefenkonvektion und einen ohne Tiefenkonvektion. Diese Bistabilität ergibt sich aus einer positiven Salzgehalts-Rückkopplung, deren Ursache ein Netto-Süßwassereintrag in die Deckschicht ist. Der konvektive Zustand kann schnell instabil werden, wenn der mittlere Antrieb sich hin zu wärmeren oder weniger salzhaltigen Bedingungen ändert. Die wetterbedingte Variabilität des externen Antriebs wird durch die Addition eines stochastischen Antriebsterms in das Modell eingebaut. Es zeigt sich, dass dann die Tiefenkonvektion häufig an- und wieder ausgeschaltet wird. Die mittlere Aufenthaltszeit in beiden Zuständen ist ein Maß ihrer stochastischen Stabilität. Die stochastische Stabilität hängt in glatter Weise von den Parametern des Antriebs ab, im Gegensatz zu der deterministischen (nichtstochastischen) Stabilität, die sich abrupt ändern kann. Sowohl das Mittel als auch die Varianz des stochastischen Antriebs beeinflussen die Häufigkeit von Tiefenkonvektion. Eine Abnahme der Konvektionshäufigkeit, als Reaktion auf eine Abnahme des Salzgehalts an der Oberfläche, kann zum Beispiel durch eine Zunahme der Variabilität in den Wärmeflüssen kompensiert werden. Mit einem weiter vereinfachten Box-Modell werden einige Eigenschaften der stochastischen Stabilität analytisch untersucht. Es wird ein neuer Effekt beschrieben, die wandernde Monostabilität: Auch wenn die Tiefenkonvektion aufgrund geänderter Parameter des Antriebs kein stabiler Zustand mehr ist, kann der stochastische Antrieb immer noch häufig Konvektionsereignisse auslösen. Die analytischen Gleichungen zeigen explizit, wie die wandernde Monostabilität sowie andere Effekte von den Modellparametern abhängen. Diese Abhängigkeit ist für die mittleren Aufenthaltszeiten immer exponentiell, für die Wahrscheinlichkeit langer nichtkonvektiver Phasen dagegen nur dann, wenn diese Wahrscheinlichkeit gering ist. Es ist zu erwarten, dass wandernde Monostabilität auch in anderen Teilen des Klimasystems eine Rolle spielt. Insgesamt zeigen die Ergebnisse, dass die Stabilität der Tiefenkonvektion in der Labradorsee sehr empfindlich auf den Antrieb reagiert. Die Rolle der Variabilität ist entscheidend für ein Verständnis dieser Empfindlichkeit. Kleine Änderungen im Antrieb können bereits die Häufigkeit von Tiefenkonvektionsereignissen deutlich mindern, was sich vermutlich stark auf das regionale Klima auswirkt. N2 - Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam. KW - Labradorsee ; Thermohaline Konvektion ; Stochastisches Modell KW - Stochastische dynamische Systeme KW - Nichtlineare Dynamik KW - Bistabilität KW - Nordatlantik KW - Stochastic dynamical systems KW - Nonlinear dynamics KW - Bistability KW - North Atlantic Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000622 ER - TY - THES A1 - Sahlmann, Hanno T1 - Coupling matter to loop quantum gravity N2 - Motiviert durch neuere Vorschläge zur experimentellen Untersuchung von Quantengravitationseffekten werden in der vorliegenden Arbeit Annahmen und Methoden untersucht, die für die Vorhersagen solcher Effekte im Rahmen der Loop-Quantengravitation verwendet werden können. Dazu wird als Modellsystem ein skalares Feld, gekoppelt an das Gravitationsfeld, betrachtet. Zunächst wird unter bestimmten Annahmen über die Dynamik des gekoppelten Systems eine Quantentheorie für das Skalarfeld vorgeschlagen. Unter der Annahme, dass sich das Gravitationsfeld in einem semiklassischen Zustand befindet, wird dann ein "QFT auf gekrümmter Raumzeit-Limes" dieser Theorie definiert. Im Gegensatz zur gewöhnlichen Quantenfeldtheorie auf gekrümmter Raumzeit beschreibt die Theorie in diesem Grenzfall jedoch ein quantisiertes Skalarfeld, das auf einem (klassisch beschriebenen) Zufallsgitter propagiert. Sodann werden Methoden vorgeschlagen, den Niederenergieliemes einer solchen Gittertheorie, vor allem hinsichtlich der resultierenden modifizierten Dispersonsrelation, zu berechnen. Diese Methoden werden anhand von einfachen Modellsystemen untersucht. Schließlich werden die entwickelten Methoden unter vereinfachenden Annahmen und der Benutzung einer speziellen Klasse von semiklassischen Zuständen angewandt, um Korrekturen zur Dispersionsrelation des skalaren und des elektromagnetischen Feldes im Rahmen der Loop-Quantengravitation zu berechnen. Diese Rechnungen haben vorläufigen Charakter, da viele Annahmen eingehen, deren Gültigkeit genauer untersucht werden muss. Zumindest zeigen sie aber Probleme und Möglichkeiten auf, im Rahmen der Loop-Quantengravitation Vorhersagen zu machen, die sich im Prinzip experimentell verifizieren lassen. N2 - Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment. KW - Quantengravitation KW - Loop-Quantengravitation KW - semiklassische Zustände KW - Dispersionsrelationen KW - quantum gravity KW - loop quantum gravity KW - semiclassical states KW - dispersion relations Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000602 ER - TY - THES A1 - Franco González, Olga T1 - Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure N2 - Die Suche nach neuen Materialien von technischem Interesse hat in den letzten Jahren neue Antriebe zu der Untersuchung organischer Verbindungen gegeben. Organische Substanzen haben viele Vorteile wie z.B. die Möglichkeit, ihre Eigenschaften durch verschiedene chemische und physikalische Techniken im Herstellung-Prozess für ein bestimmtes Ziel zu modifizieren. Oxadiazolverbindungen sind interessant aufgrund ihrer Nutzung als Material für Licht emittierende Dioden und Scintillatoren. Die physikalischen Eigenschaften eines Festkörpers hängen von seiner Struktur ab. Unterschiedliche Strukturen entwickeln unterschiedliche intra- und intermolekülare Wechselwirkungen. Eine ausgezeichnete Weise, um sowohl die intra- als auch die intermolekularen Wechselwirkungen eines bestimmtes Stoffes zu beeinflussen, ohne seine chemischen Charakteristiken zu ändern, ist die Verwendung von hohem Druck. Wir haben den Einfluss von hohem Druck und hoher Temperatur auf die super-molekulare Struktur einiger Oxadiazolverbindungen im kristallinem Zustand untersucht. Aus diesen Untersuchungsergebnissen wurde eine Zustandsgleichung für diese Kristalle bestimmt. Überdies wurden die spektroskopischen Eigenschaften dieser Materialien unter hohem Druck charakterisiert. N2 - In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized. KW - Oxadiazolderivate ; Kristallstruktur ; Hochdruck ; UV-VIS-Spektroskopie ; Raman-Spektroskopie KW - Hochdruck KW - organische Kristalle KW - Kristallstruktur KW - Zustandsgleichung KW - UV-Vis Spektroskopie KW - Raman Streuung KW - high pressure KW - organic crystal KW - crystal structure KW - equation of state KW - UV-Vis spectroscopy KW - Raman scattering Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000572 ER - TY - THES A1 - Boeuf, Stéphane T1 - Comparative study of gene expression during the differentiation of white and brown preadipocytes N2 - Einleitung Säugetiere haben zwei verschiedene Arten von Fettgewebe: das weiße Fettgewebe, welches vorwiegend zur Lipidspeicherung dient, und das braune Fettgewebe, welches sich durch seine Fähigkeit zur zitterfreien Thermogenese auszeichnet. Weiße und braune Adipozyten sind beide mesodermalen Ursprungs. Die Mechanismen, die zur Entwicklung von Vorläuferzellen in den weißen oder braunen Fettzellphenotyp führen, sind jedoch unbekannt. Durch verschiedene experimentelle Ansätze konnte gezeigt werden, daß diese Adipocyten vermutlich durch die Differenzierung zweier Typen unterschiedlicher Vorläuferzellen entstehen: weiße und braune Preadipozyten. Von dieser Hypothese ausgehend, war das Ziel dieser Studie, die Genexpression weißer und brauner Preadipozyten auf Unterschiede systematisch zu analysieren. Methoden Die zu vergleichenden Zellen wurden aus primären Zellkulturen weißer und brauner Preadipozyten des dsungarischen Zwerghamsters gewonnen. „Representational Difference Analysis“ wurde angewandt, um potentiell unterschiedlich exprimierte Gene zu isolieren. Die daraus resultierenden cDNA Fragmente von Kandidatengenen wurden mit Hilfe der Microarraytechnik untersucht. Die Expression dieser Gene wurde in braunen und weißen Fettzellen in verschiedenen Differenzierungsstadien und in braunem und weißem Fettgewebe verglichen. Ergebnisse 12 Gene, die in braunen und weißen Preadipozyten unterschiedlich exprimiert werden, konnten identifiziert werden. Drei Komplement Faktoren und eine Fettsäuren Desaturase werden in weißen Preadipozyten höher exprimiert; drei Struktur Gene (Fibronectin, Metargidin und a Actinin 4), drei Gene verbunden mit transkriptioneller Regulation (Necdin, Vigilin und das „small nuclear ribonucleoprotein polypeptide A“) sowie zwei Gene unbekannter Funktion werden in braunen Preadipozyten höher exprimiert. Mittels Clusteranalyse (oder Gruppenanalyse) wurden die gesamten Genexpressionsdaten charakterisiert. Dabei konnten die Gene in 4 typischen Expressionsmuster aufgeteilt werden: in weißen Preadipozyten höher exprimierte Gene, in braunen Preadipozyten höher exprimierte Gene, während der Differenzierung herunter regulierte Gene und während der Differenzierung hoch regulierte Gene. Schlußfolgerungen In dieser Studie konnte gezeigt werden, daß weiße und braune Preadipozyten aufgrund der Expression verschiedener Gene unterschieden werden können. Es wurden mehrere Kandidatengene zur Bestimmung weißer und brauner Preadipozyten identifiziert. Außerdem geht aus den Genexpressionsdaten hervor, daß funktionell unterschiedliche Gruppen von Genen eine wichtige Rolle bei der Differenzierung von weißen und braunen Preadipozyten spielen könnten, wie z.B. Gene des Komplementsystems und der extrazellulären Matrix. N2 - Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix. KW - Säugetiere ; Fettgewebe ; Zelldifferenzierung ; Genexpression KW - Preadipozyt KW - Adipozyt KW - Fettzelle KW - braunes Fettgewebe KW - Differenzierung KW - Genexpression KW - Microarray KW - preadipocyte KW - adipocyte KW - brown adipose tissue KW - differentiation KW - gene expression KW - microarray Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000542 ER - TY - THES A1 - Schaber, Jörg T1 - Phenology in Germany in the 20th century : methods, analyses and models N2 - Die Länge der Vegetationsperiode (VP) spielt eine zentrale Rolle für die interannuelle Variation der Kohlenstoffspeicherung terrestrischer Ökosysteme. Die Analyse von Beobachtungsdaten hat gezeigt, dass sich die VP in den letzten Jahrzehnten in den nördlichen Breiten verlängert hat. Dieses Phänomen wurde oft im Zusammenhang mit der globalen Erwärmung diskutiert, da die Phänologie von der Temperatur beeinflusst wird. Die Analyse der Pflanzenphänologie in Süddeutschland im 20. Jahrhundert zeigte: - Die starke Verfrühung der Frühjahrsphasen in dem Jahrzehnt vor 1999 war kein singuläres Ereignis im 20. Jahrhundert. Schon in früheren Dekaden gab es ähnliche Trends. Es konnten Perioden mit unterschiedlichem Trendverhalten identifiziert werden. - Es gab deutliche Unterschiede in den Trends von frühen und späten Frühjahrsphasen. Die frühen Frühjahrsphasen haben sich stetig verfrüht, mit deutlicher Verfrühung zwischen 1931 und 1948, moderater Verfrühung zwischen 1948 und 1984 und starker Verfrühung zwischen 1984 und 1999. Die späten Frühjahrsphasen hingegen, wechselten ihr Trendverhalten in diesen Perioden von einer Verfrühung zu einer deutlichen Verspätung wieder zu einer starken Verfrühung. Dieser Unterschied in der Trendentwicklung zwischen frühen und späten Frühjahrsphasen konnte auch für ganz Deutschland in den Perioden 1951 bis 1984 und 1984 bis 1999 beobachtet werden. Der bestimmende Einfluss der Temperatur auf die Frühjahrsphasen und ihr modifizierender Einfluss auf die Herbstphasen konnte bestätigt werden. Es zeigt sich jedoch, dass - die Phänologie bestimmende Funktionen der Temperatur nicht mit einem globalen jährlichen CO2 Signal korreliert waren, welches als Index für die globale Erwärmung verwendet wurde - ein Index für grossräumige regionale Zirkulationsmuster (NAO-Index) nur zu einem kleinen Teil die beobachtete phänologischen Variabilität erklären konnte. Das beobachtete unterschiedliche Trendverhalten zwischen frühen und späten Frühjahrsphasen konnte auf die unterschiedliche Entwicklung von März- und Apriltemperaturen zurückgeführt werden. Während sich die Märztemperaturen im Laufe des 20. Jahrhunderts mit einer zunehmenden Variabilität in den letzten 50 Jahren stetig erhöht haben, haben sich die Apriltemperaturen zwischen dem Ende der 1940er und Mitte der 1980er merklich abgekühlt und dann wieder deutlich erwärmt. Es wurde geschlussfolgert, dass die Verfrühungen in der Frühjahrsphänologie in den letzten Dekaden Teile multi-dekadischer Fluktuationen sind, welche sich nach Spezies und relevanter saisonaler Temperatur unterscheiden. Aufgrund dieser Fluktuationen konnte kein Zusammenhang mit einem globalen Erwärmungsignal gefunden werden. Im Durchschnitt haben sich alle betrachteten Frühjahrsphasen zwischen 1951 und 1999 in Naturräumen in Deutschland zwischen 5 und 20 Tagen verfrüht. Ein starker Unterschied in der Verfrühung zwischen frühen und späten Frühjahrsphasen liegt an deren erwähntem unterschiedlichen Verhalten. Die Blattverfärbung hat sich zwischen 1951 und 1999 für alle Spezies verspätet, aber nach 1984 im Durchschnitt verfrüht. Die VP hat sich in Deutschland zwischen 1951 und 1999 um ca. 10 Tage verlängert. Es ist hauptsächlich die Änderung in den Frühjahrphasen, die zu einer Änderung in der potentiell absorbierten Strahlung (PAS) führt. Darüber hinaus sind es die späten Frühjahrsphasen, die pro Tag Verfrühung stärker profitieren, da die zusätzlichen Tage länger undwärmer sind als dies für die frühen Phasen der Fall ist. Um die relative Änderung in PAS im Vergleich der Spezies abzuschätzen, müssen allerdings auch die Veränderungen in den Herbstphasen berücksichtigt werden. Der deutliche Unterschied zwischen frühen und späten Frühjahrsphasen konnte durch die Anwendung einer neuen Methode zur Konstruktion von Zeitreihen herausgearbeitet werden. Der neue methodische Ansatz erlaubte die Ableitung verlässlicher 100-jähriger Zeitreihen und die Konstruktion von lokalen kombinierten Zeitreihen, welche die Datenverfügbarkeit für die Modellentwicklung erhöhten. Ausser analysierten Protokollierungsfehlern wurden mikroklimatische, genetische und Beobachtereinflüsse als Quellen von Unsicherheit in phänologischen Daten identifiziert. Phänologischen Beobachtungen eines Ortes können schätzungsweise 24 Tage um das parametrische Mittel schwanken.Dies unterstützt die 30-Tage Regel für die Detektion von Ausreissern. Neue Phänologiemodelle, die den Blattaustrieb aus täglichen Temperaturreihen simulieren, wurden entwickelt. Diese Modelle basieren auf einfachen Interaktionen zwischen aktivierenden und hemmenden Substanzen, welche die Entwicklungsstadien einer Pflanze bestimmen. Im Allgemeinen konnten die neuen Modelle die Beobachtungsdaten besser simulieren als die klassischen Modelle. Weitere Hauptresultate waren: - Der Bias der klassischen Modelle, d.h. Überschätzung von frühen und Unterschätzung von späten Beobachtungen, konnte reduziert, aber nicht vollständig eliminiert werden. - Die besten Modellvarianten für verschiedene Spezies wiesen darauf hin, dass für die späten Frühjahrsphasen die Tageslänge eine wichtigere Rolle spielt als für die frühen Phasen. - Die Vernalisation spielte gegenüber den Temperaturen kurz vor dem Blattaustrieb nur eine untergeordnete Rolle. N2 - The length of the vegetation period (VP) plays a central role for the interannual variation of carbon fixation of terrestrial ecosystems. Observational data analysis has indicated that the length of the VP has increased in the last decades in the northern latitudes mainly due to an advancement of bud burst (BB). This phenomenon has been widely discussed in the context of Global Warming because phenology is correlated to temperatures. Analyzing the patterns of spring phenology over the last century in Southern Germany provided two main findings: - The strong advancement of spring phases especially in the decade before 1999 is not a singular event in the course of the 20th century. Similar trends were also observed in earlier decades. Distinct periods of varying trend behavior for important spring phases could be distinguished. - Marked differences in trend behavior between the early and late spring phases were detected. Early spring phases changed as regards the magnitude of their negative trends from strong negative trends between 1931 and 1948 to moderate negative trends between 1948 and 1984 and back to strong negative trends between 1984 and 1999. Late spring phases showed a different behavior. Negative trends between 1931 and 1948 are followed by marked positive trends between 1948 and 1984 and then strong negative trends between 1984 and 1999. This marked difference in trend development between early and late spring phases was also found all over Germany for the two periods 1951 to 1984 and 1984 to 1999. The dominating influence of temperature on spring phenology and its modifying effect on autumn phenology was confirmed in this thesis. However, - temperature functions determining spring phenology were not significantly correlated with a global annual CO2 signal which was taken as a proxy for a Global Warming pattern. - an index for large scale regional circulation patterns (NAO index) could only to a small part explain the observed phenological variability in spring. The observed different trend behavior of early and late spring phases is explained by the differing behavior of mean March and April temperatures. Mean March temperatures have increased on average over the 20th century accompanied by an increasing variation in the last 50 years. April temperatures, however, decreased between the end of the 1940s and the mid-1980s, followed by a marked warming after the mid-1980s. It can be concluded that the advancement of spring phenology in recent decades are part of multi-decadal fluctuations over the 20th century that vary with the species and the relevant seasonal temperatures. Because of these fluctuations a correlation with an observed Global Warming signal could not be found. On average all investigated spring phases advanced between 5 and 20 days between 1951 and 1999 for all Natural Regions in Germany. A marked difference be! tween late and early spring phases is due to the above mentioned differing behavior before and after the mid-1980s. Leaf coloring (LC) was delayed between 1951 and 1984 for all tree species. However, after 1984 LC was advanced. Length of the VP increased between 1951 and 1999 for all considered tree species by an average of ten days throughout Germany. It is predominately the change in spring phases which contributes to a change in the potentially absorbed radiation. Additionally, it is the late spring species that are relatively more favored by an advanced BB because they can additionally exploit longer days and higher temperatures per day advancement. To assess the relative change in potentially absorbed radiation among species, changes in both spring and autumn phenology have to be considered as well as where these changes are located in the year. For the detection of the marked difference between early and late spring phenology a new time series construction method was developed. This method allowed the derivation of reliable time series that spanned over 100 years and the construction of locally combined time series increasing the available data for model development. Apart from analyzed protocolling errors, microclimatic site influences, genetic variation and the observers were identified as sources of uncertainty of phenological observational data. It was concluded that 99% of all phenological observations at a certain site will vary within approximately 24 days around the parametric mean. This supports to the proposed 30-day rule to detect outliers. New phenology models that predict local BB from daily temperature time series were developed. These models were based on simple interactions between inhibitory and promotory agents that are assumed to control the developmental status of a plant. Apart from the fact that, in general, the new models fitted and predicted the observations better than classical models, the main modeling results were: - The bias of the classical models, i.e. overestimation of early observations and underestimation of late observations, could be reduced but not completely removed. - The different favored model structures for each species indicated that for the late spring phases photoperiod played a more dominant role than for early spring phases. - Chilling only plays a subordinate role for spring BB compared to temperatures directly preceding BB. KW - Phänologie KW - kombinierte Zeitreihen KW - Physiologie-basierte Modelle KW - Unsicherheit KW - Variabilität KW - Ausreisser KW - Trends KW - Naturräume KW - Trendwendepunkte KW - Fag KW - phenology KW - combined time series KW - physiology-based models KW - uncertainty KW - variability KW - outliers KW - trends KW - Natural Regions KW - trend turning points KW - Fagus syl Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000532 ER - TY - THES A1 - Gschwendt, Miriam A. T1 - Early manifestations of aggression in infants of high risk mother-infant dyads N2 - Ziel dieser Untersuchung war es frühe Risikofaktoren von aggressivem Verhalten bei Kleinkindern in einer Stichprobe von Teenager-Müttern und ihren Babys aus sozial schwachen Verhältnissen (high risk sample) zu identifizieren. In den zurückliegenden zwei Jahrzehnten haben Wissenschaftler immer wieder auf die Bedeutung von Strategien hingewiesen, die es ermöglichen, Kinder und Babys mit einem Risiko für aggresives Verhalten zu identifiezieren. Eine frühe Identifizierung ist besonders wichtig, weil schon Babys und Kinder eine signifikante Psychopathologie besitzen können und u. U. von einer Behandlung profitieren. Außerdem postulieren einige Entwicklungstheorien, dass der Ursprung einer späteren Psychopathologie schon in Verhaltensmustern in den ersten Lebensjahren erkannt werden kann. Dies scheint insbesondere für aggressives Verhalten zu gelten. Deshalb besteht grosses Interesse daran, relevante Faktoren in der frühen Kindheit zu identifizieren, die es erlauben aggressives Verhalten im weiteren Verlauf der Kindheit vorauszusagen. Methodik 60 Teenager-Mütter im Alter zwischen 14 und 20 Jahre und ihre Kleinkinder im Alter zwischen 12 und 17 Monaten aus sozial schwachen Verhältnissen wurden untersucht (high risk sample). Die Teenager-Mütter füllten Fragebögen über ihre Kleinkinder (The Infant-Toddler Social and Emotional Assessment [ITSEA], Carter & Briggs-Gowan, 1993) und über sich selber aus (The Parenting Stress Index [PSI], Abidin, 1990, The Symptom CheckList-90-Revised [SCL-90-R], Derogatis, 1986, The Demographic Qüstionnaire, Zelenko et al., in press). Die Kleinkinder nahmen weiters an zwei objektiven Laboruntersuchungen teil (The Strange Situation Procedure, [SS], Ainsworth, 1978, The Bayley Scales of Infant Development Assessment, [BSID-II], Bayley, 1993). Die Studie untersuchte folgende Beziehungen: (1) Psychosoziale Funktionen der Mutter mit berichteter (berichet von Mutter anhand des ITSEA) und beobachteter Aggression und negativer Emotionalität bei Kleinkindern (beobachtet während des BSID-II und SS), (2) berichtete Aggression und negative Emotionalität mit beobachteter Aggression und negative Emotionalität bei Kleinkindern, (3) negative Emotionalität mit Aggression bei Kleinkindern, (4) Emotionsregulation mit Aggression und negativer Emotionalität bei Kleinkindern, und (5) eine mögliche Interaktion zwischen Emotionsregulation und negativer Emotionalität in Beziehung zu Aggression bei Kleinkindern. Zusätzlich wurde die Frage untersucht, ob Geschlecht einen Einfluss hat auf die oben genannten fünf Beziehungen. Ergebnisse Mütter mit höheren Depressionenswerten und Stresswerten berichteten signifikant mehr negative Emotionalität und tendenziell mehr Aggressionen bei ihren Kleinkindern als Mütter mit niedrigeren Depressionswerten und Stresswerten. Keine signifikanten Beziehungen konnten festgestellt werden zwischen Depressionswerten und Stresswerten der Mutter und objektiv beobachteten Aggressionen und negativer Emotionalität bei Kleinkindern. Die Beziehung zwischen beobachteter und berichteter negativer Emotionalität bei Kleinkindern war schwach signifikant. Keine signifikante Beziehung konnte jedoch zwischen beobachteter und berichteter Aggression bei Kleinkindern gezeigt werden. Sowohl berichtete als auch beobachtete negative Emotionalität korrelierte signifikant mit berichteter und beobachteter Aggression bei Kleinkindern. Eine signifikante Beziehung zwischen Emotionsregulation und negativer Emotionalität und Aggression bei Kleinkindern konnte aufgezeigt werden. Kleinkinder mit schwacher Emotionsregulation zeigten signifikant mehr negative Emotionalität und Aggressionen als Kleinkinder mit starker Emotionsregulation. Kleinkinder mit hohen negativen Emotionswerten und schwacher Emotionsregulation zeigten signifikant mehr Aggressionen als Kleinkinder mit hohen negativen Emotionswerten und starker Emotionsregulation und Kleinkindern mit niedrigen negativen Emotionswerten und schwacher oder starker Emotionsregulation. Das Geschlecht des Kleinkindes hatte einen signifikanten Einfluss auf folgende Beziehungen: Mütter mit höheren Depressionswerten und Stresswerten berichteten signifikant mehr Aggressionen und negative Emotionalität bei ihren Töchtern, jedoch nicht signifikant mehr Aggressionen und negative Emotionalität bei ihren Söhnen als Mütter mit niedrigeren Depressionswerten und Stresswerten. Das Geschlecht des Kleinkindes hatte keinen signifikanten Einfluss auf die Beziehung zwischen Depressionswerten und Stresswerten der Mutter und beobachteter Aggression und negativer Emotionalität bei Kleinkindern. Ein interessantes Ergebnis ergab sich hinsichtlich Geschlecht und Emotionsregulationsverhaltensweisen. Buben mit höheren Aggressionswerten schauten signifikant weniger zu ihrer Mutter und signifikant weniger in die Umgebung als Buben mit niedrigeren Aggressionswerten. Mädchen mit höheren Aggressionswerten schauten signifikant mehr zu ihrer Mutter, signifikant mehr in die Umgebung und signifikant mehr auf Spielzeuge als Mädchen mit niedrigen Aggressionswerten. Schlussfolgerung Die Ergebnisse der Untersuchung haben Implikationen für die Einschätzung und die Behandlung von Aggressionen bei Kleinkindern. Erstens, die Ergebnisse weisen darauf hin, dass es unter Umständen wichtig sein könnte verschiedene Messverfahren (Mutter Report und objektive Messverfahren) zu verwenden, um Kleinkinder zu diagnostizieren, die ein erhöhtes Risiko aufweisen im Laufe ihres Lebens Aggressionen zu entwickeln. Zweitens, Ergebnisse identifizierten mütterliche negative Attributionen als einen möglichen Risikofaktor für späteres Aggressionsverhalten bei Kindern. Zukünftige Studien sollten die Beziehung zwischen Aggressionsverhalten im Kleinkindalter und Aggressionen im späteren Leben untersuchen. Ein weiteres interessantes Ergebnis ergab sich hinsichtlich Emotionsregulation. Kleinkinder mit hoher negativer Emotionalität und schwacher Emotionsregualtion zeigten die meisten Aggressionen. Für die Behandlung und die zukünftige Erforschung von Kleinkindaggressionen sollten die drei Konstrukte (Emotionsregualtion, negative Emotionalität und Aggression) miteinander kombiniert werden und nicht alleine untersucht werden. N2 - The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time. KW - Junge Mutter / Kind / Aggressivität / Risikoverhalten KW - Aggression KW - Emotionsregulation KW - Negative Emotionalität KW - Kleinkinder KW - Mutter-Kind Interaktion KW - Depression KW - Aggression KW - Emotion Regulation KW - Negative Emotionality KW - Infants KW - Mother-Child Interaction KW - Depression Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000528 ER - TY - THES A1 - Imperia, Paolo T1 - Localised states in organic semiconductors and their detection N2 - In den letzten Jahren ist eine Vielzahl neuer organischer Polymere und niedermolekularer Verbindungen synthetisiert worden, die sich als aktive Komponente für Elektrolumineszenz-Bauelemente und andere elektronische Anwendungen eignen. Trotz der großen technologischen Bedeutung und des erheblichen Fortschrittes, der bei der Herstellung solcher Materialien erzielt worden ist, sind grundlegende physikalische Eigenschaften dieser Materialklassen noch nicht ausreichend erforscht. Insbesondere das Auftreten lokalisierter Zustände innerhalb der Bandlücke hat besondere Bedeutung für ihre elektronischen Eigenschaften. Sowohl die Präsenz dieser flachen traps (Fallen, Löcher) als auch der Einfluß der Herstellungsbedingungen auf die tiefen und flachen lokalisierten Zustände wurden bisher nicht systematisch untersucht. Thermische Techniken sind wichtige Methoden, um lokalisierte Niveaus in organischen und anorganischen Materialien zu erforschen. Themisch-Stimulierte Lumineszenz (TSL), Thermisch-Stimulierte Ströme (TSC) und Thermisch-Stimulierte Depolarisierte Ströme (TSDC) ermöglichen die Untersuchung flacher und tiefer traps; in Verbindung mit DiElektrischer Spektroskopie (DES) können außerdem Polarisations- und Depolarisationseffekte studiert werden. Mit Hilfe numerischer Simulationen haben wir die kinetischen Gleichungen erster und zweiter Ordnung untersucht, die sich durch schwaches bzw. starkes Wieder-Fangen beschreiben lassen. In diesen Gleichungen haben wir Gaussian-, exponentielle und quasi-kontinuierliche Verteilungen von lokalisierten Zustände berücksichtigt. Durch Veränderung der beiden wichtigsten Parameter (Tiefe der traps E und Häufigkeit) konnte die Form der thermischen Maxima untersucht werden. Auch die die Gaussian-Verteilung bestimmenden Faktoren wurden verändert. Diese theoretischen Ergebnisse wurden auf die experimentellen Glow-Kurven angewandt. Dünne Filme aus polymeren und niedermolekularen Verbindungen (Polyphenylquinoxaline, Trisphenylquinoxaline und Oxadiazole), die wegen ihrer technologischen Bedeutung ausgewählt wurden, zeigen komplexes thermisches Verhalten. Insbesondere hoch geordnete Filme eines amphiphil substituierten 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazols (NADPO) zeichnen sich durch komplexe TSL-Diagramme aus. Im Bereich von Em = 4 meV wurde eine Region flacher traps gefunden. Zwei weitere TSL-Maxima treten bei Tm = 221.5 K bzw. Tm = 254.2 K auf. Sie besitzen Aktivierungsenergien von Em= 0.63 eV bzw. Em = 0.66 eV, ihre Frequenzfaktoren betragen s = 2.4x1012 s-1 bzw. s = 1.85x1011 s-1, sie zeigen Breiten der Verteilung von s = 0.045 eV bzw. s = 0.088 eV. Des weiteren zeigt diese Arbeit, daß die Form der Glow-Kurven stark von der Anregungstemperatur und vom thermischen Kreislauf beeinflußt wird. N2 - New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered. KW - Themisch-Stimulierte Lumineszenz KW - TSL KW - Verteilungen von lokalisierten Zustände KW - Thermally stimulated luminescence KW - TSL KW - distributions of localised states Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000477 ER - TY - THES A1 - Memola, Elisabetta T1 - Magnetic jets from accretion disks : field structure and X-ray emission N2 - Astrophysikalische Jets sind stark kollimierte Materieströmungen hoher Geschwindigkeit. Sie stehen im Zusammenhang mit einer Fülle verschiedener astrophysikalischer Objekte wie jungen Sternen, stellaren schwarzen Löchern ('Mikro-Quasare'), Galaxien mit aktivem Kern (AGN) und wahrscheinlich auch mit dem beobachteten intensiven Aufblitzen von Gamma-Strahlung (Gamma Ray Bursts). Insbesondere hat sich gezeigt, dass die Jets der Mikro-Quasare wahrscheinlich als kleinskalige Version der Jets der AGN anzusehen sind. Neben den Beobachtungen haben vor allem auch theoretische Überlegungen gezeigt, dass Magnetfelder bei der Jetentstehung, -beschleunigung und -kollimation eine wichtige Rolle spielen. Weiterhin scheinen Jets systematisch verknüpft zu sein mit dem Vorhandensein einer Akkretionsscheibe um das zentrale Objekt. Insbesondere wenn ein schwarzes Loch den Zentralkörper darstellt, ist die umgebende Akkretionsscheibe der einzig mögliche Ort um Magnetfeld erzeugen zu können. Wir sind speziell interessiert am Entstehungsprozess hoch relativistischer Jets wie sie bei Mikro-Quasaren und AGN beobachtet werden. Insbesondere untersuchen wir die Region, in der der Jet kollimiert, eine Region, deren räumliche Ausdehnung extrem klein ist selbst im Vergleich zur Auflösung der Radioteleskope. Dies ist ein Grund, wieso zum heutigen Zeitpunkt für die meisten Quellen die theoretische Modellierung die einzige Möglichkeit darstellt, um Information über die physikalischen Prozesse in der innersten Region der Jetentstehung zu erhalten. Uns ist es zum ersten Mal gelungen, die globale zwei-dimensionale Magnetfeldstruktur stationärer, axialsymmetrischer, relativistischer und stark magnetisierter (kräfte-freier) Jets zu berechnen, die zum einen asymptotisch in einen zylindrischen Jet kollimieren, zum anderen aber in einer differential rotierenden Akkretionsscheibe verankert sind. Damit erlaubt dieser Ansatz eine physikalische Verkn¨upfung zwischen Akkretionsscheibe und dem asymptotischen Jet. Nimmt man also an, dass die Fußpunkte der Magnetfeldlinien mit Keplergeschwindigkeit rotieren, so kann man eine direkte Skalierung der Jetmagnetosphere mit der Größe des Zentralobjektes erhalten. Unsere Resultate zeigen eine gute Übereinstimmung zwischen unserem Modell und Beobachtungen des Jets von M87. Für das Beispiel eines relativistischen Mikroquasarjets haben wir die Röntgenemission im Bereich von 0.2-10.1 keV berechnet. Dafür haben wir in der Literatur aus den relativistischen magnetohydrodynamischen Gleichungen berechnete Jetgrößen (Dichte-, Geschwindigkeits-, und Temperaturprofil) verwendet und das Spektrum für jeden Punkt entlang der Jetströmung abgeleitet. Das theoretische thermische Röntgenspektrum des innersten, heißen Teils des Jets erhalten wir zusammengesetzt aus den spektralen Anteilen der einzelnen Volumenelemente entlang des Jets. Um relativistische Effekte wie Dopplerverschiebung und -verstärkung (boosting) aufgrund der Jetbewegung zu untersuchen, haben wir für verschiedene Inklinationswinkel des Jets zur Sichtlinie berechnet, wie die erhaltenen Spektren davon beeinflusst werden. Unsere Spektren zeigen deutlich die hochionisierten Eisen-Emissionslinien, die in den galaktischen Mikroquasaren GRS 1915+105 und XTE J1748-288 andeutungsweise beobachtet wurden. Eine Dopplerverschiebung dieser Linien ist in unseren Spektren deutlichzu sehen. Da die innerste, Röntgenstrahlung emittierende Region des magnetohydrodynamischen Jets allerdings noch unkollimiert ist, spielt Dopplerboosting in unseren Spektren, abhängig vom Sichtwinkel, keine große Rolle. Mit unseren Resultaten konnte zum ersten Mal ein Röntgenspektrum gewonnen werden, das auf der numerischen Lösung eines magnetohydrodynamischen Jets beruht. N2 - Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet. KW - MHD ; Röntgenstrahlung ; Jets ; AGN ; Mikro-Quasare KW - MHD ; X-rays ; Jets ; AGN ; Microquasars Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000458 ER - TY - THES A1 - Kraut, Suso T1 - Multistable systems under the influence of noise N2 - Nichtlineare multistabile Systeme unter dem Einfluss von Rauschen weisen vielschichtige dynamische Eigenschaften auf. Ein mittleres Rauschlevel zeitigt ein Springen zwischen den metastabilen Zustaenden. Dieser “attractor-hopping” Prozess ist gekennzeichnet durch laminare Bewegung in der Naehe von Attraktoren und erratische Bewegung, die sich auf chaotischen Satteln abspielt, welche in die fraktalen Einzugsgebietsgrenzen eingebettet sind. Er hat rauschinduziertes Chaos zur Folge. Bei der Untersuchung der dissipativen Standardabbildung wurde das Phaenomen der Praeferenz von Attraktoren durch die Wirkung des Rauschens gefunden. Dies bedeutet, dass einige Attraktoren eine groessere Wahrscheinlichkeit erhalten aufzutreten, als dies fuer das rauschfreie System der Fall waere. Bei einer bestimmten Rauschstaerke ist diese Bevorzugung maximal. Andere Attraktoren werden aufgrund des Rauschens weniger oft angelaufen. Bei einer entsprechend hohen Rauschstaerke werden sie komplett ausgeloescht. Die Komplexitaet des Sprungprozesses wird fuer das Modell zweier gekoppelter logistischer Abbildungen mit symbolischer Dynamik untersucht. Bei Variation eines Parameters steigt an einem bestimmten Wert des Parameters die topologische Entropie steil an, die neben der Shannon Entropie als Komplexitaetsmass verwendet wird. Dieser Anstieg wird auf eine neuartige Bifurkation von chaotischen Satteln zurueckgefuehrt, die in einem Verschmelzen zweier Sattel besteht und durch einen “Snap-back”-Repellor vermittelt wird. Skalierungsgesetze sowohl der Verweilzeit auf einem der zuvor getrennten Teile des Sattels als auch des Wachsens der fraktalen Dimension des entstandenen Sattels beschreiben diese neuartige Bifurkation genauer. Wenn ein chaotischer Sattel eingebettet in der offenen Umgebung eines Einzugsgebietes eines metastabilen Zustandes liegt, fuehrt das zu einer deutlichen Senkung der Schwelle des rauschinduzierten Tunnelns. Dies wird anhand der Ikeda-Abbildung, die ein Lasersystem mit einer zeitverzoegerden Interferenz beschreibt, demonstriert. Dieses Resultat wird unter Verwendung der Theorie der Quasipotentiale erzielt. Sowohl dieser Effekt, die Senkung der Schwelle für rauschinduziertes Tunneln aus einem metastabilen Zustand durch einen chaotischen Sattel, als auch die beiden Skalierungsgesteze sind von experimenteller Relevanz. N2 - Nonlinear multistable systems under the influence of noise exhibit a plethora of interesting dynamical properties. A medium noise level causes hopping between the metastable states. This attractorhopping process is characterized through laminar motion in the vicinity of the attractors and erratic motion taking place on chaotic saddles, which are embedded in the fractal basin boundary. This leads to noise-induced chaos. The investigation of the dissipative standard map showed the phenomenon of preference of attractors through the noise. It means, that some attractors get a larger probability of occurrence than in the noisefree system. For a certain noise level this prefernce achieves a maximum. Other attractors are occur less often. For sufficiently high noise they are completely extinguished. The complexity of the hopping process is examined for a model of two coupled logistic maps employing symbolic dynamics. With the variation of a parameter the topological entropy, which is used together with the Shannon entropy as a measure of complexity, rises sharply at a certain value. This increase is explained by a novel saddle merging bifurcation, which is mediated by a snapback repellor. Scaling laws of the average time spend on one of the formerly disconnected parts and of the fractal dimension of the connected saddle describe this bifurcation in more detail. If a chaotic saddle is embedded in the open neighborhood of the basin of attraction of a metastable state, the required escape energy is lowered. This enhancement of noise-induced escape is demonstrated for the Ikeda map, which models a laser system with time-delayed feedback. The result is gained using the theory of quasipotentials. This effect, as well as the two scaling laws for the saddle merging bifurcation, are of experimental relevance. KW - Multistabilität KW - Rauschen KW - Nichtlineare Systeme KW - Chaotische Sattel KW - Multistability KW - noise KW - nonlinear systems KW - chaotic saddle Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000424 ER - TY - THES A1 - Rätsch, Gunnar T1 - Robust boosting via convex optimization N2 - In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. Die Arbeit behandelt folgende Sachverhalte: o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt. o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben. o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen. o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben. o Ist Boosting praktisch anwendbar? Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert. N2 - In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002. KW - Boosting KW - Klassifikation mit großem Margin KW - Support-Vector Lernen KW - Regression KW - Regularisierung KW - Mathematische Optimierung KW - Stromverbrauchüberwachung KW - Boosting KW - Large Margin Classification KW - Support Vectors KW - Regression KW - Regularization KW - Mathematical Optimization KW - Power Monitoring KW - Time Series Analysis Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000399 ER - TY - THES A1 - Topaj, Dmitri T1 - Synchronization transitions in complex systems N2 - Gegenstand dieser Arbeit ist die Untersuchung generischer Synchronisierungsphänomene in interagierenden komplexen Systemen. Diese Phänomene werden u.a. in gekoppelten deterministischen chaotischen Systemen beobachtet. Bei sehr schwachen Interaktionen zwischen individuellen Systemen kann ein Übergang zum schwach kohärenten Verhalten der Systeme stattfinden. In gekoppelten zeitkontinuierlichen chaotischen Systemen manifestiert sich dieser Übergang durch den Effekt der Phasensynchronisierung, in gekoppelten chaotischen zeitdiskreten Systemen durch den Effekt eines nichtverschwindenden makroskopischen Feldes. Der Übergang zur Kohärenz in einer Kette lokal gekoppelter Oszillatoren, beschrieben durch Phasengleichungen, wird im Bezug auf die Symmetrien des Systems untersucht. Es wird gezeigt, daß die durch die Symmetrien verursachte Reversibilität des Systems nichttriviale topologische Eigenschaften der Trajektorien bedingt, so daß das als dissipativ konstruierte System in einem ganzen Parameterbereich quasi-Hamiltonische Züge aufweist, d.h. das Phasenvolumen ist im Schnitt erhalten, und die Lyapunov-Exponenten sind paarweise symmetrisch. Der Übergang zur Kohärenz in einem Ensemble global gekoppelter chaotischer Abbildungen wird durch den Verlust der Stabilität des entkoppelten Zustandes beschrieben. Die entwickelte Methode besteht darin, die Selbstkonsistenz des makroskopischen Feldes aufzuheben, und das Ensemble in Analogie mit einem Verstärkerschaltkreis mit Rückkopplung durch eine komplexe lineare Übertragungssfunktion zu charakterisieren. Diese Theorie wird anschließend für einige theoretisch interessanten Fälle verallgemeinert. N2 - Subject of this work is the investigation of generic synchronization phenomena in interacting complex systems. These phenomena are observed, among all, in coupled deterministic chaotic systems. At very weak interactions between individual systems a transition to a weakly coherent behavior of the systems can take place. In coupled continuous time chaotic systems this transition manifests itself with the effect of phase synchronization, in coupled chaotic discrete time systems with the effect of non-vanishing macroscopic mean field. Transition to coherence in a chain of locally coupled oscillators described with phase equations is investigated with respect to the symmetries in the system. It is shown that the reversibility of the system caused by these symmetries results to non-trivial topological properties of trajectories so that the system constructed to be dissipative reveals in a whole parameter range quasi-Hamiltonian features, i.e. the phase volume is conserved on average and Lyapunov exponents come in symmetric pairs. Transition to coherence in an ensemble of globally coupled chaotic maps is described with the loss of stability of the disordered state. The method is to break the self-consistensy of the macroscopic field and to characterize the ensemble in analogy to an amplifier circuit with feedback with a complex linear transfer function. This theory is then generalized for several cases of theoretic interest. KW - Synchronisierung KW - komplex KW - System KW - komplexe Systeme KW - gekoppelt KW - chaotisch KW - Chaos KW - Interaktion KW - Übergang KW - P hasensynchronisierung KW - Phase KW - Feld KW - Effekt KW - synchronization KW - complex KW - system KW - complex systems KW - coupled KW - chaotic KW - chaos KW - interaction KW - transition KW - phase KW - phase synchronization KW - field KW - meanfield KW - o Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000367 ER - TY - THES A1 - Ahlers, Volker T1 - Scaling and synchronization in deterministic and stochastic nonlinear dynamical systems N2 - Gegenstand dieser Arbeit ist die Untersuchung universeller Skalengesetze, die in gekoppelten chaotischen Systemen beobachtet werden. Ergebnisse werden erzielt durch das Ersetzen der chaotischen Fluktuationen in der Störungsdynamik durch stochastische Prozesse. Zunächst wird ein zeitkontinuierliches stochastisches Modell fürschwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke (coupling sensitivity of chaos) zu untersuchen. Mit Hilfe der Fokker-Planck-Gleichung werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird der neuartige Effekt der vermiedenen Kreuzung von Lyapunov-Exponenten schwach gekoppelter ungeordneter chaotischer Systeme beschrieben, der qualitativ der Abstoßung zwischen Energieniveaus in Quantensystemen ähnelt. Unter Benutzung der für die coupling sensitivity of chaos gewonnenen Skalengesetze wird ein asymptotischer Ausdruck für die Verteilungsfunktion kleiner Abstände zwischen Lyapunov-Exponenten hergeleitet und mit Ergebnissen numerischer Simulationen verglichen. Schließlich wird gezeigt, dass der Synchronisationsübergang in starkgekoppelten räumlich ausgedehnten chaotischen Systemen einem kontinuierlichen Phasenübergang entspricht, mit der Kopplungsstärke und dem Synchronisationsfehler als Kontroll- beziehungsweise Ordnungsparameter. Unter Benutzung von Ergebnissen numerischer Simulationen sowie theoretischen Überlegungen anhand einer partiellen Differentialgleichung mit multiplikativem Rauschen werden die Universalitätsklassen der zwei beobachteten Übergangsarten bestimmt (Kardar-Parisi-Zhang-Gleichung mit Sättigungsterm, gerichtete Perkolation). N2 - Subject of this work is the investigation of universal scaling laws which are observed in coupled chaotic systems. Progress is made by replacing the chaotic fluctuations in the perturbation dynamics by stochastic processes. First, a continuous-time stochastic model for weakly coupled chaotic systems is introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck equation scaling relations are derived, which are confirmed by results of numerical simulations. Next, the new effect of avoided crossing of Lyapunov exponents of weakly coupled disordered chaotic systems is described, which is qualitatively similar to the energy level repulsion in quantum systems. Using the scaling relations obtained for the coupling sensitivity of chaos, an asymptotic expression for the distribution function of small spacings between Lyapunov exponents is derived and compared with results of numerical simulations. Finally, the synchronization transition in strongly coupled spatially extended chaotic systems is shown to resemble a continuous phase transition, with the coupling strength and the synchronization error as control and order parameter, respectively. Using results of numerical simulations and theoretical considerations in terms of a multiplicative noise partial differential equation, the universality classes of the observed two types of transition are determined (Kardar-Parisi-Zhang equation with saturating term, directed percolation). KW - Nichtlineare Dynamik KW - Chaostheorie KW - Stochastische Prozesse KW - Synchronisation KW - nonlinear dynamics KW - chaos KW - stochastic processes KW - synchronization Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000320 ER - TY - THES A1 - Ohrnberger, Matthias T1 - Continuous automatic classification of seismic signals of volcanic origin at Mt. Merapi, Java, Indonesia N2 - Aufgrund seiner nahezu kontinuierlichen eruptiven Aktivität zählt der Merapi zu den gefährlichsten Vulkanen der Welt. Der Merapi befindet sich im Zentralteil der dicht bevölkerten Insel Java (Indonesien). Selbst kleinere Ausbrüche des Merapi stellen deswegen eine große Gefahr für die ansässige Bevölkerung in der Umgebung des Vulkans dar. Die am Merapi beobachtete enge Korrelation zwischen seismischer und vulkanischer Aktivität erlaubt es, mit Hilfe der Überwachung der seismischen Aktivität Veränderungen des Aktivitätszustandes des Merapi zu erkennen. Ein System zur automatischen Detektion und Klassifizierung seismischer Ereignisse liefert einen wichtigen Beitrag für die schnelle Analyse der seismischen Aktivität. Im Falle eines bevorstehenden Ausbruchszyklus bedeutet dies ein wichtiges Hilfsmittel für die vor Ort ansässigen Wissenschaftler. In der vorliegenden Arbeit wird ein Mustererkennungsverfahren verwendet, um die Detektion und Klassifizierung seismischer Signale vulkanischen Urprunges aus den kontinuierlich aufgezeichneten Daten in Echtzeit zu bewerkstelligen. Der hier verwendete A nsatz der hidden Markov Modelle (HMM) wird motiviert durch die große Ähnlichkeit von seismischen Signalen vulkanischen Ursprunges und Sprachaufzeichnungen und den großen Erfolg, den HMM-basierte Erkennungssysteme in der automatischen Spracherkennung erlangt haben. Für eine erfolgreiche Implementierung eines Mustererkennungssytems ist es notwendig, eine geeignete Parametrisierung der Rohdaten vorzunehmen. Basierend auf den Erfahrungswerten seismologischer Observatorien wird ein Vorgehen zur Parametrisierung des seismischen Wellenfeldes auf Grundlage von robusten Analyseverfahren vorgeschlagen. Die Wellenfeldparameter werden pro Zeitschritt in einen reell-wertigen Mustervektor zusammengefasst. Die aus diesen Mustervektoren gebildete Zeitreihe ist dann Gegenstand des HMM-basierten Erkennungssystems. Um diskrete hidden Markov Modelle (DHMM) verwenden zu können, werden die Mustervektoren durch eine lineare Transformation und nachgeschaltete Vektor Quantisierung in eine diskrete Symbolsequenz überführt. Als Klassifikator kommt eine Maximum-Likelihood Testfunktion zwischen dieser Sequenz und den, in einem überwachten Lernverfahren trainierten, DHMMs zum Einsatz. Die am Merapi kontinuierlich aufgezeichneten seismischen Daten im Zeitraum vom 01.07. und 05.07.1998 sind besonders für einen Test dieses Klassifikationssystems geeignet. In dieser Zeit zeigte der Merapi einen rapiden Anstieg der Seismizität kurz bevor dem Auftreten zweier Eruptionen am 10.07. und 19.07.1998. Drei der bekannten, vom Vulkanologischen Dienst in Indonesien beschriebenen, seimischen Signalklassen konnten in diesem Zeitraum beobachtet werden. Es handelt sich hierbei um flache vulkanisch-tektonische Beben (VTB, h < 2.5 km), um sogenannte MP-Ereignisse, die in direktem Zusammenhang mit dem Wachstum des aktiven Lavadoms gebracht werden, und um seismische Ereignisse, die durch Gesteinslawinen erzeugt werden (lokaler Name: Guguran). Die spezielle Geometrie des digitalen seismischen Netzwerkes am Merapi besteht aus einer Kombination von drei Mini-Arrays an den Flanken des Merapi. Für die Parametrisierung des Wellenfeldes werden deswegen seismische Array-Verfahren eingesetzt. Die individuellen Wellenfeld Parameter wurden hinsichtlich ihrer Relevanz für den Klassifikationsprozess detailliert analysiert. Für jede der drei Signalklassen wurde ein Satz von DHMMs trainiert. Zusätzlich wurden als Ausschlussklassen noch zwei Gruppen von Noise-Modellen unterschieden. Insgesamt konnte mit diesem Ansatz eine Erkennungsrate von 67 % erreicht werden. Im Mittel erzeugte das automatische Klassifizierungssystem 41 Fehlalarme pro Tag und Klasse. Die Güte der Klassifikationsergebnisse zeigt starke Variationen zwischen den individuellen Signalklassen. Flache vulkanisch-tektonische Beben (VTB) zeigen sehr ausgeprägte Wellenfeldeigenschaften und, zumindest im untersuchten Zeitraum, sehr stabile Zeitmuster der individuellen Wellenfeldparameter. Das DHMM-basierte Klassifizierungssystem erlaubte für diesen Ereignistyp nahezu 89% richtige Entscheidungen und erzeugte im Mittel 2 Fehlalarme pro Tag. Ereignisse der Klassen MP und Guguran sind mit dem automatischen System schwieriger zu erkennen. 64% aller MP-Ereignisse und 74% aller Guguran-Ereignisse wurden korrekt erkannt. Im Mittel kam es bei MP-Ereignissen zu 87 Fehlalarmen und bei Guguran Ereignissen zu 33 Fehlalarmen pro Tag. Eine Vielzahl der Fehlalarme und nicht detektierten Ereignisse entstehen jedoch durch eine Verwechslung dieser beiden Signalklassen im automatischen Erkennnungsprozess. Dieses Ergebnis konnte aufgrund der ähnlichen Wellenfeldeigenschaften beider Signalklassen erklärt werden, deren Ursache vermutlich in den bekannt starken Einflüssen des Mediums entlang des Wellenausbreitungsweges in vulkanischen Gebieten liegen. Insgesamt ist die Erkennungsleistung des entwickelten automatischen Klassifizierungssystems als sehr vielversprechend einzustufen. Im Gegensatz zu Standardverfahren, bei denen in der Seismologie üblicherweise nur der Startzeitpunkt eines seismischen Ereignisses detektiert wird, werden in dem untersuchten Verfahren seismische Ereignisse in ihrer Gesamtheit erfasst und zudem im selben Schritt bereits klassifiziert. N2 - Merapi volcano is one of the most active and dangerous volcanoes of the earth. Located in central part of Java island (Indonesia), even a moderate eruption of Merapi poses a high risk to the highly populated area. Due to the close relationship between the volcanic unrest and the occurrence of seismic events at Mt. Merapi, the monitoring of Merapi's seismicity plays an important role for recognizing major changes in the volcanic activity. An automatic seismic event detection and classification system, which is capable to characterize the actual seismic activity in near real-time, is an important tool which allows the scientists in charge to take immediate decisions during a volcanic crisis. In order to accomplish the task of detecting and classifying volcano-seismic signals automatically in the continuous data streams, a pattern recognition approach has been used. It is based on the method of hidden Markov models (HMM), a technique, which has proven to provide high recognition rates at high confidence levels in classification tasks of similar complexity (e.g. speech recognition). Any pattern recognition system relies on the appropriate representation of the input data in order to allow a reasonable class-decision by means of a mathematical test function. Based on the experiences from seismological observatory practice, a parametrization scheme of the seismic waveform data is derived using robust seismological analysis techniques. The wavefield parameters are summarized into a real-valued feature vector per time step. The time series of this feature vector build the basis for the HMM-based classification system. In order to make use of discrete hidden Markov (DHMM) techniques, the feature vectors are further processed by applying a de-correlating and prewhitening transformation and additional vector quantization. The seismic wavefield is finally represented as a discrete symbol sequence with a finite alphabet. This sequence is subject to a maximum likelihood test against the discrete hidden Markov models, learned from a representative set of training sequences for each seismic event type of interest. A time period from July, 1st to July, 5th, 1998 of rapidly increasing seismic activity prior to the eruptive cycle between July, 10th and July, 19th, 1998 at Merapi volcano is selected for evaluating the performance of this classification approach. Three distinct types of seismic events according to the established classification scheme of the Volcanological Survey of Indonesia (VSI) have been observed during this time period. Shallow volcano-tectonic events VTB (h < 2.5 km), very shallow dome-growth related seismic events MP (h < 1 km) and seismic signals connected to rockfall activity originating from the active lava dome, termed Guguran. The special configuration of the digital seismic station network at Merapi volcano, a combination of small-aperture array deployments surrounding Merapi's summit region, allows the use of array methods to parametrize the continuously recorded seismic wavefield. The individual signal parameters are analyzed to determine their relevance for the discrimination of seismic event classes. For each of the three observed event types a set of DHMMs has been trained using a selected set of seismic events with varying signal to noise ratios and signal durations. Additionally, two sets of discrete hidden Markov models have been derived for the seismic noise, incorporating the fact, that the wavefield properties of the ambient vibrations differ considerably during working hours and night time. A total recognition accuracy of 67% is obtained. The mean false alarm (FA) rate can be given by 41 FA/class/day. However, variations in the recognition capabilities for the individual seismic event classes are significant. Shallow volcano-tectonic signals (VTB) show very distinct wavefield properties and (at least in the selected time period) a stable time pattern of wavefield attributes. The DHMM-based classification performs therefore best for VTB-type events, with almost 89% recognition accuracy and 2 FA/day. Seismic signals of the MP- and Guguran-classes are more difficult to detect and classify. Around 64% of MP-events and 74% of Guguran signals are recognized correctly. The average false alarm rate for MP-events is 87 FA/day, whereas for Guguran signals 33 FA/day are obtained. However, the majority of missed events and false alarms for both MP and Guguran events are due to confusion errors between these two event classes in the recognition process. The confusion of MP and Guguran events is interpreted as being a consequence of the selected parametrization approach for the continuous seismic data streams. The observed patterns of the analyzed wavefield attributes for MP and Guguran events show a significant amount of similarity, thus providing not sufficient discriminative information for the numerical classification. The similarity of wavefield parameters obtained for seismic events of MP and Guguran type reflect the commonly observed dominance of path effects on the seismic wave propagation in volcanic environments. The recognition rates obtained for the five-day period of increasing seismicity show, that the presented DHMM-based automatic classification system is a promising approach for the difficult task of classifying volcano-seismic signals. Compared to standard signal detection algorithms, the most significant advantage of the discussed technique is, that the entire seismogram is detected and classified in a single step. KW - volcanic seismology KW - Merapi KW - monitoring KW - classification KW - pattern recognition KW - Hidden Markov Model (HMM) KW - Seismic Array Methods Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000028 ER - TY - THES A1 - Johann, Robert T1 - Thermodynamic, morphological and structural properties of dissociated fatty acid monolayers at the air-water interface N2 - Untersuchungen an Monoschichten amphiphiler Lipide auf wässriger Lösung sind in der Grenzflächenforschung von grundlegender Bedeutung. Aufgrund der Anwendbarkeit zahlreicher analytischer Methoden sind schwimmende unlösliche Monoschichten als Modellsysteme sehr geeignet, um Ordnung und Strukturbildung sowie den Transport von Materie in zwei Dimensionen oder die Wechselwirkung von Molekülen an der Grenzfläche mit Teilchen in Lösung (Stichwort “molekulare Erkennung”) zu studieren. Aus dem Verhalten von Monoschichten lassen sich z. B. Rückschlüsse ziehen auf die Eigenschaften von Lipidschichten auf festen Substraten oder in biologischen Membranen. Diese Arbeit befasst sich mit spezifischen und fundamentalen Wechselwirkungen in Monoschichten sowohl auf molekularer als auch auf mikroskopischer Ebene und deren Beziehung zu Gitterstruktur, Aussehen und thermodynamischem Verhalten von Monoschichten an der Wasser/Luft Grenzfläche. Als Modellsystem werden hauptsächlich Monoschichten langkettiger Fettsäuren verwendet, da in ihnen die molekularen Wechselwirkungen durch Änderung des Subphasen-pH-Werts über den Dissoziationsgrad gezielt und schrittweise verändert werden können. Ausser über die Subphasenzusammensetzung werden die molekularen Wechselwirkungen auch über die Temperatur und die Monoschichtzusammensetzung systematisch variiert. Mit Hilfe von Isothermen- und Oberflächenpotentialmessungen, Brewsterwinkel-Mikroskopie, Röntgenbeugung unter streifendem Einfall und polarisationsmodulierter Infrarot-Reflexions-Absorptions-Spektroskopie wird die Änderung der Monoschichteigenschaften als Funktion eines äusseren Parametern analysiert. Dabei werden aus den Röntgenbeugungsdaten quantitative Masse für die molekularen Wechselwirkungen und für die Kettenkonformationsordnung in Monoschichten abgeleitet. Zu den interessantesten Ergebnissen dieser Arbeit zählen die Aufklärung des Ursprungs von regelmässigen polygonalen und dendritischen Domänenformen, die vielfältige Wirkung von Cholesterin auf die Molekülpackung und Gitterordnung langkettiger Amphiphile, sowie die Entdeckung einer abrupten Änderung in den Kopfgruppenbindungswechselwirkungen, der Kettenkonformationsordnung und des Phasenübergangsdrucks zwischen geneigten Monoschichtphasen in Fettsäuremonoschichten nahe pH 9. Zur Deutung des letzten Punkts wird ein Modell für die Kopfgruppenbindungsstruktur von Fettsäuremonoschichten als Funktion des pH-Werts entwickelt. N2 - Research on monolayers of amphiphilic lipids on aqueous solution is of basic importance in surface science. Due to the applicability of a variety of surface sensitive techniques, floating insoluble monolayers are very suitable model systems for the study of order, structure formation and material transport in two dimensions or the interactions of molecules at the interface with ions or molecules in the bulk (headword 'molecular recognition'). From the behavior of monolayers conclusions can be drawn on the properties of lipid layers on solid substrates or in biological membranes. This work deals with specific and fundamental interactions in monolayers both on the molecular and on the microscopic scale and with their relation to the lattice structure, morphology and thermodynamic behavior of monolayers at the air-water interface. As model system especially monolayers of long chain fatty acids are used, since there the molecular interactions can be gradually adjusted by varying the degree of dissociation by means of the suphase pH value. For manipulating the molecular interactions besides the subphase composition also temperature and monolayer composition are systematically varied. The change in the monolayer properties as a function of an external parameter is analyzed by means of isotherm and surface potential measurements, Brewster-angle microscopy, X-ray diffraction at grazing incidence and polarization modulated infrared reflection absorption spectroscopy. For this a quantitative measure for the molecular interactions and for the chain conformational order is derived from the X-ray data. The most interesting results of this work are the elucidation of the origin of regular polygonal and dendritic domain shapes, the various effects of cholesterol on molecular packing and lattice order of long chain amphiphiles, as well as the detection of an abrupt change in the head group bonding interactions, the chain conformational order and the phase transition pressure between tilted phases in fatty acid monolayers near pH 9. For the interpretation of the latter point a model of the head group bonding structure in fatty acid monolayers as a function of the pH value is developed. KW - Wasseroberfläche KW - Fettsäuren KW - Monoschicht KW - Dissoziation KW - Thermodynamische Eigenschaft KW - Strukturbildung KW - Langmuir Monoschicht KW - Fettsäure KW - Cholesterin KW - Brewsterwinkel-Mikroskopie KW - GIXD KW - Oberflächenpotential KW - Isothermen KW - Linienspannung Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000050 ER - TY - THES A1 - Seuring, Markus T1 - Output space compaction for testing and concurrent checking N2 - In der Dissertation werden neue Entwurfsmethoden für Kompaktoren für die Ausgänge von digitalen Schaltungen beschrieben, die die Anzahl der zu testenden Ausgänge drastisch verkleinern und dabei die Testbarkeit der Schaltungen nur wenig oder gar nicht verschlechtern. Der erste Teil der Arbeit behandelt für kombinatorische Schaltungen Methoden, die die Struktur der Schaltungen beim Entwurf der Kompaktoren berücksichtigen. Verschiedene Algorithmen zur Analyse von Schaltungsstrukturen werden zum ersten Mal vorgestellt und untersucht. Die Komplexität der vorgestellten Verfahren zur Erzeugung von Kompaktoren ist linear bezüglich der Anzahl der Gatter in der Schaltung und ist damit auf sehr große Schaltungen anwendbar. Im zweiten Teil wird erstmals ein solches Verfahren für sequentielle Schaltkreise beschrieben. Dieses Verfahren baut im wesentlichen auf das erste auf. Der dritte Teil beschreibt eine Entwurfsmethode, die keine Informationen über die interne Struktur der Schaltung oder über das zugrundeliegende Fehlermodell benötigt. Der Entwurf basiert alleine auf einem vorgegebenen Satz von Testvektoren und die dazugehörenden Testantworten der fehlerfreien Schaltung. Ein nach diesem Verfahren erzeugter Kompaktor maskiert keinen der Fehler, die durch das Testen mit den vorgegebenen Vektoren an den Ausgängen der Schaltung beobachtbar sind. N2 - The objective of this thesis is to provide new space compaction techniques for testing or concurrent checking of digital circuits. In particular, the work focuses on the design of space compactors that achieve high compaction ratio and minimal loss of testability of the circuits. In the first part, the compactors are designed for combinational circuits based on the knowledge of the circuit structure. Several algorithms for analyzing circuit structures are introduced and discussed for the first time. The complexity of each design procedure is linear with respect to the number of gates of the circuit. Thus, the procedures are applicable to large circuits. In the second part, the first structural approach for output compaction for sequential circuits is introduced. Essentially, it enhances the first part. For the approach introduced in the third part it is assumed that the structure of the circuit and the underlying fault model are unknown. The space compaction approach requires only the knowledge of the fault-free test responses for a precomputed test set. The proposed compactor design guarantees zero-aliasing with respect to the precomputed test set. KW - digital circuit KW - output space compaction KW - zero-aliasing KW - test KW - concurrent checking KW - propagation probability KW - IP core Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000165 ER - TY - THES A1 - Breidenich, Markus T1 - Polymers at membranes N2 - Die Oberfläche biologischer Zellen besteht aus einer Lipidmembran und einer Vielzahl von Proteinen und Polymeren, die in die Membran eingebaut sind. Die Beeinflussung der Membran durch Polymere, die mit einem Ende an der Membran verankert sind, wird im Rahmen dieser Arbeit anhand eines vereinfachten biomimetischen Systems studiert. Der entropische Druck, den das Polymer durch Stöße auf die Membran ausübt, führt dazu, dass sich die Membran vom Polymer weg krümmt. Die resultierende Membranform ist ein Kegel in der Nähe des Ankers und ein Katenoid in grossem Abstand vom Ankerpunkt. Monte Carlo-Simulationen bestätigen die perturbativ berechneten Resultate. Bei Hinzunahme eines attraktiven Potentials zwischen Polymer und Membran verringert sich die ursprünglich vom Polymer induzierte Krümmung. Im Limes starker Adsorption, in welchem das Polymer ganz auf der Membranoberfläche lokalisiert ist, verschwindet der Polymerdruck und die durch diesen induzierte Krümmung der Membran. Falls das Polymer nicht direkt auf der Membranoberfläche verankert ist, sondern in endlichem Ankerabstand, biegt sich die Membran im adsorbierten Fall zum Polymer hin. Im letzten Teil der Arbeit werden nicht verankerte Polymere in Lösung betrachtet. Untersucht wird der Einfluss einer solchen Polymerlösung auf die Krümmung der Membran. Im Grenzfall einer rein sterischen, repulsiven Wechselwirkung zwischen Polymeren und Membran biegt sich diese, im Gegensatz zur verankerten Situation, zur Lösung hin. Bei zunehmender Attraktion biegt sich die Membran im Limes starker Adsorption der Polymere von der Lösung weg. N2 - The surface of biological cells consists of a lipid membrane and a large amount of various proteins and polymers, which are embedded in the membrane or attached to it. We investigate how membranes are influenced by polymers, which are anchored to the membrane by one end. The entropic pressure exerted by the polymer induces a curvature, which bends the membrane away from the polymer. The resulting membrane shape profile is a cone in the vicinity of the anchor segment and a catenoid far away from it. The perturbative calculations are confirmed by Monte-Carlo simulations. An additional attractive interaction between polymer and membrane reduces the entropically induced curvature. In the limit of strong adsorption, the polymer is localized directly on the membrane surface and does not induce any pressure, i.e. the membrane curvature vanishes. If the polymer is not anchored directly on the membrane surface, but in a non-vanishing anchoring distance, the membrane bends towards the polymer for strong adsorption. In the last part of the thesis, we study membranes under the influence of non-anchored polymers in solution. In the limit of pure steric interactions between the membrane and free polymers, the membrane curves towards the polymers (in contrast to the case of anchored polymers). In the limit of strong adsorption the membrane bends away from the polymers. KW - Polymere KW - Membranen KW - Biomembranen Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000284 ER - TY - THES A1 - Peitzker, Tania T1 - Dymphna Cusack (1902 - 1981) : a feminist analysis of gender in her romantic realistic texts N2 - Das Dissertationsprojekt befasst sich mit der australischen Autorin Dymphna Cusack, deren Popularität in Ost und West zwischen 1955 und 1975 ihren Höhepunkt erreichte. In diesem Zeitraum wurde sie nicht nur in den westlichen Industriestaaten, in Australien, England, Frankreich und Nord Amerika viel gelesen, sondern auch in China, Russland, der Deutschen Demokratischen Republik und in vielen Sowjetrepubliken. Im Verlauf ihres Schaffens wurde ihr grosse Anerkennung für ihren Beitrag zur australischen Literatur zuteil; sie erhielt die „Commonwealth Literary Pension“, die „Queen′s Silver Jubilee Medal“ und 1981 den „Award of her Majesty“. Trotz dieser Unterstützung durch den Staat in Australien und England äusserte Cusack immer wieder feministische, humanistisch-pazifistische, und anti-faschistisch bzw. pro-sowjetische Sozialkritik. Sie war auch für ihren starken Nationalismus bekannt, plädierte dafür, eine „einheimische“ Literatur und Kultur zu pflegen. Besonders das australische Bildungssystem war das Ziel ihrer Kritik, basierend auf ihren Erfahrungen als Lehrerin in städtischen und ländlichen Schulen, die sie ihrer Autobiographie beschrieb. 'Weder ihr Intellekt, noch ihre Seele oder ihre Körper wurden gefördert, um ganze Männer oder ganze Frauen aus ihnen zu machen. Besonders letztere wurden vernachlässigt. Mädchen wurden ermutigt, ihren Platz dort zu sehen, wo deutsche Mädchen ihn einst zu sehen hatten: bei Kindern, Küche, Kirche.' Cusack engagierte sich stark für Bildungsreformen, die das Versagen australischer Schulen, das erwünschte liberal-humanistische Subjekt zu herauszubilden, beheben sollten. Der liberale Humanismus der Nachkriegszeit schuf ein populäres Bedürfnis nach romantischem Realismus, den man in Cusacks Texten finden kann. Um verstehen zu können, wie Frauen sich zwischen „Realismus und Romanze“ verfingen, biete ich eine Dekonstruktion von Geschlecht innerhalb dieses „hybriden“ Genres an. Mittels feministischer Methodik können Einblicke in die konfliktvolle Subjektivität beider Geschlechter in verschiedenen historischen Perioden gewonnen werden: die Zeit zwischen den Kriegen, während des Pazifischen Krieges und den Weltkriegen, während des Kalten Krieges, zur Zeit der Aborigine-Bewegung, des Vietnamkrieges, sowie zu Beginn der zweiten feministischen Bewegung in den siebziger Jahren. Eine Rezeptionsanalyse des romantischen Realismus und der Diskurse, die diesen prägen, sind in Kapitel zwei und drei untersucht. Die Dekonstruktion von Weiblichkeit und eines weiblichen Subjekts ist in Kapitel vier unternommen, innerhalb einer Diskussion der Art und Weise, wie Cusacks romantischer Erzählstil mit dem sozialen Realismus interagiert. Nach der Forschung von Janice Radway, werden Cusacks Erzählungen in zwei Tabellen unterteilt: die Liebesgeschichte versagt, ist erfolgreich, eine Parodie oder Idealisierung (s. „Ideal and Failed Romances“; „Primary Love Story Succeeds or Fails“). Unter Einbeziehung von Judith Butlers philosophischem Ansatz in die Literaturkritik wird deutlich, dass diese Hybridisierung der Gattungen das fiktionale Subjekt davon abhält, ihr/sein Geschlecht „sinnvoll“ zu inszenieren. Wie das „reale Subjekt“, der Frau in der Gesellschaft, agiert die fiktionale Protagonistin in einer nicht intelligiblen Art und Weise aufgrund der multiplen Anforderungen an und den Einschränkungen für ihr Geschlecht. Demnach produziert die geschlechtliche Benennung des Subjektes eine Vielfalt von Geschlechtern: Cusacks Frauen und Männer sind geprägt von den unterschiedlichen und konfliktvollen Ansprüchen der dichotom gegenübergestellten Genres. Geschlecht, als biologisches und soziales Gebilde, wird danach undefinierbar durch seine komplexen und inkonsistenten Ausdrucksformen in einem romantisch-realistischen Text. Anders gesagt führt die populäre Kombination von Liebesroman und Realismus zu einer Überschreitung der Geschlechtsbinarität, die in beiden Genres vorausgesetzt wird. Weiterführend dient eine Betrachtung von Sexualität und Ethnie in Kapitel fünf einer differenzierteren Analyse humanistischer Repräsentationen von Geschlecht in der Nachkriegsliteratur. Die Notwendigkeit, diese Repräsentationen in der Populär- und in der Literatur des Kanons zu dekonstruieren, ist im letzten Kapitel dieser Dissertation weiter erläutert. N2 - In her lifetime, Dymphna Cusack continually launched social critiques on the basis of her feminism, humanism, pacificism and anti-fascist/pro-Soviet stance. Recalling her experi-ences teaching urban and country schoolchildren in A Window in the Dark, she was particularly scathing of the Australian education system. Cusack agitated for educational reforms in the belief that Australian schools had failed to cultivate the desired liberal humanist subject: 'Neither their minds, their souls, nor their bodies were developed to make the Whole Man or the Whole Woman - especially the latter. For girls were encouraged to regard their place as German girls once did: Kinder, Küche, Kirche - Children, Kitchen and Church.' I suggest that postwar liberal humanism, with its goals of equality among the sexes and self-realisation or 'becoming Whole', created a popular demand for the romantic realism found in Cusack′s texts. This twentieth century form of humanism, evident in new ideas of the subject found in psychoanalysis, Western economic theory and Modernism, informed each of the global lobbies for peace and freedom that followed the destruction of World War II. Liberal ideas of the individual in society became synonymous with the humanist representations of gender in much of postwar, realistic literature in English-speaking countries. The individual, a free agent whose aim was to 'improve the life of human beings', was usually given the masculine gender. He was shown to achieve self-realisation through a commitment to the development of “mankind”, either materially or spiritually. Significantly, the majority of Cusack′s texts diverge from this norm by portraying women as social agents of change and indeed, as the central protagonists. Although the humanist goal of self-realisation seems to be best adapted to social realism, the generic conventions of popular romance also have humanist precepts, as Catherine Belsey has argued. The Happy End is contrived through the heroine′s mental submission to her physical desire for the previously rejected or criticised lover. As Belsey has noted, desire might be considered a deconstructive force which momentarily prevents the harmonious, permanent unification of mind and body because the body, at the moment of seduction, does not act in accord with the mind. In popular romance, however, desire usually leads to a relationship or proper union of the protagonists. In Cusack′s words, the heroine and hero become “whole men and women” through the “realistic” love story. Thus romance, like realism, seeks to stabilise gender relations, even though female desire is temporarily disruptive in the narrative. In the end, women and men become fully realised characters according to the generic conventions of the love story or the consummation of potentially subversive desire. It stayed anxieties associated with women seeking independence and self-realisation rather than traditional romance which signalled a threat to existing gender relations. I proposed that an analysis of gender in Cusack′s fiction is warranted, since these apparently unified, humanist representations of romantic realism belie the conflicting aims and actions of the gendered subjects in this historical period. For instance, when we examine women′s lives immediately after the war, we can identify in both East and West efforts initiated by women and men to reconstruct private/public roles. In order to understand how women were caught between “realism and romance”, I plan to deconstruct gender within the paradigm of this hybrid genre. By adopting a femininist methodology, new insights may be gained into the conflictual subjectivity of both genders in the periods of the interwar years, the Pacific and World Wars, the Cold War, the Australian Aboriginal Movement at the time of the Vietnam War, as well as the moment of second wave Western feminism in the seventies. My definition of romantic realism and the discourses that inform it are examined in chapters two and three. A deconstruction of femininity and the female subject is pursued in chapter four, when I argue that Cusack′s romantic narratives interact in different ways with social realism: romance variously fails, succeeds, is parodic or idealised. Applying Judith Butler′s philosophical ideas to literary criticism, I argue that this hybridisation of genre prevents the fictional subject from performing his or her gender. Like the “real” subject - actual women in society - the fictional protagonist acts in an unintelligible fashion due to the multifarious demands and constraints on her gender. Consequently, the gendering of the sexed subject produces a multiplicity of genders: Cusack′s women and men are constituted by differing and conflicting demands of the dichotomously opposed genres. Thus gender and sex become indefinite through their complex, inconsistent expression in the romantic realistic text. In other words, the popular combination of romance and realism leads to an explosion of the gender binary presupposed by both genres. Furthermore, a consideration of sexuality and race in chapter five leads to a more differentiated analysis of the humanist representations of gender in postwar fiction. The need to deconstruct these representations in popular and canonical literature is recapitulated in the final chapter of this Dissertation. KW - Cusack KW - Dymphna ; Geschlechtsunterschied KW - Gender / Geschlecht KW - Judith Butler KW - Romanze KW - Realismus KW - australische Literaturgeschichte KW - Ost/West Rezeption Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000276 ER - TY - THES A1 - Schmid, Robert T1 - Geology of ultra-high-pressure rocks from the Dabie Shan, Eastern China N2 - Um das Verständnis der geologischen Entwicklung des größten bekannten Vorkommens von ultra-hochdruck (UHP) Gesteinen auf der Erde, des Dabie Shan im östlichen China, zu erhöhen, wurde eine multidisziplinäre Studie durchgeführt. Geophysikalische Daten wurden entlang einer ca. 20 km langen seismischen Linie im östlichen Dabie Shan gesammelt. Diese reflektionsseismischen Daten zeigen, dass die Kruste aus drei Lagen besteht. Die Oberkruste besitzt eine durchgehend niedrige Reflektivität und meist subhorizontale Reflektoren bis in eine Tiefe von ca. 15 km. Aufgrund dieser Charakteristika wird diese Zone als UHP-bezogener krustaler Keil interpretiert, der auf nicht UHP Kruste überschoben wurde. Ein abrupter Wechsel in der Geometrie aber auch Intensität der Reflektoren markiert die Grenze zu einer mittel- bis unterkrustalen Zone, die sich bis ca. 33 km Tiefe erstreckt. Diese Zone repräsentiert wahrscheinlich kratonale Yangtze Kruste, die von der triassischen UHP-Orogenese nicht erfasst wurde, aber während der Exhumierung das Liegende relativ zum UHP Keil war. Starke und kontinuierliche Reflektoren im Tiefenintervall von 33-40 km bilden höchstwahrscheinlich die Moho an der Basis der Kruste ab. Relikte einer Krustenwurzel, die sich wahrscheinlich während der Kollisionstektonik gebildet hatte, sind nicht sichtbar. Ein flaches tomographisches Geschwindigkeitsmodell, das auf der Inversion der Ersteinsätze gründet, konnte zusätzlich erstellt werden. Dieses Modell bildet deutlich die unterschiedlichen Lithologien auf beiden Seiten der Tan Lu Störung ab. Sedimente östlich der Störung zeigen Geschwindigkeiten von 3.4 - 5.0 km* s^-1, wohingegen die Gneise im Westen 5.2 - 6.0 km*s^-1 aufweisen. Die Geometrie der Geschwindigkeits-Isolinien kann als Ausdruck der Strukturen der Gesteine angenommen werden. Somit zeigen die Sedimente ein nordwestliches Einfallen zur Störung hin, wohingegen isoklinale Falten in den Gneisen abgebildet werden. Geländedaten aus der UHP Einheit des Dabie Shan ermöglichen die Definition von Grundgebirgs- und Deckeinheiten, die Teile des ehemaligen passiven Kontinentalrandes des Yangtze Kratons repräsentieren. Eine der Deckeinheiten, die Changpu Einheit, besitzt nach wie vor einen stratigraphischen Kontakt zu den Grundgebirgs-Gneisen. Der anderen Einheit hingegen, der Ganghe Einheit, fehlt ein entsprechendes Grundgebirge. Diese Einheit steht vielmehr über einen Blasto-Mylonit in tektonischem Kontakt zum Grundgebirge der vorherigen. Die Changpu Einheit baut sich aus kalk-arenitischen Metasedimenten auf, die mit Metabasalten assoziiert sind. Die Ganghe Einheit wird von arenitisch-vulkanoklastischen Metasedimenten, die ebenfalls mit metabasaltischen Gesteinen vergesellschaftet sind, dominiert. Das Grundgebirge baut sich aus diversen felsischen Gneisen auf, die von reliktisch eklogitfaziell bis grünschieferfaziell ausgeprägt sind, und in denen, zusätzlich zu Metabasalten, sporadisch mafisch-ultramafische Meta-Plutone auftreten. Mit Ausnahme der Ganghe Einheit, führen die Metabasite Coesit und belegen somit das UHP Ereignis. Die Mineralchemie der analysierten Proben dokumentiert deutliche Variationen in der Zusammensetzung der Hauptminerale, Granat und Omphazit, was entweder unterschiedliche Protolithe oder unterschiedliche Grade von Stoffaustausch mit den Wirtsgesteinen reflektiert. Gehalte von dreiwertigem Eisen in Omphaziten mit geringen Gesamteisengehalten, wurden mittels Titration bestimmt, wobei sich Werte von 30-40 % ergaben. Dennoch wurde ein noch konservativerer Wert von 50% dreiwertigem Eisen in den entsprechenden Berechnungen angenommen, hauptsächlich, um mit anderen Arbeiten vergleichbar zu sein. Texturen und chemische Zonierungen in den Mineralen sind kompatibel mit Gleichgewichtsbedingungen während dem Höhepunkt der Metamorphose, der retrograd überprägt wird. P-T Daten wurden mit deutlicher Betonung auf das Granat-Omphazit-Phengit Barometer, das mit Fe-Mg Austausch-Thermometern kombiniert wurde, berechnet. Höchstdrucke reichen von 42-48 kbar (für die Changpu Einheit) bis ca. 37 kbar (für das Grundgebirge und die Ganghe Einheit). Während der eklogitfaziellen Metamorphose wurden Temperaturen von ca. 750 °C erreicht. Obwohl die maximalen Drucke deutlich schwanken, sind die Temperaturbestimmungen in guter Übereinstimmung. Die Druckschwankungen können zum einen durch deutlich Ca-dominierte Granate (bis zu 50 mol% Grossular in der Changpu Einheit) und/oder zum anderen durch Modifikationen der Mineralzusammensetzungen während der retrograden Metamorphose erklärt werden. Die präsentierten integrativen geologischen Daten ermöglichen die folgenden Schlussfolgerungen i) Grundgebirgs- und Deckeinheiten treten im Dabie Shan auf und wurden beide UHP metamorph überprägt ii) Der Dabie Shan ist das metamorphe Äquivalent des früheren passiven Kontinentalrandes des Yangtze Kratons iii) felsische Gneise, die eine UHP Metamorphose durchlaufen, sind von Volumenver-änderungen betroffen, die durch großräumige Phasenumwandlungen (Quarz <-> Coesit) hervorgerufen werden, was direkt die tektono-metamorphen Prozesse beeinflusst iv) Initiale Unterschiede in der Temperatur sind möglicherweise dafür verantwortlich, dass generell Unterkrustengesteine in UHP Fazies fehlen N2 - A multidisciplinary study has been carried out to contribute to the understanding of the geologic evolution of the largest known occurrence of ultra-high-pressure (UHP) rocks on Earth, the Dabie Shan of eastern China. Geophysical data, collected along a ca. 20 km E-W trending seismic line in the eastern Dabie Shan, indicate that the crust comprises three layers. The upper crust has a homogeneously low reflectivity and exhibits roughly subhorizontal reflectors down to ca. 15 km. It is therefore interpreted to portray a crustal UHP slab thrust over non-UHP crust. An aprubt change in intensity and geometry of observed reflectors marks the boundary of a mid- to lower crustal zone which is present down to ca. 33 km. This crustal zone likely represents cratonal Yangtze crust that was unaffected by the Triassic UHP event and which has acted as the footwall during exhumation of the crustal wedge. Strong and continuous reflectors occurring at ca. 33-40 km depth most likely trace the Moho at the base of the crust. Any trace of a crustal root, that may have formed in response to collision tectonics, is therefore not preserved. A shollow tomographic velocity modell based on inversion of the first arrivals is constructed additionally. This model clearly images the distinct lithologies on both sides of the Tan Lu fault. Sediments to the east exhibit velocities of about 3.4 - 5.0 km* s^-1, whereas the gneisses have 5.2 - 6.0 km*s^-1. Geometry of velocity isolines may trace the structures present in the rocks. Thus the sediments dip shallowly towards the fault, whereas isoclinal folds are imaged to occur in the gneisses. Field data from the UHP unit of the Dabie Shan enables definition of basement-cover sequences that represent sections of the former passive margin of the Yangtze craton. One of the cover sequences, the Changpu unit, still displays a stratigraphic contact with basement gneisses, while the other, the Ganghe unit, includes no relative basement exposure. The latter unit is in tectonic contact with the basement of the former unit via a greenschist-facies blastomylonite. The Changpu unit is chiefly constituted by calc-arenitic metasediments intercalated with meta-basalts, whereas the Ganghe unit contains arenitic-volcanoclastic metasediments that are likewise associated with meta-basalts. The basement comprises a variety of felsic gneisses, ranging from preserved eclogitic- to greenschist-facies paragenesis, and locally contains mafic-ultramafic meta-plutons in addition to minor basaltic rocks. Metabasites of all lithologies are eclogite-facies or are retrogressed equivalents, which, with the exception of those from the Ganghe unit, bear coesite and thus testify to an UHP metamorphic overprint. Mineral chemistry of the analysed samples reveal large compositional variations among the main minerals, i.e. garnet and omphacite, indicating either distinct protoliths or different degrees of interaction with their host-rocks. Contents of ferric iron in low Fetot omphacites are determined by wet chemical titration and found to be rather high, i.e. 30-40 %. However, a even more conservative estimate of 50% is applied in the corresponding calculations, in order to be comparable with previous studies. Textural constraints and compositional zonation pattern are compatible with equilibrium conditions during peak metamorphism followed by a retrogressive overprint. P-T data are calculated with special focus on the application of the garnet-omphacite-phengite barometer, combined with Fe-Mg exchange thermometers. Maximum pressures range from 42-48 kbar (for the Changpu unit) to ~37 kbar (for the Ganghe unit and basement rocks). Temperatures during the eclogite metamorphism reached ca. 750 °C. Although the sample suite reveals variable peak-pressures, temperatures are in reasonable agreement. Pressure differences are interpreted to be due to strongly Ca-dominated garnet (up to 50 mol % grossular in the Changpu unit) and modification of peak-compositions during retrogressive metamorphism. The integrated geological data presented in this thesis allow it to be concluded that, i) basement and cover rocks are present in the Dabie Shan and both experienced UHP conditions ii) the Dabie Shan is the metamorphic equivalent of the former passive margin of the Yangtze craton iii) felsic gneisses undergoing UHP metamorphism are affected by volume changes due to phase transitions (qtz <-> coe), which directly influence the tectono-metamorphic processes iv) initial differences in temperature may account for the general lack of lower crustal rocks in UHP-facies KW - UHP KW - coesite KW - eclogite KW - Dabie Shan KW - thermobarometry KW - reflection seismology KW - 2D tomography Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000093 ER - TY - THES A1 - Schmidt, Robert W. T1 - Cosmological applications of gravitational lensing N2 - In dieser Arbeit benutze ich den Gravitationslinseneffekt als ein Werkzeug, um zwei recht unterschiedliche kosmologische Fragestellungen zu bearbeiten: die Natur der dunklen Materie in Galaxienhalos und die Rotation des Universums. Zuerst untersuche ich den Mikrolinseneffekt in den Gravitationlinsensystemen Q0957+561 und Q2237+0305. In diesen Systemen scheint das Licht eines Quasars durch die Linsengalaxie hindurch. Aufgrund der Relativbewegung zwischen Quasar, Linsengalaxie und Beobachter verursachen kompakte Objekte innerhalb der Galaxie oder dem Galaxienhalo Helligkeitsfluktuationen des Hintergrundquasars. Ich vergleiche die am 3.5m Teleskop des Apache Point Observatory zwischen 1995 und 1998 gewonnene Lichtkurve des Doppelquasars Q0957+561 (Colley, Kundic & Turner 2000) mit numerischen Simulationen, um zu untersuchen, ob der Halo der Linsengalaxie aus massiven kompakten Objekten (MACHOs) besteht. Dieser Test wurde zuerst von Gott (1981) vorgeschlagen. Ich kann MACHO-Massen von 10^-6 M_sun bis zu 10^-2 M_sun ausschliessen, sofern der Quasar kleiner ist als 3x10^14 h_60^-0.5 cm und MACHOs mehr als 50% des dunklen Halos ausmachen. Im zweiten Teil der Arbeit stelle ich neue Beobachtungsdaten fuer den Vierfachquasar Q2237+0305 vor, die am 3.5m Teleskop des Apache Point Observatory zwischen Juni 1995 und Januar 1998 gewonnen wurden. Obwohl die Daten bei veraenderlichen, oft schlechten Seeing Bedingungen und grober Pixelaufloesung aufgenommen wurden, ist die Photometrie der beiden helleren Quasarbilder A und B mit Hilfe von HST-Beobachtungen moeglich. Ich finde ein Helligkeitsmaximum in Bild A mit einer Amplitude von 0.4 bis 0.5 mag und einer Dauer von wenigstens 100 Tagen. Dies zeigt, dass in der Linsengalaxie der Mikrolinseneffekt stattgefunden hat. Im abschliessenden Teil der Arbeit benutze ich dann den schwachen Gravitationslinseneffekt, um Grenzen fuer eine Klasse von rotierenden Kosmologien vom Goedel-Typ zu ermitteln, die von Korotky & Obukhov (1996) beschrieben wurde. In Studien des schwachen Linseneffektes werden die Formen von tausenden von Hintergrundgalaxien vermessen und gemittelt. Dabei werden kohaerente Verzerrungen der Galaxienformen gemessen, die von Massenverteilungen im Vordergrund oder von der grossraeumigen Struktur der Raumzeit selbst verursacht werden. Ich berechne die vorhergesagte Scherung als Funktion der Rotverschiebung in rotierenden Kosmologien vom Goedel-Typ und vergleiche diese mit der oberen Grenze fuer die kosmische Scherung gamma_limit von 0.04, die in Studien des schwachen Linseneffektes gewonnen wurde. Dieser Vergleich zeigt, dass Modelle vom Goedel-Typ keine groesseren Rotationen omega als H_0=6.1x10^-11 h_60/Jahr haben koennen, wenn die Grenze fuer die kosmische Scherung fuer den ganzen Himmel gilt. N2 - In this thesis we use the gravitational lensing effect as a tool to tackle two rather different cosmological topics: the nature of the dark matter in galaxy halos, and the rotation of the universe. Firstly, we study the microlensing effect in the gravitational lens systems Q0957+561 and Q2237+0305. In these systems the light from the quasar shines directly through the lensing galaxy. Due to the relative motion of the quasar, the lensing galaxy, and the observer compact objects in the galaxy or galaxy halo cause brightness fluctuations of the light from the background quasar. We compare light curve data from a monitoring program of the double quasar Q0957+561 at the 3.5m telescope at Apache Point Observatory from 1995 to 1998 (Colley, Kundic & Turner 2000) with numerical simulations to test whether the halo of the lensing galaxy consists of massive compact objects (MACHOs). This test was first proposed by Gott (1981). We can exclude MACHO masses from 10^-6 M_sun up to 10^-2 M_sun for quasar sizes of less than 3x10^14 h_60^-0.5 cm if the MACHOs make up at least 50% of the dark halo. Secondly, we present new light curve data for the gravitationally lensed quadruple quasar Q2237+0305 taken at the 3.5m telescope at Apache Point Observatory from June 1995 to January 1998. Although the images were taken under variable, often poor seeing conditions and with coarse pixel sampling, photometry is possible for the two brighter quasar images A and B with the help from HST observations. We find independent evidence for a brightness peak in image A of 0.4 to 0.5 mag with a duration of at least 100 days, which indicates that microlensing has taken place in the lensing galaxy. Finally, we use the weak gravitational lensing effect to put limits on a class of Goedel-type rotating cosmologies described by Korotky & Obukhov (1996). In weak lensing studies the shapes of thousands of background galaxies are measured and averaged to reveal coherent gravitational distortions of the galaxy shapes by foreground matter distributions, or by the large-scale structure of space-time itself. We calculate the predicted shear as a function of redshift in Goedel-type rotating cosmologies and compare this to the upper limit on cosmic shear gamma_limit of approximately 0.04 from weak lensing studies. We find that Goedel-type models cannot have larger rotations omega than H_0=6.1x10^-11 h_60/year if this shear limit is valid for the whole sky. KW - Gravitationslinseneffekt KW - Quasare KW - Kosmologie KW - dunkle Materie Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000261 ER - TY - THES A1 - Marwan, Norbert T1 - Encounters with neighbours BT - current developments of concepts based on recurrence plots and their applications N2 - Diese Arbeit beschäftigt sich mit verschiedenen Aspekten und Anwendungen von Recurrence Plots. Nach einer Übersicht über Methoden, die auf Recurrence Plots basieren, werden neue Komplexitätsmaße eingeführt, die geometrische Strukturen in den Recurrence Plots beschreiben. Diese neuen Maße erlauben die Identifikation von Chaos-Chaos-Übergängen in dynamischen Prozessen. In einem weiteren Schritt werden Cross Recurrence Plots eingeführt, mit denen zwei verschiedene Prozesse untersucht werden. Diese bivariate Analyse ermöglicht die Bewertung von Unterschieden zwischen zwei Prozessen oder das Anpassen der Zeitskalen von zwei Zeitreihen. Diese Technik kann auch genutzt werden, um ähnliche Abschnitte in zwei verschiedenen Datenreihen zu finden. Im Anschluß werden diese neuen Entwicklungen auf Daten verschiedener Art angewendet. Methoden, die auf Recurrence Plots basieren, können an die speziellen Probleme angepaßt werden, so daß viele weitere Anwendungen möglich sind. Durch die Anwendung der neu eingeführten Komplexitätsmaße können Chaos-Chaos-Übergänge in Herzschlagdaten vor dem Auftreten einer lebensbedrohlichen Herzrhythmusstörung festgestellt werden, was für die Entwicklung neuer Therapien dieser Herzrhythmusstörungen von Bedeutung sein könnte. In einem weiteren Beispiel, in dem EEG-Daten aus einem kognitiv orientierten Experiment untersucht werden, ermöglichen diese Komplexitätsmaße das Erkennen von spezifischen Reaktionen im Gehirn bereits in Einzeltests. Normalerweise können diese Reaktionen erst durch die Auswertung von vielen Einzeltests erkannt werden. Mit der Hilfe von Cross Recurrence Plots wird die Existenz einer klimatischen Zirkulation, die der heutigen El Niño/ Southern Oscillation sehr ähnlich ist, im Nordwesten Argentiniens vor etwa 34000 Jahren nachgewiesen. Außerdem können mit Cross Recurrence Plots die Zeitskalen verschiedener Bohrlochdaten aufeinander abgeglichen werden. Diese Methode kann auch dazu genutzt werden, ein geologisches Profil mit Hilfe eines Referenzprofiles mit bekannter Zeitskala zu datieren. Weitere Beispiele aus den Gebieten der Molekularbiologie und der Spracherkennung unterstreichen das Potential dieser Methode. N2 - In this work, different aspects and applications of the recurrence plot analysis are presented. First, a comprehensive overview of recurrence plots and their quantification possibilities is given. New measures of complexity are defined by using geometrical structures of recurrence plots. These measures are capable to find chaos-chaos transitions in processes. Furthermore, a bivariate extension to cross recurrence plots is studied. Cross recurrence plots exhibit characteristic structures which can be used for the study of differences between two processes or for the alignment and search for matching sequences of two data series. The selected applications of the introduced techniques to various kind of data demonstrate their ability. Analysis of recurrence plots can be adopted to the specific problem and thus opens a wide field of potential applications. Regarding the quantification of recurrence plots, chaos-chaos transitions can be found in heart rate variability data before the onset of life threatening cardiac arrhythmias. This may be of importance for the therapy of such cardiac arrhythmias. The quantification of recurrence plots allows to study transitions in brain during cognitive experiments on the base of single trials. Traditionally, for the finding of these transitions the averaging of a collection of single trials is needed. Using cross recurrence plots, the existence of an El Niño/Southern Oscillation-like oscillation is traced in northwestern Argentina 34,000 yrs. ago. In further applications to geological data, cross recurrence plots are used for time scale alignment of different borehole data and for dating a geological profile with a reference data set. Additional examples from molecular biology and speech recognition emphasize the suitability of cross recurrence plots. KW - Recurrence-Plot KW - Cross-Recurrence-Plot KW - Wiederkehrdarstellung KW - Rekurrenzdarstellung KW - Rekurrenzanalyse KW - recurrence plot KW - cross recurrence plot KW - recurrence quantification analysis Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000856 ER -