TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - THES A1 - Wolff, Markus T1 - Geovisual methods and techniques for the development of three-dimensional tactical intelligence assessments T1 - Methoden und Techniken zur Entwicklung dreidimensionaler Lagebilder für Belange der zivilen Sicherheit N2 - This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis. N2 - Diese Arbeit präsentiert Methoden, Techniken und Werkzeuge für die Entwicklung dreidi-mensionaler Lagebilder. Zu diesem Zweck werden Verfahren der Geoinformatik mit solchen der raumbezogenen Straftatenanalyse kombiniert. Das Spektrum der angewandten Methoden und Techniken umfasst raumzeitliche GIS-Analysen ebenso wie 3D Geovisualisierungen und GIS-Anwendungsprogrammierung. Um komplexe geovisuelle Analysen auf Basis virtueller 3D-Stadtmodelle zu ermöglichen, werden Datenbanken digitaler Stadtmodelle um anwendungsspezifische Fachinformationen ergänzt. Dies ermöglicht weiterführende Analysen, zum Beispiel zur räumlichen Verteilung urbaner Risiken. Weiterhin präsentiert die Arbeit Methoden und Verfahren zur Integration der Ergebnisse komplexer raumzeitlicher Straftatenanalysen in dreidimensionale Lagebilder. Die durchgeführten Analysen umfassen die Identifikation von Brennpunkten spezifischer Delikte mittels Techniken der Kerndichteschätzung, die Verifikation dieser Hotspots durch LISA-Statistiken, GIS-basierte räumliche Charakterisierungen von Brennpunkten sowie Analysen zur wiederholten Viktimisierung. Zur Visualisierung der Ergebnisse komplexer raumzeitlicher Analysen werden dreidimensionale geovirtuelle Umgebungen erzeugt. Um weitere raumbezogene Daten ergänzt, werden sämtliche Analyseergebnisse in diese Umgebungen integriert. Die resultierenden 3D-Visualisierungen erlauben eine effiziente Kommunikation der Ergebnisse komplexer raumbezogener Straftatenanalysen. KW - raumbezogene Straftatenanalyse KW - GIS KW - geovirtuelle Umgebungen KW - 3D-Geovisualisierung KW - 3D-Stadtmodelle KW - Crime mapping KW - GIS KW - geovirtual environments KW - 3D geovisualisation KW - 3D city models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50446 ER - TY - THES A1 - Wilke, Franziska Daniela Helena T1 - Quantifying crystalline exhumation in the Himalaya T1 - Quantifizierung von Exhumationsbedingungen der kristallinen Gesteine aus dem Himalaja N2 - In 1915, Alfred Wegener published his hypotheses of plate tectonics that revolutionised the world for geologists. Since then, many scientists have studied the evolution of continents and especially the geologic structure of orogens: the most visible consequence of tectonic processes. Although the morphology and landscape evolution of mountain belts can be observed due to surface processes, the driving force and dynamics at lithosphere scale are less well understood despite the fact that rocks from deeper levels of orogenic belts are in places exposed at the surface. In this thesis, such formerly deeply-buried (ultra-) high-pressure rocks, in particular eclogite facies series, have been studied in order to reveal details about the formation and exhumation conditions and rates and thus provide insights into the geodynamics of the most spectacular orogenic belt in the world: the Himalaya. The specific area investigated was the Kaghan Valley in Pakistan (NW Himalaya). Following closure of the Tethyan Ocean by ca. 55-50 Ma, the northward subduction of the leading edge of India beneath the Eurasian Plate and subsequent collision initiated a long-lived process of intracrustal thrusting that continues today. The continental crust of India – granitic basement, Paleozoic and Mesozoic cover series and Permo-Triassic dykes, sills and lavas – has been buried partly to mantle depths. Today, these rocks crop out as eclogites, amphibolites and gneisses within the Higher Himalayan Crystalline between low-grade metamorphosed rocks (600-640°C/ ca. 5 kbar) of the Lesser Himalaya and Tethyan sediments. Beside tectonically driven exhumation mechanisms the channel flow model, that describes a denudation focused ductile extrusion of low viscosity material developed in the middle to lower crust beneath the Tibetan Plateau, has been postulated. To get insights into the lithospheric and crustal processes that have initiated and driven the exhumation of this (ultra-) high-pressure rocks, mineralogical, petrological and isotope-geochemical investigations have been performed. They provide insights into 1) the depths and temperatures to which these rocks were buried, 2) the pressures and temperatures the rocks have experienced during their exhumation, 3) the timing of these processes 4) and the velocity with which these rocks have been brought back to the surface. In detail, through microscopical studies, the identification of key minerals, microprobe analyses, standard geothermobarometry and modelling using an effective bulk rock composition it has been shown that published exhumation paths are incomplete. In particular, the eclogites of the northern Kaghan Valley were buried to depths of 140-100 km (36-30 kbar) at 790-640°C. Subsequently, cooling during decompression (exhumation) towards 40-35 km (17-10 kbar) and 630-580°C has been superseded by a phase of reheating to about 720-650°C at roughly the same depth before final exhumation has taken place. In the southern-most part of the study area, amphibolite facies assemblages with formation conditions similar to the deduced reheating phase indicate a juxtaposition of both areas after the eclogite facies stage and thus a stacking of Indian Plate units. Radiometric dating of zircon, titanite and rutile by U-Pb and amphibole and micas by Ar-Ar reveal peak pressure conditions at 47-48 Ma. With a maximum exhumation rate of 14 cm/a these rocks reached the crust-mantle boundary at 40-35 km within 1 Ma. Subsequent exhumation (46-41 Ma, 40-35 km) decelerated to ca. 1 mm/a at the base of the continental crust but rose again to about 2 mm/a in the period of 41-31 Ma, equivalent to 35-20 km. Apatite fission track (AFT) and (U-Th)/He ages from eclogites, amphibolites, micaschists and gneisses yielded moderate Oligocene to Miocene cooling rates of about 10°C/Ma in the high altitude northern parts of the Kaghan Valley using the mineral-pair method. AFT ages are of 24.5±3.8 to 15.6±2.1 Ma whereas apatite (U-Th)/He analyses yielded ages between 21.0±0.6 and 5.3±0.2 Ma. The southern-most part of the Valley is dominated by younger late Miocene to Pliocene apatite fission track ages of 7.6±2.1 and 4.0±0.5 Ma that support earlier tectonically and petrologically findings of a juxtaposition and stack of Indian Plate units. As this nappe is tectonically lowermost, a later distinct exhumation and uplift driven by thrusting along the Main Boundary Thrust is inferred. A multi-stage exhumation path is evident from petrological, isotope-geochemical and low temperature thermochronology investigations. Buoyancy driven exhumation caused an initial rapid exhumation: exhumation as fast as recent normal plate movements (ca. 10 cm/a). As the exhuming units reached the crust-mantle boundary the process slowed down due to changes in buoyancy. Most likely, this exhumation pause has initiated the reheating event that is petrologically evident (e.g. glaucophane rimmed by hornblende, ilmenite overgrowth of rutile). Late stage processes involved widespread thrusting and folding with accompanied regional greenschist facies metamorphism, whereby contemporaneous thrusting on the Batal Thrust (seen by some authors equivalent to the MCT) and back sliding of the Kohistan Arc along the inverse reactivated Main Mantle Thrust caused final exposure of these rocks. Similar circumstances have been seen at Tso Morari, Ladakh, India, 200 km further east where comparable rock assemblages occur. In conclusion, as exhumation was already done well before the initiation of the monsoonal system, climate dependent effects (erosion) appear negligible in comparison to far-field tectonic effects. N2 - Seit der von Alfred Wegener 1915 postulierten Hypothese der Plattentektonik haben viele Forscher Anstrengungen unternommen die Entstehungsgeschichte und den geologischen Aufbau von Gebirgen nachzuvollziehen. Oberflächennahe Abläufe sind ansatzweise verstanden, während Prozesse im Erdinneren weit weniger bekannt sind. Informationen hierüber können jedoch aus den Gesteinen, ihren Mineralen und wiederum deren chemischen Komponenten gewonnen werden, da diese die Entstehung und Entwicklung der Gebirgsbildung “miterlebt”, und wichtige Informationen gespeichert haben. In dieser Arbeit wurden dazu exemplarisch (Ultra-) Hochdruckgesteine ((U-)HP), sogenannte Eklogite, und deren Umgebungsgesteine aus dem nordwestlichen Himalaja, insbesondere aus dem Kaghan Tal in Pakistan untersucht um den Exhumationsprozess von tief subduzierten Krustengesteinen im allgemeinen, und im Hinblick auf mögliche klimabedingte Einflüsse, besser zu verstehen. Die Bildung des Himalajas ist auf die Versenkung, eines südlich der eurasischen Platte angesiedelten Ozeans, der Tethys, und die nachfolgende Kollision Indiens mit dem Eurasischen Kontinent vor und seit etwa 50-55 Millionen Jahre zurück zu führen. Dabei wurden kalter, dichter Ozeanboden und leichtere Krustensegmente rasch in große Tiefen subduziert. Heute sind diese Hochdruck- und ultra Hochdruckgesteine in einigen Bereichen des Himalaja zwischen schwach metamorph überprägten (600-640°C/ca. 5 kbar) Gesteinen und alten Sedimenten der Tethys aufgeschlossen. Anhand von petrographischen, mineral-chemischen, petrologischen und isotopen-geochemischen Untersuchungen dieser (Ultra) Hochdruckgesteine konnte ich zeigen, dass 1) die Gesteine in über 100 km Tiefe also bis in den Erdmantel vordrangen, 2) sie bei ihrem Aufstieg in Krustenbereiche von 40-35 km zuerst von 790-640°C auf 630-580°C abgekühlten um danach wieder auf 720-650°C aufgeheizt zu werden, sie 3) innerhalb von 700.000 Jahren um mindestens 60 km Richtung Erdoberfläche exhumiert wurden und somit 4) Geschwindigkeiten von 9-14 cm pro Jahr erreichten, die der normaler Plattengeschwindigkeiten (>10 cm/a) entspricht, wobei sich 5) dieser Prozess ab 40-35 km auf 0.1-0.2 cm/a stark verlangsamte und auch 6) ab einer Tiefe von 6 km bis zur Erdoberfläche keine, z. B. niederschlagsbedingt, erhöhte Abkühlungsrate zu erkennen ist. Eine schnelle initiale Exhumierung erfolgte durch den Dichteunterschied von leichtem, subduzierten Krustengestein zum dichteren Mantel. Dieser Prozess kam an der Krusten-Mantel-Grenze nahezu zum erliegen, einhergehend mit einer sekundären Aufheizung des Gesteins und wurde, jedoch weit weniger schnell, durch die Kollision der beiden Kontinente Eurasien und Indien und dadurch bedingte Überschiebungen, Faltungen und gravitative Abschiebungen fortgesetzt, die Gesteine zur Oberfläche transportiert und dort freigelegt. Eine erosions- und damit klimabedingte Beschleunigung oder gar gänzlich davon abhängige kontinuierliche Exhumation konnte in dieser Region des Himalajas nicht bestätigt werden. Vielmehr belegen die Daten eine mehrstufige Exhumation wie sie auch im Tso Morari Gebiet (NW Indien) angenommen wird, für weitere Ultrahochdruckareale wie, z. B. das Kokchetav Massif (Kasachstan), den Dabie Shan (China) oder den europäischen Varisziden (z. B. Böhmisches Massiv) jedoch noch geklärt werden muss, um generell gültige Mantel- und Krustenprozesse abzuleiten. KW - Himalaja (Kaghan) KW - Eklogite KW - Druck-Temperatur Bedingungen KW - (Alters-) Datierungen KW - Exhumationsraten KW - Himalaya (Kaghan Valley) KW - eclogite (UHP) KW - multi-stage exhumation KW - exhumation rates KW - geochronology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43138 ER - TY - THES A1 - Werth, Susanna T1 - Calibration of the global hydrological model WGHM with water mass variations from GRACE gravity data T1 - Kalibrierung des globalen hydrologischen Modelles WGHM mit Wassermassenvariationen aus GRACE-Schwerefelddaten N2 - Since the start-up of the GRACE (Gravity Recovery And Climate Experiment) mission in 2002 time dependent global maps of the Earth's gravity field are available to study geophysical and climatologically-driven mass redistributions on the Earth's surface. In particular, GRACE observations of total water storage changes (TWSV) provide a comprehensive data set for analysing the water cycle on large scales. Therefore they are invaluable for validation and calibration of large-scale hydrological models as the WaterGAP Global Hydrology Model (WGHM) which simulates the continental water cycle including its most important components, such as soil, snow, canopy, surface- and groundwater. Hitherto, WGHM exhibits significant differences to GRACE, especially for the seasonal amplitude of TWSV. The need for a validation of hydrological models is further highlighted by large differences between several global models, e.g. WGHM, the Global Land Data Assimilation System (GLDAS) and the Land Dynamics model (LaD). For this purpose, GRACE links geodetic and hydrological research aspects. This link demands the development of adequate data integration methods on both sides, forming the main objectives of this work. They include the derivation of accurate GRACE-based water storage changes, the development of strategies to integrate GRACE data into a global hydrological model as well as a calibration method, followed by the re-calibration of WGHM in order to analyse process and model responses. To achieve these aims, GRACE filter tools for the derivation of regionally averaged TWSV were evaluated for specific river basins. Here, a decorrelation filter using GRACE orbits for its design is most efficient among the tested methods. Consistency in data and equal spatial resolution between observed and simulated TWSV were realised by the inclusion of all most important hydrological processes and an equal filtering of both data sets. Appropriate calibration parameters were derived by a WGHM sensitivity analysis against TWSV. Finally, a multi-objective calibration framework was developed to constrain model predictions by both river discharge and GRACE TWSV, realised with a respective evolutionary method, the ε-Non-dominated-Sorting-Genetic-Algorithm-II (ε-NSGAII). Model calibration was done for the 28 largest river basins worldwide and for most of them improved simulation results were achieved with regard to both objectives. From the multi-objective approach more reliable and consistent simulations of TWSV within the continental water cycle were gained and possible model structure errors or mis-modelled processes for specific river basins detected. For tropical regions as such, the seasonal amplitude of water mass variations has increased. The findings lead to an improved understanding of hydrological processes and their representation in the global model. Finally, the robustness of the results is analysed with respect to GRACE and runoff measurement errors. As a main conclusion obtained from the results, not only soil water and snow storage but also groundwater and surface water storage have to be included in the comparison of the modelled and GRACE-derived total water budged data. Regarding model calibration, the regional varying distribution of parameter sensitivity suggests to tune only parameter of important processes within each region. Furthermore, observations of single storage components beside runoff are necessary to improve signal amplitudes and timing of simulated TWSV as well as to evaluate them with higher accuracy. The results of this work highlight the valuable nature of GRACE data when merged into large-scale hydrological modelling and depict methods to improve large-scale hydrological models. N2 - Das Schwerefeld der Erde spiegelt die Verteilung von Massen auf und unter der Erdoberfläche wieder. Umverteilungen von Erd-, Luft- oder Wassermassen auf unserem Planeten sind damit über eine kontinuierliche Vermessung des Erdschwerefeldes beobachtbar. Besonders Satellitenmissionen sind hierfür geeignet, da deren Umlaufbahn durch zeitliche und räumliche Veränderung der Schwerkraft beeinflusst wird. Seit dem Start der Satellitenmission GRACE (Gravity Recovery And Climate Experiment) im Jahr 2002 stellt die Geodäsie daher globale Daten von zeitlichen Veränderungen des Erdschwerefeldes mit hoher Genauigkeit zur Verfügung. Mit diesen Daten lassen sich geophysikalische und klimatologische Massenumverteilungen auf der Erdoberfläche studieren. GRACE liefert damit erstmals Beobachtungen von Variationen des gesamten kontinentalen Wasserspeichers, welche außerordentlich wertvoll für die Analyse des Wasserkreislaufes über große Regionen sind. Die Daten ermöglichen die Überprüfung von großräumigen mathematischen Modellen der Hydrologie, welche den natürlichen Kreislauf des Wassers auf den Kontinenten, vom Zeitpunkt des Niederschlags bis zum Abfluss in die Ozeane, nachvollziehbar machen. Das verbesserte Verständnis über Transport- und Speicherprozesse von Süßwasser ist für genauere Vorhersagen über zukünftige Wasserverfügbarkeit oder potentielle Naturkatastrophen, wie z.B. Überschwemmungen, von enormer Bedeutung. Ein globales Modell, welches die wichtigsten Komponenten des Wasserkreislaufes (Boden, Schnee, Interzeption, Oberflächen- und Grundwasser) berechnet, ist das "WaterGAP Global Hydrology Model" (WGHM). Vergleiche von berechneten und beobachteten Wassermassenvariationen weisen bisher insbesondere in der jährlichen Amplitude deutliche Differenzen auf. Sehr große Unterschiede zwischen verschiedenen hydrologischen Modellen betonen die Notwendigkeit, deren Berechnungen zu verbessern. Zu diesem Zweck verbindet GRACE die Wissenschaftsbereiche der Geodäsie und der Hydrologie. Diese Verknüpfung verlangt von beiden Seiten die Entwicklung geeigneter Methoden zur Datenintegration, welche die Hauptaufgaben dieser Arbeit darstellten. Dabei handelt es sich insbesondere um die Auswertung der GRACE-Daten mit möglichst hoher Genauigkeit sowie um die Entwicklung einer Strategie zur Integration von GRACE Daten in das hydrologische Modell. Mit Hilfe von GRACE wurde das Modell neu kalbriert, d.h. Parameter im Modell so verändert, dass die hydrologischen Berechnungen besser mit den GRACE Beobachtungen übereinstimmen. Dabei kam ein multikriterieller Kalibrieralgorithmus zur Anwendung mit dem neben GRACE-Daten auch Abflussmessungen einbezogen werden konnten. Die Modellkalibierung wurde weltweit für die 28 größten Flusseinzugsgebiete durchgeführt. In den meisten Fällen konnte eine verbesserte Berechnung von Wassermassenvariationen und Abflüssen erreicht werden. Hieraus ergeben sich, z.B. für tropische Regionen, größere saisonale Variationen. Die Ergebnisse führen zu einem verbesserten Verständnis hydrologischer Prozesse. Zum Schluss konnte die Robustheit der Ergebnisse gegenüber Fehlern in GRACE- und Abflussmessungen erfolgreich getestet werden. Nach den wichtigsten Schlussfolgerungen, die aus den Ergebnissen abgeleitet werden konnten, sind nicht nur Bodenfeuchte- und Schneespeicher, sondern auch Grundwasser- und Oberflächenwasserspeicher in Vergleiche von berechneten und GRACE-beobachteten Wassermassenvariationen einzubeziehen. Weiterhin sind neben Abflussmessungen zusätzlich Beobachtungen von weiteren hydrologischen Prozessen notwendig, um die Ergebnisse mit größerer Genauigkeit überprüfen zu können. Die Ergebnisse dieser Arbeit heben hervor, wie wertvoll GRACE-Daten für die großräumige Hydrologie sind und eröffnen eine Methode zur Verbesserung unseres Verständnisses des globalen Wasserkreislaufes. KW - Schwerefeld KW - Hydrolgische Modellierung KW - Globaler Wasserkreislauf KW - Wassermassenvariationen KW - gravity KW - gydrological modelling KW - global water cycle KW - water mass variations Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41738 ER - TY - THES A1 - Wegerich, Franziska T1 - Engineered human cytochrome c : investigation of superoxide and protein-protein interaction and application in bioelectronic systems T1 - Gentechnisch verändertes humanes Cytochrom c :Untersuchungen von Superoxid und Protein-Protein-Interaktionen sowie der Anwendung in bioelektronischen Systemen N2 - The aim of this thesis is the design, expression and purification of human cytochrome c mutants and their characterization with regard to electrochemical and structural properties as well as with respect to the reaction with the superoxide radical and the selected proteins sulfite oxidase from human and fungi bilirubin oxidase. All three interaction partners are studied here for the first time with human cyt c and with mutant forms of cyt c. A further aim is the incorporation of the different cyt c forms in two bioelectronic systems: an electrochemical superoxide biosensor with an enhanced sensitivity and a protein multilayer assembly with and without bilirubin oxidase on electrodes. The first part of the thesis is dedicated to the design, expression and characterization of the mutants. A focus is here the electrochemical characterization of the protein in solution and immobilized on electrodes. Further the reaction of these mutants with superoxide was investigated and the possible reaction mechanisms are discussed. In the second part of the work an amperometric superoxide biosensor with selected human cytochrome c mutants was constructed and the performance of the sensor electrodes was studied. The human wild-type and four of the five mutant electrodes could be applied successfully for the detection of the superoxide radical. In the third part of the thesis the reaction of horse heart cyt c, the human wild-type and seven human cyt c mutants with the two proteins sulfite oxidase and bilirubin oxidase was studied electrochemically and the influence of the mutations on the electron transfer reactions was discussed. Finally protein multilayer electrodes with different cyt form including the mutant forms G77K and N70K which exhibit different reaction rates towards BOD were investigated and BOD together with the wild-type and engineered cyt c was embedded in the multilayer assembly. The relevant electron transfer steps and the kinetic behavior of the multilayer electrodes are investigated since the functionality of electroactive multilayer assemblies with incorporated redox proteins is often limited by the electron transfer abilities of the proteins within the multilayer. The formation via the layer-by-layer technique and the kinetic behavior of the mono and bi-protein multilayer system are studied by SPR and cyclic voltammetry. In conclusion this thesis shows that protein engineering is a helpful instrument to study protein reactions as well as electron transfer mechanisms of complex bioelectronic systems (such as bi-protein multilayers). Furthermore, the possibility to design tailored recognition elements for the construction of biosensors with an improved performance is demonstrated. N2 - Ziel dieser Arbeit ist es genetisch veränderte Formen von humanem Cytochrom c herzustellen und diese einerseits hinsichtlich der Reaktion mit dem Sauerstoff-Radikal Superoxid aber auch mit anderen Proteinen zu untersuchen. Zusätzlich sollen die verschiedenen Protein-Mutanten in neuartige bioelektronische Systeme eingebracht werden. Es wurden insgesamt 20 Cytochrome c Mutanten designt, rekombinant exprimiert und aufgereinigt. Es konnte in dieser Arbeit gezeigt werden, dass sich die Reaktion von Cytochrom c mit dem negativ geladenen Superoxid durch gezielte Mutationen, die zusätzliche positive Ladungen in das Molekül bringen, um bis zu 30 % erhöhen lässt. Es wurde aber auch deutlich, dass andere Eigenschaften des Proteins sowie dessen Struktur durch die Mutationen geändert werden können. Cytochrom c Mutanten mit einer erhöhten Reaktionsrate mit Superoxid konnten erfolgreich in einen Superoxid-Biosensor mit erhöhter Sensitivität eingebracht werden. Weiterhin wurde einige Mutanten hinsichtlich Ihrer Interaktion mit den zwei Enzymen Sulfitoxidase und Bilirubinoxidase untersucht. Hier konnten ebenfalls unterschiedliche Reaktivitäten festgestellt werden. Schließlich wurden ausgewählte Protein-Varianten mit und ohne den zuvor untersuchten Enzymen in ein Multischicht-Elektroden-System eingebettet und dessen kinetisches Verhalten untersucht. Es wurde gefunden, dass die Schnelligkeit mit der Cytochrom c mit sich selbst Elektronen austauschen kann, eine Limitierung der Größenordnung der katalytischen Ströme darstellt. Diese Selbstaustausschrate wurde durch die eingeführten Mutationen verändert. So verdeutlicht diese Arbeit, dass „Protein-Engineering“ ein gutes Hilfsmittel sein kann, um einerseits Proteinreaktionen und komplexe Elektronentransferreaktionen in Multischichten zu untersuchen, aber auch ein potentes Werkzeug darstellt mit dem zugeschnittene Biokomponenten für Sensoren mit erhöhter Leistungsfähigkeit generiert werden können. KW - Cytochrom c KW - Protein-Engineering KW - Elektrochemie KW - Biosensor KW - Superoxid KW - cytochrome c KW - protein engineering KW - electrochemistry KW - biosensor KW - superoxide Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50782 ER - TY - THES A1 - Uhlig, Katja T1 - Untersuchungen PEG-basierter thermo-responsiver Polymeroberflächen zur Steuerung der Zelladhäsion T1 - Analysis of PEG-based thermo-responsive polymer surfaces to control cell adhesion N2 - Moderne Methoden für die Einzelzellanalyse werden dank der fortschreitenden Weiterentwicklung immer sensitiver. Dabei steigen jedoch auch die Anforderungen an das Probenmaterial. Viele Aufbereitungsprotokolle adhärenter Zellen beinhalten eine enzymatische Spaltung der Oberflächenproteine, um die Ablösung vom Zellkultursubstrat zu ermöglichen. Verschiedene Methoden, wie die Patch-Clamp-Technik oder eine auf der Markierung extrazellulärer Domänen von Membranproteinen basierende Durchflusszytometrie können dann nur noch eingeschränkt eingesetzt werden. Daher ist die Etablierung neuer Zellablösemethoden dringend notwendig. In der vorliegenden Arbeit werden erstmals PEG-basierte thermo-responsive Oberflächen erfolgreich für die Zellkultur eingesetzt. Dabei wird das zerstörungsfreie Ablösen verschiedener Zelllinien von den Oberflächen durch Temperatursenkung realisiert. Die Funktionalität der Oberflächen wird durch Variation der Polymerstruktur, sowie der Konzentration der Beschichtungslösung, durch Beschichtung der Oberflächen mit einem zelladhäsionsfördernden Protein (Fibronektin) und durch Adsorption zelladhäsionsvermittelnder Peptide (RGD) optimiert. Um den Zellablösungsprozess detaillierter zu untersuchen, wird hier zum ersten Mal der direkte Zellkontakt mit thermo-responsiven Oberflächen mittels oberflächensensitiver Mikroskopie (TIRAF) sichtbar gemacht. Mit dieser Technik sind die exakte Quantifizierung und die Analyse der Reduktion der Zelladhäsionsfläche während des Abkühlens möglich. Hierbei werden in Abhängigkeit von der Zelllinie Unterschiede im Zellverhalten während des Ablösens festgestellt: Zellen, wie eine Brustkrebszelllinie und eine Ovarzelllinie, die bekanntermaßen stärker mit ihrer Umgebung in Kontakt treten, vergrößern im Verlauf des Beobachtungszeitraumes den Abstand zwischen Zellmembran und Oberfläche, reduzieren jedoch ihre Zell-Substratkontaktfläche kaum. Mausfibroblasten hingegen verkleinern drastisch die Zelladhäsionsfläche. Der Ablösungsprozess wird vermutlich aktiv von den Zellen gesteuert. Diese Annahme wird durch zwei Beobachtungen gestützt: Erstens verläuft die Reduktion der Zelladhäsionsfläche bei Einschränkung des Zellmetabolismus durch eine Temperatursenkung auf 4 °C verzögert. Zweitens hinterlassen die Zellen Spuren, die nach dem Ablösen der Zellen auf den Oberflächen zurückbleiben. Mittels Kombination von TIRAF- und TIRF-Mikroskopie werden die Zelladhäsionsfläche und die Aktinstruktur gleichzeitig beobachtet. Die Verknüpfung beider Methoden stellt eine neue Möglichkeit dar, intrazelluläre Prozesse mit der Zellablösung von thermo-responsiven Oberflächen zu korrelieren. N2 - Modern methods for single-cell analysis are becoming increasingly sensitive. At the same time, requirements for the sample material are on the rise. Today, sample preparation of adherent cells usually includes steps of enzymatic treatment to digest surface proteins thus, inducing cell detachment from culture substrates. This strongly limits the application of different techniques like patch clamp or labelling of extracellular domains of membrane proteins for flow cytometry. Therefore, a new cell detachment method is urgently required. In the present work, new PEG-based thermo-responsive polymers are used for cell culture for the first time. Here, non-destructive detachment of different cell lines from polymer-coated surfaces is realised by controlled temperature reduction. The surface functionality is systematically optimised by varying the concentration of the coating solutions, by artificial surface coating of a cell adhesion-mediating protein (fibronectin) and by co-adsorption of a cell adhesion-mediating peptide (RGD). For detailed analysis of the cell detachment process, TIRF microscopy is used to directly visualise the cell contacts on the thermo-responsive surfaces. Using this technique allows both the quantification and analysis of the reduction of the cell adhesion area during sample cooling. Furthermore, for several cell lines, different behaviours in cell detachment are observed. Cells that have close contact to their substrate like MCF-7 breast cancer cell line and CHO-K1 ovary cells increase the distance between cell membrane and surface, but there is only little decrease of cell-substrate adhesion area. In contrast, L929 fibroblasts reduce the cell adhesion area drastically. Furthermore, the hypothesis that the cell detachment is an active process is shown by lowering the cell metabolism by temperature reduction to 4 °C and by the cell traces that are left behind after rinsing the surfaces. A combination of TIRAF and TIRF enables visualising the cell adhesion area and actin structures. Measuring both parameters simultaneously opens up new possibilities to correlate intracellular and cell detachment processes on thermo-responsive surfaces. KW - thermo-responsive Polymere KW - Polyethylenglykol KW - TIRF KW - Zelladhäsion KW - thermo-responsive polymers KW - polyethylene glycol KW - TIRF KW - cell adhesion Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47784 ER - TY - THES A1 - Tronci, Giuseppe T1 - Synthesis, characterization, and biological evaluation of gelatin-based scaffolds T1 - Synthese, Charakterisierung und biologische Evaluierung Gelatine-basierter Scaffolds N2 - This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood. N2 - Diese Arbeit beschreibt die Entwicklung Entropie-elastischer Gelatine-basierter Netzwerke als Filme und Scaffolds. Mögliche Anwendungen für die entwickelten Materialien liegen im biomedizinischen Bereich, insbesondere der Knochenregeneration. Im ersten Schritt der Arbeit wurden Entropie-elastische, Gelatine-basierte Hydrogel-Filme entwickelt, deren mechanische Eigenschaften durch die Veränderung der Quervernetzungsdichte eingestellt werden konnten. Dazu wurde Gelatine in Lösung oberhalb der Gel-Sol-Übergangstemperatur kovalent quervernetzt, wodurch die Ausbildung helikaler Konformationen unterdrückt wurde. Als Quervernetzer wurden Hexamethylendiisocyanat (HDI) oder Lysindiisocyanat ethylester (LDI) verwendet, und die Reaktionen wurden in Dimethylsulfoxid (DMSO) oder Wasser durchgeführt. Weitwinkel Röntgenstreuungs Spektroskopie (WAXS) zeigte, dass die Netzwerke amorph waren. Der Quellungsgrad (Q: 300-800 vol. %) und der Elastizitätsmodul (E: 70 740 kPa) konnten dabei durch die systematische Veränderung der Quervernetzungsdichte eingestellt werden. Die Analyse der Quervernetzungsreaktion durch Modellreaktionen zeigte, dass die Stabilisierung der Hydrogele sowohl auf kovalente Quervernetzungen (3-13 mol.-%) als auch auf Grafting von (5-40 mol.-%) und Verblendung mit Oligoharnstoffen (16-67 mol.-%) zurückgeführt werden kann. Die Erkenntnisse aus dem Umgang mit dem Bulk-Material wurden dann auf einen integrierten Prozess der Verschäumung und chemischen Quervernetzung transferiert, so dass poröse, dreidimensionale Scaffolds erhalten wurden. Dafür wurde eine wässrige Gelatinelösung in Gegenwart eines Tensids, Saponin, verschäumt, und durch chemische Quervernetzung mit einem Diisocyanat zu einem Scaffold fixiert. Die Scaffolds hergestellt mit unterschiedlichen Mengen HDI und Gelatine, wurden im trockenen Zustand mittels Mikro Computertomographie (µCT, Porosität: 65±11–73±14 vol.-%) und Rasterelektronenmikroskopie (SEM, Porengröße: 117±28–166±32) charakterisiert. Anschließend wurden die Scaffolds unter Bedingungen charakterisiert, die für biomedizinische Anwendungen relevant sind. Die Scaffolds nahmen große Mengen Wasser auf (H: 630 1680 wt.-%) bei nur minimalen Änderungen der äußeren Dimensionen. Konfokale Laser Scanning Mikroskopie zeigte, dass die Wasseraufnahme zu einer verminderten Porengröße führte (115±47–130±49 µm), wodurch die Formstabilität erklärbar ist. Eine Formrückstellung der Scaffolds wurde beobachtet, wenn Scaffolds im nassen Zustand komprimiert wurden und dann entlastet wurden, während trockene Proben in der komprimierten Formen blieben (kalte Deformation). Dieses Entropie-elastische Verhalten der nassen Scaffolds konnte durch die Verminderung der Glasübergangstemperatur des Netzwerks nach Wasseraufnahme erklärt werden (DMTA). Die zusammensetzungsabhängigen Kompressionsmoduli (Ec: 10 50 kPa) waren mit den mikromechanischen Young’s moduli vergleichbar, die mittels Rasterkraftmikroskopie (AFM) gemessen wurden. Das hydrolytische Degradationsprofil konnte variiert werden, und während des Abbaus kam es nur zu kontrolliert-graduellen Änderungen der mechanischen Eigenschaften. Während der Degradation konnte ein Anstieg der mittleren Porengröße beobachtet werden, was durch das Verschmelzen von Poren durch den Abbau der Wände erklärt werden kann. Die Endotoxinbelastung und die Zytotoxizität der Scaffolds wurden untersucht. Humane Haut-Fibroblasten wuchsen auf und innerhalb der Scaffolds (bis zu einer Tiefe von 90 µm). Indirekte Eluat-Tests mit L929 Mausfibroblasten wurden genutzt, um die Zytotoxizität der Materialien, insbesondere den Einfluss des Quervernetzertyps und des Tensids, zu bestimmen. Vollständig biokompatible Materialien wurden erzielt, wenn LDI als Quervernetzer und PEO40 PPO20-PEO40 als Tensid verwendet wurden. Durch den Einsatz von Gelatine mit geringem Endotoxin-Gehalt, und die Synthese in einer Sterilarbeitsblank konnten Materialien für medizinische Anwendungen (Endotoxin-Gehalt < 0.5 EU/mL) hergestellt werden. KW - Hydrogele KW - Polymer-Netzwerke KW - Gelatine KW - poröse Gerüste KW - Abbau KW - regenerative Medizin KW - hydrogels KW - polymer networks KW - gelatin KW - porous scaffolds KW - degradation KW - regenerative medicine Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49727 ER - TY - THES A1 - Trompelt, Helena T1 - Production of regular and non-regular verbs : evidence for a lexical entry complexity account T1 - Produktion von regelmäßigen und unregelmäßigen Verben : Evidenz für einen Komplexitätsansatz N2 - The incredible productivity and creativity of language depends on two fundamental resources: a mental lexicon and a mental grammar. Rules of grammar enable us to produce and understand complex phrases we have not encountered before and at the same time constrain the computation of complex expressions. The concepts of the mental lexicon and mental grammar have been thoroughly tested by comparing the use of regular versus non-regular word forms. Regular verbs (e.g. walk-walked) are computed using a suffixation rule in a neural system for grammatical processing; non-regular verbs (run-ran) are retrieved from associative memory. The role of regularity has only been explored for the past tense, where regularity is overtly visible. To explore the representation and encoding of regularity as well as the inflectional processes involved in the production of regular and non-regular verbs, this dissertation investigated three groups of German verbs: regular, irregular and hybrid verbs. Hybrid verbs in German have completely regular conjugation in the present tense and irregular conjugation in the past tense. Articulation latencies were measured while participants named pictures of actions, producing the 3rd person singular of regular, hybrid, and irregular verbs in present and past tense. Studying the production of German verbs in past and present tense, this dissertation explored the complexity of lexical entries as a decisive factor in the production of verbs. N2 - Regularität spielt eine entscheidende Rolle bei der Produktion von Verben. Zweiroutenmodelle nehmen an, dass regelmäßige Formen aus Stamm und Suffixen zusammengesetzt werden und unregelmäßige Verben als ganze Form im mentalen Lexikon gespeichert sind. Ziel der Dissertation war eine ausführliche Untersuchung der Repräsentation von regelmäßigen und unregelmäßigen Verben im Deutschen sowie der morphologischen Prozesse bei ihrer Produktion. Dazu wurden drei Typen von Verben im Deutschen untersucht: Regelmäßige Verben (z.B. lachen) haben nur einen Stamm, irreguläre Verben (z.B. graben) haben mehrere Stämme und ihre Formen sind daher unvorhersagbar. Hybride Verben (z.B. singen) haben regelmäßige Formen im Präsens und unregelmäßige, unvorhersagbare im Präteritum. Besondere Berücksichtigung fand daher das Tempus bei der Generierung von Verben. Artikulationszeiten in einer Serie von Bild-Wort-Interferenzexperimenten lassen vermuten, dass Regularität nicht durch abstrakte generische Knoten repräsentiert ist wie es z.B. für Genus angenommen wird. Die Artikulationszeiten von allen drei Typen von Verben in einem weiteren Bildbenennungsexperiment haben gezeigt, dass Regularität eine Eigenschaft des gesamten Lexikoneintrags eines Verbs ist und nicht von individuellen Wortformen. Die präsentierten Daten sind eine Herausforderung für das Zweiroutenmodell (Pinker, 1999), sie sind jedoch mit einem Ansatz vereinbar, der komplexe Lexikoneinträge für unregelmäßige Verben annimmt. T3 - Spektrum Patholinguistik - Schriften - 2 KW - Sprachproduktion KW - Verben KW - Selektion KW - Flexion KW - Lexikalischer Zugriff KW - Psycholinguistik KW - language production KW - verbs KW - stem selection KW - inflection KW - lexical access KW - psycholinguistics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42120 SN - 978-3-86956-061-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Thesen, Manuel Wolfram T1 - Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren für effiziente polymere Leuchtdioden T1 - Synthesis and characterization of phosphoreszent terpolymers and nonconjugated matrixpolymers for efficient polymer light emitting diodes N2 - Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde. N2 - A new synthetic approach for the synthesis of side chain polystyrenes was established and their use as phosphorescent polymers for polymer light emitting diodes (PLEDs) is shown by experiments. An assay was introduced to clarify influences on electroluminescent behavior for RGB-colored phosphorescent terpolymers with N,N-Di-p-tolyl-aniline as hole-transporting unit, 2-(4-biphenyl)-5-(4-tert-butylphenyl)-1,3,4-oxadiazole (tert-BuPBD) as electron-transporting unit, and different iridium complexes in RGB-colors as triplet emitting materials. All monomers were attached with spacer moieties to the “para” position of a polystyrene. PLEDs were built to study the electro-optical behavior of these materials. The gist was a remarkable influence of hexyl-spacer units to the PLED performance. For all three colors only very restricted PLED performances were found. In comparison RGB-terpolymers were synthesized with directly attached charge transport materials to the polymer backbone. For this directly linked systems efficiencies were 28 cd A−1 @ 6 V (green), 4.9 cd A−1 @ 5 V (red) and 4.3 cd A−1 @ 6 V (bluish). In summary it is assumed that an improved charge percolation pathways regarding to the higher content of semiconducting molecules and an improved charge transfer to the phosphorescent dopand in the case of the copolymers without spacers are responsible for the better device performance comparing the copolymers with hexyl spacers. It was found that the approach of the directly connected charge transport materials at the nonconjugated styrene polymer backbone is favored for further investigations as shown in the following. A series of styrene derived monomers with triphenylamine-based units, and their polymers have been synthesized and compared with the well-known structure of polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine with respect to their hole-transporting behavior in PLEDs. A vinyltriphenylamine structure was selected as a basic unit, functionalized at the para positions with the following side groups: diphenylamine, 3-methylphenyl-aniline, 1- and 2-naphthylamine, carbazole, and phenothiazine. The polymers are used in PLEDs as host polymers for blend systems. It is demonstrated that two polymers are excellent hole-transporting matrix materials for these blend systems because of their good overall electroluminescent performances and their comparatively high glass transition temperatures. For the carbazole-substituted polymer (Tg = 246 °C), a luminous efficiency of 35 cd A−1 and a brightness of 6700 cd m−2 at 10 V is accessible. The phenothiazine-functionalized polymer (Tg = 220 °C) shows nearly the same outstanding PLED behavior. Hence, both these polymers outperform the well-known polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine, showing only a luminous efficiency of 7.9 cd A−1 and a brightness of 2500 cd m−2 (10 V). Furthermore, novel styrene functionalized monomers with phenylbenzo[d]imidazole units and the corresponding homopolymers are prepared. The macromolecules are used as matrices for phosphorescent dopants to prepare PLEDs. The devices exhibit current efficiencies up to 38.5 cd A−1 at 100 cd m−2 and maximum luminances of 7400 cd m−2 at 10 V. Afterwards the most efficient monomers of this investigations were combined and statistical copolymers were synthesized. As hole-transporting monomer the carbazole substituted triarylamine and as electron-transporting monomer a disubstituted phenylbenzoimidazole was selected. This statistical copolymer was used in the following as matrix material for phosporescent PLEDs and the device performance was compared with a matrix system of a polymer blend matrix system of corresponding homopolymers. With this homopolymer blend efficiencies of about 30 cd A-1 at 10 V and luminances of 6800 cd m-2 beside a decreased onset voltage were realized. Finally bipolar blockcopolymers of structural basic monomers were synthesized via nitroxide mediated polymerization. With these technique and the chosen hole- and electron-transporting monomers a controlled radical polymerization was realized leading to blockcopolymers in different block lengths. These blockcopolymers were used as molecular doped matrix systems in green phosphoreszent PLEDs. The devices were compared in regard to their performances with PLEDs made of statistical copolymers and homopolymer blends. It was found that high molecular systems show a better device performance compared to low molecular polymer matrices. With atomic force microscopy it is shown that a phase separation takes place for the high molecular blend of homopolymers. For the synthesized blockcopolymers no phase separation could be verified, mainly because of the comparatively low molecular weight of these systems. KW - phosphoreszente Terpolymere KW - Elektrolumineszenz KW - organische Licht emittierende Diode KW - Ladungstransport KW - bipolare Blockcopolymere KW - phosphorescent Terpolymers KW - electroluminsecence KW - organic light emitting diode KW - charge transport KW - bipolar blockcopolymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51709 ER - TY - THES A1 - Tessmann, Jens T1 - Die Zukunft der Kreise in Deutschland zwischen Aufgabenkooperation und Territorialreform : Rahmenbedingungen, Herausforderungen, Reformstrategien und Personalintegration als Schwerpunkt der Reformumsetzung T1 - The future of the counties (Landkreise) in Germany between public-public partnership and territorial reform : context, challenges, reform strategies and personnel integration as a focus of reform implementation N2 - Als Schnittstelle zwischen der Lokal- und der Staatsebene konnten die Landkreise ihre Stellung im politischen System Deutschlands bewahren und ausbauen. Optimierungsbedarf hat sich aufgrund des sozioökonomischen, technischen und demographischen Wandel sowie der öffentlichen Finanzkrise ergeben. Kreisgebietsreformmodelle und die Ausweitung der Aufgabenkooperation dominieren die Reformdebatte. Neben den verfassungsrechtlichen Anforderungen und der Akzeptanz der Reform bei den Betroffenen ist der Reformerfolg wesentlich von der Qualität der Umsetzungsstrategie abhängig. Der aktivierenden Einbeziehung der Mitarbeiter in den Reformprozess kommt dabei eine besondere Bedeutung zu. N2 - As an interface between the local and state level, the counties maintain and expand their position in the political system of Germany. Reasons for the improvement are the socio-economic, technological and demographic changes and the expansion of the public finance crisis. Models of territorial reforms and public-public partnerships dominate the debate. The success of these reforms is largely dependent on the constitutional conformity, acceptance of citizens and the quality of the implementation process. Employees should be involved in the design of the reform process. T3 - KWI-Gutachten - 5 KW - Landkreise KW - Kreisgebietsreform KW - Verwaltungskooperation KW - Fusionsmanagement KW - Personalintegration KW - Mecklenburg-Vorpommern KW - counties KW - district local government reform KW - administrative cooperation KW - merger management KW - human integration KW - Mecklenburg-Vorpommern Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45514 SN - 978-3-86956-080-9 ER - TY - THES A1 - Sánchez-Barriga, Jaime T1 - A photoemission study of quasiparticle excitations, electron-correlation effects and magnetization dynamics in thin magnetic systems T1 - Eine Photoemissionsstudie zu Quasiteilchenanregungen, Elektronenkorrelationseffekten und der Magnetisierungsdynamik in dünnen magnetischen Systemen N2 - This thesis is focused on the electronic, spin-dependent and dynamical properties of thin magnetic systems. Photoemission-related techniques are combined with synchrotron radiation to study the spin-dependent properties of these systems in the energy and time domains. In the first part of this thesis, the strength of electron correlation effects in the spin-dependent electronic structure of ferromagnetic bcc Fe(110) and hcp Co(0001) is investigated by means of spin- and angle-resolved photoemission spectroscopy. The experimental results are compared to theoretical calculations within the three-body scattering approximation and within the dynamical mean-field theory, together with one-step model calculations of the photoemission process. From this comparison it is demonstrated that the present state of the art many-body calculations, although improving the description of correlation effects in Fe and Co, give too small mass renormalizations and scattering rates thus demanding more refined many-body theories including nonlocal fluctuations. In the second part, it is shown in detail monitoring by photoelectron spectroscopy how graphene can be grown by chemical vapour deposition on the transition-metal surfaces Ni(111) and Co(0001) and intercalated by a monoatomic layer of Au. For both systems, a linear E(k) dispersion of massless Dirac fermions is observed in the graphene pi-band in the vicinity of the Fermi energy. Spin-resolved photoemission from the graphene pi-band shows that the ferromagnetic polarization of graphene/Ni(111) and graphene/Co(0001) is negligible and that graphene on Ni(111) is after intercalation of Au spin-orbit split by the Rashba effect. In the last part, a time-resolved x-ray magnetic circular dichroic-photoelectron emission microscopy study of a permalloy platelet comprising three cross-tie domain walls is presented. It is shown how a fast picosecond magnetic response in the precessional motion of the magnetization can be induced by means of a laser-excited photoswitch. From a comparision to micromagnetic calculations it is demonstrated that the relatively high precessional frequency observed in the experiments is directly linked to the nature of the vortex/antivortex dynamics and its response to the magnetic perturbation. This includes the time-dependent reversal of the vortex core polarization, a process which is beyond the limit of detection in the present experiments. N2 - Diese Dissertation beschäftigt sich mit den elektronischen, spinabhängigen und dynamischen Eigenschaften dünner magnetischer Systeme. Auf dem Photoeffekt basierende Untersuchungsmethoden werden zusammen mit Synchrotronstrahlung eingesetzt, um die spinabhängigen Eigenschaften dieser Systeme im Energie- und Zeitbereich zu untersuchen. Im ersten Teil dieser Arbeit wird mit spin- und winkelaufgelöster Photoemission die Stärke von Elektronenkorrelationseffekten in der spinabhängigen elektonischen Struktur von ferromagnetischerm bcc Fe(110) und hcp Co(0001) untersucht. Die experimentellen Ergebnisse werden verglichen mit theoreteischen Berechnungen im Rahmen der Näherung der Drei-Körper-Streuung und der dynamischen Molekularfeldtheorie, zusammen mit Berechnungen des Photoemissionsprozesses im Rahmen des Ein-Stufen-Modells. Ausgehend von diesem Vergleich wird gezeigt, dass die gegenwärtig fortgeschrittensten Rechnung, obgleich sie die Beschreibung von Korrelationseffekten in Fe und Co verbessern, zu kleine Massenrenormalisierungen und Streuraten ergeben, was zu der Forderung nach verfeinerten Vielteilchentheorien unter Einbeziehung von nichtlokalen Fluktuationen führt. Im zweiten Teil wird unter Kontrolle durch die Photoelektronenspektroskopie im Detail gezeigt, wie Graphen durch chemische Gasphasenabscheidung auf den Übergangsmetall-Oberflächen Ni(111) und Co(0001) aufgebracht und mit einer Monolage Au interkaliert werden kann. Für beide Systeme wird eine lineare E(k)-Dispersion masseloser Dirac-Fermionen im Graphen-pi-Band in der Nähe der Fermi-Energie beobachtet. Spinaufgelöste Photoemission des Graphen-pi-Bandes zeigt, dass die ferromagnetische Polarisation von Graphen/Ni(111) und Graphen/Co(0001) vernachlässigbar ist und dass Graphen/Ni(111) nach Interkalation mit Au eine Spin-Bahn-Aufspaltung aufgrund des Rashba-Effekts zeigt. Im letzten Teil wird eine zeitaufgelöste Studie des Röntgenzirkulardichroismus mit Photoelektronenmikroskopie präsentiert, die an einer Permalloy-Probe durchgeführt wurde, die drei als Stachelwände ausgebildete Domänenwände enthält. Es wird gezeigt, wie eine schnelle magnetische Antwort auf der Pikosekundenskala in der Präzessionsbewegung der Magnetisierung durch einen laserangesteuerten Photoschalter erzeugt werden kann. Durch Vergleich mit einer mikromagnetischen Rechnung wird gezeigt, dass die relativ hohe Präzessionsfrequenz, die im Experiment beobachtet wird, in unmittelbarer Beziehung steht zu den Eigenschaften der Vortex/Antivortex-Dynamik und ihrer Antwort auf die magnetische Störung. Das schließt die zeitabhängige Umkehr der Vortexkernpolarisation ein, einem Vorgang der jenseits der Nachweisgrenze der gegenwärtigen Experimente liegt. KW - Spin- und winkelaufgelöste Photoemission KW - Photoelektronenmikroskopie KW - Eisen KW - Kobalt KW - Graphen KW - Rashba-Effekt KW - Spinwellen KW - Synchrotronstrahlung KW - spin- and angle-resolved photoemission KW - photoelectron microscopy KW - iron KW - cobalt KW - graphene KW - Rashba effect KW - spin waves KW - synchrotron radiation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48499 ER - TY - THES A1 - Stöckle, Silke T1 - Thin liquid films with nanoparticles and rod-like ions as models for nanofluidics T1 - Dünne flüssige Filme mit Nanopartikeln und stäbchenförmigen Ionen als Nanofluidische Modelle N2 - With the rise of nanotechnology in the last decade, nanofluidics has been established as a research field and gained increased interest in science and industry. Natural aqueous nanofluidic systems are very complex, there is often a predominance of liquid interfaces or the fluid contains charged or differently shaped colloids. The effects, promoted by these additives, are far from being completely understood and interesting questions arise with regards to the confinement of such complex fluidic systems. A systematic study of nanofluidic processes requires designing suitable experimental model nano – channels with required characteristics. The present work employed thin liquid films (TLFs) as experimental models. They have proven to be useful experimental tools because of their simple geometry, reproducible preparation, and controllable liquid interfaces. The thickness of the channels can be adjusted easily by the concentration of electrolyte in the film forming solution. This way, channel dimensions from 5 – 100 nm are possible, a high flexibility for an experimental system. TLFs have liquid IFs of different charge and properties and they offer the possibility to confine differently shaped ions and molecules to very small spaces, or to subject them to controlled forces. This makes the foam films a unique “device” available to obtain information about fluidic systems in nanometer dimensions. The main goal of this thesis was to study nanofluidic processes using TLFs as models, or tools, and to subtract information about natural systems plus deepen the understanding on physical chemical conditions. The presented work showed that foam films can be used as experimental models to understand the behavior of liquids in nano – sized confinement. In the first part of the thesis, we studied the process of thinning of thin liquid films stabilized with the non – ionic surfactant n – dodecyl – β – maltoside (β – C₁₂G₂) with primary interest in interfacial diffusion processes during the thinning process dependent on surfactant concentration 64. The surfactant concentration in the film forming solutions was varied at constant electrolyte (NaCl) concentration. The velocity of thinning was analyzed combining previously developed theoretical approaches. Qualitative information about the mobility of the surfactant molecules at the film surfaces was obtained. We found that above a certain limiting surfactant concentration the film surfaces were completely immobile and they behaved as non – deformable, which decelerated the thinning process. This follows the predictions for Reynolds flow of liquid between two non – deformable disks. In the second part of the thesis, we designed a TLF nanofluidic system containing rod – like multivalent ions and compared this system to films containing monovalent ions. We presented first results which recognized for the first time the existence of an additional attractive force in the foam films based on the electrostatic interaction between rod – like ions and oppositely charged surfaces. We may speculate that this is an ion bridging component of the disjoining pressure. The results show that for films prepared in presence of spermidine the transformation of the thicker CF to the thinnest NBF is more probable as films prepared with NaCl at similar conditions of electrostatic interaction. This effect is not a result of specific adsorption of any of the ions at the fluid surfaces and it does not lead to any changes in the equilibrium properties of the CF and NBF. Our hypothesis was proven using the trivalent ion Y3+ which does not show ion bridging. The experimental results are compared to theoretical predictions and a quantitative agreement on the system’s energy gain for the change from CF to NBF could be obtained. In the third part of the work, the behavior of nanoparticles in confinement was investigated with respect to their impact on the fluid flow velocity. The particles altered the flow velocity by an unexpected high amount, so that the resulting changes in the dynamic viscosity could not be explained by a realistic change of the fluid viscosity. Only aggregation, flocculation and plug formation can explain the experimental results. The particle systems in the presented thesis had a great impact on the film interfaces due to the stabilizer molecules present in the bulk solution. Finally, the location of the particles with respect to their lateral and vertical arrangement in the film was studied with advanced reflectivity and scattering methods. Neutron Reflectometry studies were performed to investigate the location of nanoparticles in the TLF perpendicular to the IF. For the first time, we study TLFs using grazing incidence small angle X – ray scattering (GISAXS), which is a technique sensitive to the lateral arrangement of particles in confined volumes. This work provides preliminary data on a lateral ordering of particles in the film. N2 - Mit dem Heranwachsen der Nanotechnologie in den vergangenen zehn Jahren hat sich die Nanofluidik als Forschungsbereich etabliert und erfährt wachsende Aufmerksamkeit in der Wissenschaft, sowie auch in der Industrie. Im biomedizinischen Bereich, wo intrazelluläre Prozesse häufig komplexer, nanofluidischer Natur sind, wird sich vermehrt für ein detailliertes Verständnis von nanofluidischen Prozessen interessiert, z.B. für den Einfluss von Kolloiden verschiedenster Form oder elektrischer Ladung auf die Kanäle und auf das Fließverhalten oder die Auswirkungen der Einengung von Flüssigkeiten und Kolloiden in Nanometer Geometrien. In der vorliegenden Arbeit werden dünne flüssige Filme, hinsichtlich ihrer Funktion als nanofluidische Modelle untersucht. Im ersten Teil der Arbeit wurde die Fließgeschwindigkeit des Fluids aus dem dünnen Film, abhängig von der Konzentration der filmstabilisierenden Tensidmoleküle n – Dodecyl β – D – Maltoside ( β – C₁₂G₂) bei einer konstanten Elektrolytkonzentration von 0.2 mM NaCl untersucht. Mit einem theoretischen Modell konnte das Dünnungsverhalten nachgezeichnet werden. Es wurde eine kritische Tensidkonzentration gefunden, unter der die Oberflächen lateral mobil sind und über der sie sich wie fest verhalten. Dadurch konnten wir Aufschluss darüber erlangen, wie die Oberfläche des Films unter verschiedenen Bedingungen geschaffen ist, und das in Bezug zur Verteilungsdichte der Moleküle an den Oberflächen setzen. Im weiteren wurden komplexere, nanofluidische Systeme untersucht, wobei zum einen ~ 1 nm lange, stäbchenförmige, multivalent geladene Spermidin - Moleküle die punktförmigen Elektrolyte ersetzten. Es konnte eine deutliche Veränderung der Stabilität zwischen Filmen mit und ohne Stäbchen festgestellt werden. Die Filme, mit NaCl, blieben länger in dem metastabilen „Common Film“ (CF) Zustand als die Filme, die eine vergleichbare Konzentration von Spermidin Stäbchen beinhalteten. Die Ergebnisse deuteten auf eine zusätzliche Anziehungskraft durch Brückenbildung zwischen zwei geladenen Oberflächen durch gegensätzlich geladene Stäbchenförmige Moleküle hin. Es konnte gezeigt werden, dass dieser Effekt weder ein Ergebnis von spezifischer Ionenadsorption an die Filmoberfläche war, noch ein Unterschied in den Gleichgewichtszuständen von den Dicken der CFs und der Newton Black Films (NBFs) hervorrief, was auf die korrekte Annahme der Ionenstärke in der Lösung schließen ließ. Auch in Versuchen mit ebenfalls trivalenten Ionen YCl3 wurde festgestellt, dass kein vergleichbarer Überbrückungseffekt auftritt. Die Ergebnisse wurden mit theoretischen Simulationen verglichen und es wurde eine quantitative Übereinstimmung gefunden bezüglich der Größe des Systeminternen Energiegewinns durch den Überbrückungseffekt. Desweiteren wurde das Fließverhalten von Fluiden mit Kolloiden eingeengt in Nanometer Geometrien untersucht. Für zwei verschiedene Arten von Nanopartikeln (Fe3O4 stabilisiert mit Oleinsäure und polymerstabilisierte Goldpartikel) wurde eine Verlangsamung der Fließgeschwindigkeit festgestellt. Mit einem theoretischen Modell konnte das Fließverhalten nur für enorm erhöhte Viskositätswerte des Fluids erklärt werden. Die Viskositätserhöhung wurde mit Partikelaggregaten, die den Ausfluss behindern, erklärt und diskutiert, unter der Annahme eines nicht - Newtonischen Fließverhaltens der Dispersionen. Gleichermaßen wurde die strukturelle Anordnung der Partikel in den Filmen hinsichtlich ihrer vertikalen und lateralen Verteilung untersucht. In dieser Arbeit werden vorläufige Ergebnisse präsentiert, die noch weiteren Studien bedürfen. Mit Neutronenreflexion sollte die Anordnung der Partikel orthogonal zur Oberfläche im Film analysiert werden. Eine qualitative Analyse lässt schließen, dass bei einer höheren Konzentration von Partikeln in Lösung, sich auch eine erhöhte Konzentration von Partikeln im dünnen Film befindet. Leider konnten die Daten nicht hinsichtlich der Lage der Partikel analysiert werden. Zum ersten Mal wurden dünne flüssige Filme mit Kleinwinkelröntgenstreuung unter streifendem Einfall (GISAXS) analysiert. Mit Hilfe dieser Methode sollte eine laterale Anordnung der Partikel im Film untersucht werden. Es konnten erfolgreiche Messungen durchgeführt werden und mit Hilfe der rechnergestützten Analyse konnte eine Aussage gemacht werden, dass ~ 6 nm große Teilchen in ~ 43 nm Abstand sich im Film befinden. Die Aussage bezüglich der kleinen Teilchen könnte sich auf einzelne, kleinere Partikel beziehen, allerdings könnten auch die 43 nm eine relevante Strukturgröße darstellen, da es in der Dispersion gehäuft Aggregate mit dem Durchmesser in dem Größenbereich vorliegen. Zusammenfassend können sich mit dieser Arbeit die dünnen flüssigen Filme als eine wichtige Kernmethode der Untersuchung von nanofluidischen Prozessen, wie sie häufig in der Natur vorkommen, behaupten. KW - Nanofluidik KW - Schaumfilme KW - Spermidin KW - Nanopartikel KW - Oberflächenkräfte KW - nanofluidics KW - foam films KW - spermidine KW - nanoparticles KW - interfacial forces Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46370 ER - TY - THES A1 - Strollo, Angelo T1 - Development of techniques for earthquake microzonation studies in different urban environment T1 - Entwicklung von Techniken für Mikrozonierungsstudien von Erdbeben in verschiedenen städtischen Umgebungen N2 - The proliferation of megacities in many developing countries, and their location in areas where they are exposed to a high risk from large earthquakes, coupled with a lack of preparation, demonstrates the requirement for improved capabilities in hazard assessment, as well as the rapid adjustment and development of land-use planning. In particular, within the context of seismic hazard assessment, the evaluation of local site effects and their influence on the spatial distribution of ground shaking generated by an earthquake plays an important role. It follows that the carrying out of earthquake microzonation studies, which aim at identify areas within the urban environment that are expected to respond in a similar way to a seismic event, are essential to the reliable risk assessment of large urban areas. Considering the rate at which many large towns in developing countries that are prone to large earthquakes are growing, their seismic microzonation has become mandatory. Such activities are challenging and techniques suitable for identifying site effects within such contexts are needed. In this dissertation, I develop techniques for investigating large-scale urban environments that aim at being non-invasive, cost-effective and quickly deployable. These peculiarities allow one to investigate large areas over a relative short time frame, with a spatial sampling resolution sufficient to provide reliable microzonation. Although there is a negative trade-off between the completeness of available information and extent of the investigated area, I attempt to mitigate this limitation by combining two, what I term layers, of information: in the first layer, the site effects at a few calibration points are well constrained by analyzing earthquake data or using other geophysical information (e.g., shear-wave velocity profiles); in the second layer, the site effects over a larger areal coverage are estimated by means of single-station noise measurements. The microzonation is performed in terms of problem-dependent quantities, by considering a proxy suitable to link information from the first layer to the second one. In order to define the microzonation approach proposed in this work, different methods for estimating site effects have been combined and tested in Potenza (Italy), where a considerable amount of data was available. In particular, the horizontal-to-vertical spectral ratio computed for seismic noise recorded at different sites has been used as a proxy to combine the two levels of information together and to create a microzonation map in terms of spectral intensity ratio (SIR). In the next step, I applied this two-layer approach to Istanbul (Turkey) and Bishkek (Kyrgyzstan). A similar hybrid approach, i.e., combining earthquake and noise data, has been used for the microzonation of these two different urban environments. For both cities, after having calibrated the fundamental frequencies of resonance estimated from seismic noise with those obtained by analysing earthquakes (first layer), a fundamental frequency map has been computed using the noise measurements carried out within the town (second layer). By applying this new approach, maps of the fundamental frequency of resonance for Istanbul and Bishkek have been published for the first time. In parallel, a microzonation map in terms of SIR has been incorporated into a risk scenario for the Potenza test site by means of a dedicated regression between spectral intensity (SI) and macroseismic intensity (EMS). The scenario study confirms the importance of site effects within the risk chain. In fact, their introduction into the scenario led to an increase of about 50% in estimates of the number of buildings that would be partially or totally collapsed. Last, but not least, considering that the approach developed and applied in this work is based on measurements of seismic noise, their reliability has been assessed. A theoretical model describing the self-noise curves of different instruments usually adopted in microzonation studies (e.g., those used in Potenza, Istanbul and Bishkek) have been considered and compared with empirical data recorded in Cologne (Germany) and Gubbio (Italy). The results show that, depending on the geological and environmental conditions, the instrumental noise could severely bias the results obtained by recording and analysing ambient noise. Therefore, in this work I also provide some guidelines for measuring seismic noise. N2 - Aufgrund des enormen Wachstums neuer Megastädte und deren Vordringen in gefährdete Gebiete auf der einen Seite sowie der mangelnden Erdbebenvorsorge in vielen Entwicklungsländern auf der anderen Seite sind verbesserte Verfahren für die Beurteilung der Gefährdung sowie eine rasche Umsetzung bei der Raumplanung erforderlich. Im Rahmen der seismischen Gefährdungsabschätzung spielt insbesondere die Beurteilung lokaler Standorteffekte und deren Einfluss auf die durch ein Erdbeben verursachte räumliche Verteilung der Bodenerschütterung eine wichtige Rolle. Es ist daher unabdingbar, mittels seismischer Mikrozonierungsstudien diejenigen Bereiche innerhalb dicht besiedelter Gebiete zu ermitteln, in denen ein ähnliches Verhalten im Falle seismischer Anregung erwartet wird, um daraus eine zuverlässige Basis bei der Risikoabschätzung großer städtischer Gebiete zu erhalten. Aufgrund des schnellen Wachstums vieler Großstädte in Entwicklungsländern ist eine seismische Mikrozonierung zwingend erforderlich, stellt aber auch eine große Herausforderung dar; insbesondere müssen Verfahren verfügbar sein, mit deren Hilfe rasch eine Abschätzung der Standorteffekte durchgeführt werden kann. In der vorliegenden Arbeit entwickle ich daher Verfahren für die Untersuchung in Großstädten, die darauf abzielen, nicht-invasiv, kostengünstig und schnell durchführbar zu sein. Damit lassen sich innerhalb eines relativ kurzen Zeitraums große Gebiete untersuchen, falls der räumlichen Abstand zwischen den Messpunkten klein genug ist, um eine zuverlässige Mikrozonierung zu gewährleisten. Obwohl es eine gegenläufige Tendenz zwischen der Vollständigkeit aller Informationen und der Größe des untersuchten Gebiets gibt, versuche ich, diese Einschränkung durch Verknüpfung zweier Informationsebenen zu umgehen: In der ersten Ebene werden die Standorteffekte für einige Kalibrierungspunkte durch die Analyse von Erdbeben oder mittels anderer geophysikalischer Datensätze (z.B. Scherwellengeschwindigkeitsprofile) bestmöglich abgeschätzt, in der zweiten Ebene werden die Standorteffekte durch Einzelstationsmessungen des seismischen Rauschens für ein größeres Gebiet bestimmt. Die Mikrozonierung erfolgt hierbei mittels spezifischer, fallabhängiger Parameter unter Berücksichtigung eines geeigneten Anknüpfungspunktes zwischen den beiden Informationensebenen. Um diesen Ansatz der Mikrozonierung, der in dieser Arbeit verfolgt wurde, zu präzisieren, wurden in Potenza (Italien), wo eine beträchtliche Menge an Daten verfügbar war, verschiedene Verfahren untersucht. Insbesondere kann das Spektralverhältnis zwischen den horizontalen und vertikalen Seismometerkomponenten, welche für das seismische Rauschen an mehreren Orten aufgenommen wurde, als eine erste Näherung für die relative Verstärkung der Bodenbewegung verwendet werden, um darauf aufbauend die beiden Informationsebenen zu verknüpfen und eine Mikrozonierung hinsichtlich des Verhältnisses der spektralen Intensität durchzuführen. Anschließend führte ich diesen Zwei-Ebenen-Ansatz auch für Istanbul (Türkei) und Bischkek (Kirgisistan) durch. Für die Mikrozonierung dieser beiden Städte habe ich denselben Hybridansatz, der Daten von Erdbeben und von seismischem Rauschen verbindet, verwendet. Für beide Städte wurde nach Gegenüberstellung der Resonanzfrequenz des Untergrunds, die zum einen mit Hilfe des seismischen Rauschens, zum anderen durch Analyse von Erdbebendaten bestimmt worden ist (erste Ebene), eine Karte der Resonanzfrequenz unter Verwendung weiterer Messungen des seismischen Rauschens innerhalb des Stadtgebiets erstellt (zweite Ebene). Durch die Anwendung dieses neuen Ansatzes sind vor kurzem zum ersten Mal auch Karten für die Resonanzfrequenz des Untergrunds für Istanbul und Bischkek veröffentlicht worden. Parallel dazu wurde für das Testgebiet in Potenza eine auf dem spektralen Intensitätsverhältnis (SIR) basierende Mikrozonierungskarte in ein Risikoszenario mittels der Regression zwischen SIR und makroseismischer Intensität (EMS) integriert. Diese Szenariostudie bestätigt die Bedeutung von Standorteffekten innerhalb der Risikokette; insbesondere führt deren Einbeziehung in das Szenario zu einem Anstieg von etwa 50% bei der Zahl der Gebäude, für die ein teilweiser oder gar vollständiger Zusammenbruch erwartet werden kann. Abschließend wurde der im Rahmen dieser Arbeit entwickelte und angewandte Ansatz auf seine Zuverlässigkeit geprüft. Ein theoretisches Modell, das zur Beschreibung des Eigenrauschens verschiedener Instrumente, die in der Regel in Mikrozonierungsstudien (z. B. in Potenza, Istanbul und Bischkek) zum Einsatz kommen, wurde untersucht, und die Ergebnisse wurden mit Daten verglichen, die vorher bereits in Köln (Deutschland) und Gubbio (Italien) aufgenommen worden waren. Die Ergebnisse zeigen, dass abhängig von den geologischen und umgebenden Bedingungen das Eigenrauschen der Geräte die Ergebnisse bei der Analyse des seismischen Rauschens stark verzerren kann. Deshalb liefere ich in dieser Arbeit auch einige Leitlinien für die Durchführung von Messungen des seismischen Rauschens. KW - instrumentelle Seismologie KW - Standorteffekte KW - Korrelation KW - seismische Rauschen KW - instrumental seismology KW - site effects KW - correlation KW - seismic noise Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53807 ER - TY - THES A1 - Strohm, Daniela T1 - Modulation der Insulinsignalgebung durch Prostaglandin E2 und Endocannabinoide T1 - Modulation of insulin signaling by prostaglandin E2 and endocannabinoids N2 - Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte. N2 - The obesity related insulin resistance is accompanied by a low grade inflammation. In response to inflammatory stimuli, PGE2 is released from Kupffer cells and signals through four G-Protein coupled PGE2-receptors (EP1-EP4). Previous work showed that PGE2 attenuated insulin signaling in rat hepatocytes through an EP3ß- and ERK1/2-dependent mechanism. Since EP-receptor expression on hepatocytes varies between species and physiological conditions, the effect of the individual EP receptor subtypes on insulin signaling was studied in hepatoma cell lines expressing individual EP receptor subtypes. HepG2 cells lacking functional EP-receptors, and derivatives stably expressing either EP1 receptor (HepG2-EP1), EP3ß receptor (HepG2-EP3ß) or EP4 receptor (HepG2-EP4) and Fh-hTert cells expressing EP2- and EP4-receptor were pre-incubated with PGE2 for 330 min to mimic the sub-acute inflammation. The cells were subsequently stimulated with insulin for 15 min. Akt and ERK1/2 activation was determined by Western Blotting with phospho-specific antibodies. PGE2 inhibited insulin stimulated Akt phosphorylation in all cell lines expressing EP receptors, except in HepG2 cells which are lacking functional EP receptors. PGE2 increased insulin stimulated phosphorylation of the serine/threonine kinase ERK1/2 in all EP R expressing HepG2 cell lines except in Fh-hTert cells. In HepG2-EP1 and HepG2 EP3ß cells PGE2 increased the serine phosphorylation of the insulin receptor substrate, presumably through an ERK1/2 activation. This IRS-serine phosphorylation leads to attenuation of insulin signal transduction. Inhibiting ERK1/2 activation with a specific inhibitor attenuated the PGE2-dependent inhibition of insulin signal transmission in HepG2 EP3ß cells to some extent. ERK1/2 activation in these cells seems to be of major importance for the observed attenuation of insulin stimulated Akt phosphorylation. Application of inhibitors in the other cell lines stably expressing EP receptors provided evidence that other mechanisms contributed to the attenuation of insulin signaling. Insulin signal transduction in Fh-hTert cells by PGE2 was apparently blocked by an ERK1/2-independent mechanism. Increased PGE2 production during obesity is not limited to the periphery. Signs of inflammation have been detected in the hypothalamus, which might be associated with an increased PGE2 production. Therefore, the EP receptor profile of primary neurons as well as neuronal cell models was characterised in order to investigate, whether PGE2 attenuates insulin signal transduction in neuronal cells similar to what was observed in hepatocytes. Pre-incubation with PGE2 did not attenuate insulin stimulated Akt phosphorylation in all neuronal cells. The EP receptor profile in SH SY5Y cells and in primary neurons varied depending on the differentiation status of the cells. Although Akt-kinase was phosphorylated in response to insulin stimulation in all neuronal cells studied, gene expression of insulin target genes (POMC, AgRP) was not modulated by insulin. This might be due to the low level of differentiation of the investigated cells. In the course of obesity, an over-activation of the endocannabinoid system is detected. Since endocannabinoid receptors are related to EP receptors, it was investigated whether endocannabinoids can interfere with insulin signaling in a similar way as PGE2. Pre-incubation of the neuronal cell line N 41 for 330 min with an endocannabinoid receptor agonist, increased insulin stimulated Akt phosphorylation. This implies an insulin sensitising effect of endocannabinoids. This is contradictory to the endocannabinoid-dependent insulin resistance described in the literature and might be caused by indirect endocannabinoid-triggered mechanisms. KW - Insulin KW - Prostaglandin E2 KW - Endocannabinoide KW - Signalübertragung KW - Insulin KW - prostaglandin E2 KW - endocannabinoids KW - signal transduction Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49678 ER - TY - THES A1 - Strehmel, Nadine T1 - GC-TOF-MS basierte Analyse von niedermolekularen Primär- und Sekundärmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen T1 - GC-TOF-MS based metabolite profiling of low molecular weight primary and secondary metabolites of agricultural meaningful crops N2 - Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde. N2 - Several factors influence the quality of crops. These include particular storage conditions and cultivar properties. Minimization of quality defects requires the employment of comprehensive metabolic analysis to enhance the marketing potential of crops. From this point of view chromatographic techniques coupled either with a mass spectrometer or the combination with nuclear magnetic resonance spectroscopy have been successfully applied to solve the main tasks. In the present work, a gas chromatograph was coupled to a time of flight mass spectrometer (GC-TOF-MS) to analyze physiological processes and attitudes of crops like black spot bruising, chips tanning, physiological aging, and sprouting inhibition. For this purpose the potato tuber was employed as a model plant. Therefore, new analytical approaches were developed comprising the targeted analysis of a multitude of samples, the establishment of a comprehensive mass spectral reference library and the built up of a secure archival storage system. Furthermore, the sample preparation protocol was modified to analyze trace components with the help of GC-TOF-MS as well. This helped to extend the discovery of more endogenous metabolites. These analytical approaches were required to identify physiological relevant indicative and predictive metabolites. Consequently, a biochemical model was build up for the process of black spot bruising and chips tanning respectively. These models could be applied to an unknown breeding progeny. Metabolites of the respiratory chain were identified as relevant for the process of black spot bruising whereas amino acids, lipids and phenylpropanoids were of high importance for the process of physiological aging.  The process of physiological aging could be accelerated while applying higher temperatures and could be delayed while applying sprouting inhibitors, like caraway oil and chlorpropham. Compared to chlorpropham, caraway oil exhibited more advantages with respect to storage attitudes although it caused significant changes in the amino acid, sugar and secondary metabolism during a common storage period. However, the chlorpropham treated tubers showed a similar phenotype in comparison to the control tubers. In addition, several methods were developed with respect to the classification of yet unidentified signals. These cover the decision tree process, the targeted enrichment and depletion of specific metabolites with the help of solid phase extraction and the paired NMR and GC-MS analyses. The paired NMR and GC-MS analysis appears very promising because it allows for the identification of unknown GC-MS signals. Thus, this work makes a valuable contribution to the analytics of the metabolome, as new metabolites could be identified which are of physiological relevance for the potato tuber. KW - Stoffwechselprodukt KW - Kartoffelknolle KW - Identifizierung KW - analytische Lösungsansätze KW - Biomarker KW - metabolite KW - potato tuber KW - identification KW - analytical approaches KW - biomarker Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51238 ER - TY - THES A1 - Stock, Maria T1 - Charakterisierung der troposphärischen Aerosolvariabilität in der europäischen Arktis T1 - Characterization of tropospheric aerosol variability in the european Arctic N2 - Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden. N2 - On the base of sun photometer measurements conducted at three different research stations (AWIPEV/Koldewey in Ny-Ålesund (78.923 °N, 11.923 °E) 1995-2008, 35. Northpole Drifting Station – NP-35 (84.3–85.5 °N, 41.7–56.6 °E) March/April 2008, Sodankylä (67.37 °N, 26.65 °E) 2004-2007) the aerosol variability in the european Arctic and their cause is analyzed. The main focus is to quantify the correlation between the measured aerosol parameters (aerosol optical depth, Angström coefficient, etc.) and the transport of aerosol from Europe and Russia on short timescales (days) as well as on long timescales (months, years). For the short timescales 5-day backward trajectories were calculated with the trajectory model PEP-Tracer at three different starting heights (850 hPa, 700 hPa, 500 hPa) four times the day (00:00, 06:00, 12:00, 18:00 UTC). Afterwards the non-hierarchical cluster method k-means is used to group the backward trajectories in differend aerosol source regions and allocate to the respective sun photometer measurements. This allocation of aerosol source region and sun photometer measurements does not show a correlation between polluted air mass of european or russian/asian origin and enhanced aerosol optical depth. However, in one case (March 2008) a clear influence of anthropogenic aerosol on the photometer measurements occurs. In March 2008, aerosol originating at forest fires in southeast Russia was transported into the Arctic and detected over NP-35 as well as Ny-Ålesund. Furthermore, the EOF method is used to verify if large-scale atmospheric circulation patterns determine the arctic aerosol variability. However, the connection to the sun photometer measurements is very weak except for seasonal variability. It is shown, that in spring-time due to the Iclandic low and the Siberian high, air masses from Europe and Russia as well as a strong high pressure system at Greenland and most parts of the Arctic cause higher aerosol optical depths in Ny-Ålesund. The transition from spring to summer aerosol concentration can at least partially be assigned to the replacement of the stable polar high in winter and spring by low pressure systems in summer. In addition to the transport pattern, chemical composition of the scattering aerosol in Ny-Ålesund was deduced from measurements by the Zeppelin station at the Zeppelin mountain (474m above sea level) near Ny-Ålesund. A clear positive correlation between sulfate and black carbon concentration was found. Both chemicals are mostly emitted through anthropogenic processes (e.g. combustion). The verifiable anthropogenic influence on the composition of arctic aerosols disagree with the missing linkage of transport from industrial regions to aerosol optical depth. It can only be explained by one or more transformation processes (e.g. nucleation of sulfuric acid) during the transport from the source regions (Europe, Russia) to the Arctic. KW - Aerosol KW - Arktis KW - Trajektorien KW - EOF KW - Luftmassentransport KW - aerosol KW - Arctic KW - trajectories KW - EOF KW - air mass transport Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49203 ER - TY - THES A1 - Sieber, Matthias T1 - Modulatoren des Calcineurin-NFATc-Signalweges in humanen TH-Zellen T1 - Modulators of the calcineurin-NFATc signalling pathway in human T helper cells N2 - Die Ca2+/Calmodulin-aktivierte Serin/Threonin-Phosphatase Calcineurin ist ein Schlüsselmolekül des T-Zell-Rezeptorabhängigen Signalnetzwerkes. Calcineurin aktiviert die Transkriptionsfaktoren der NFATc-Familie durch Dephosphorylierung und reguliert darüber die Expression wichtiger Zytokine und Oberflächenproteine. Die Aktivität von Calcineurin wird durch zahlreiche endogene Proteine moduliert und ist Angriffspunkt der immunsuppressiven Substanzen Cyclosporin A und FK506. In dieser Arbeit wurde der alternative niedermolekulare Calcineurin-NFATc-Inhibitor NCI3 hinsichtlich seiner Effekte auf T-Zell-Rezeptor-abhängige Signalwege charakterisiert. Die Ergebnisse zeigen, daß das Pyrazolopyrimidinderivat NCI3 nichttoxisch und zellmembranpermeabel ist. In T-Zell-Rezeptor-stimulierten primären humanen TH-Zellen unterdrückt NCI3 die Proliferation und IL-2-Produktion (IC50-Wert ~4 µM), da die Dephosphorylierung von NFATc und die anschließende nukleäre Translokation gehemmt wird. NCI3 inhibiert die calcineurinabhängige NFAT- und NF-κB-, aber nicht die AP-1-kontrollierte Reprtergenexpression, in mikromolaren Konzentrationen (IC50-Werte 2 bzw. 7 µM). Im Gegensatz zu Cyclosporin A stört NCI3 nicht die Phosphataseaktivität von Calcineurin, sondern interferiert mit der Calcineurin-NFATc-Bindung. Ein wichtiges endogenes Modulatorprotein für die Calcineurinaktivität ist RCAN1, das vermutlich den Calcineurin-NFATc-Signalweg über einen negativen Rückkopplungsmechanismus reguliert. Hier wurde gezeigt, daß RCAN1 in humanen TH-Zellen exprimiert wird. Die Spleißvariante RCAN1-1 ist in ruhenden T-Zellen basal exprimiert und wird nicht durch T-Zell-Rezeptor-Stimulierung in seiner Expression verändert. RCAN1-4 dagegen ist in ruhenden Zellen kaum zu detektieren und wird stimulierungsabhängig induziert. Durch die Verwendung Calcineurin-NFATc-spezifischer Inhibitoren wie NCI3 wurde gezeigt, daß die RCAN1-4-Induktion durch diesen Signalweg limitiert ist. Die in dieser Arbeit gewonnenen Daten und Erkenntnisse tragen dazu bei, das Verständnis der Funktion und Regulation von Calcineurin in T-Zellen zu vertiefen. N2 - The Ca2+/calmodulin dependent serine/threonine phosphatase calcineurin is a key molecule in the T cell receptor dependent signalling network. Calcineurin dephosphorylates and thereby activates the transcription factors of the NFATc family that, among others, control the expression of important cytokines and cell surface molecules. The activity of Calcineurin is modulated by several endogenous proteins and is inhibited by the immunosuppressants cyclosporine A and FK506. Here, the novel low molecular weight inhibitor NCI3 was characterized in respect to its effects on T cell receptor dependent signalling. The results of this work show, that the pyrazolopyrimidine derivate NCI3 is nontoxic and permeates the cell membrane. Upon TCR stimulation NCI3 suppresses T cell proliferation and IL-2 production of primary human TH cells with IC50 values of ~4 µM by blocking the dephosphorylation and subsequent nuclear translocation of NFATc. NCI3 conse-quently inhibits calcineurin dependent NFAT- and NF-κB-, but not AP-1-controlled reporter gene expression, in micromolar concentrations (IC50 values 2 and 7 µM, respectively). In opposite to cyclosporine A and FK506, NCI3 does not interfere with the phosphatase activity of calcineurin but rather disturbs the calcineurin-NFATc interaction. A major endogenous modulator of calcineurin is the protein RCAN1, which is supposed to regulate calcineurin-NFATc signalling in a negative feedback loop. The presented data show that RCAN1 is expressed in human TH cells. The splice variant RCAN1-1 is basally expressed in resting T cells, and its expression levels are not changed by T cell receptor stimulation. Expression of RCAN1-4, on the other hand, is nearly undetectable in resting TH cells and is induced upon cell stimulation. By using calcineurin-NFATc specific inhibitors such as NCI3 it could be shown that RCAN1-4 induction is limited by this pathway. This work provides a comprehensive characterization of the novel inhibitor NCI3 and insights into the regulation of calcineurin by RCAN1 in human TH cells. KW - Calcineurin KW - NFAT KW - RCAN1 KW - Cyclosporin A KW - NCI3 KW - calcineurin KW - NFAT KW - RCAN1 KW - cyclosporin A KW - NCI3 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44676 ER - TY - THES A1 - Shirzaei, Manoochehr T1 - Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling T1 - Monitoring der Quellen von Krustendeformationen mit Hilfe modernster InSAR Zeitreihen und zeitabhängiger inverser Modellierung N2 - Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems. N2 - Oberflächendeformationen können eine Folge von vulkanischen und tektonischen Aktivitäten sein, wie etwa Plattenverschiebungen oder Magmaintrusion. Die Deformation der Erdkruste kann einem Erdbeben oder einem Vulkanausbruch vorausgehen und/oder folgen. Um damit drohende Gefahren für den Menschen zu verringern, ist die kontinuierliche Beobachtung von Krustendeformationen eine wichtige Aufgabe für Erdobservatorien und Fast-Responce-Systems geworden. Auf Grund des starken nicht-linearen Verhaltens von Oberflächendeformationsgebiet in Zeit und Raum, die mit konventionellen Methoden nicht immer erfasst werden (z.B., Nivellements), sind innovative Beobachtungs- und Analysetechniken erforderlich. In dieser Dissertation beschreibe ich Methoden, welche durch Mehrfachbeobachtungen der Erdoberfläche nit satellitengestützem Radar eine präzise und akkurate Abbildung der raumzeitlichen Oberflächendeformationen ermöglichen. Um die Bildung und Entwicklung von solchen raumzeitlichen Deformationsgebieten besser zu verstehen, zeige ich weiterhin neuartige Ansätze zur statischen und zeitabhängigen Modellinversion. Radar-Interferogramme weisen häufig Gebiete auf, in denen das Phasensignal dekorreliert und durch atmosphärische Laufzeitverzögerung verzerrt ist. In dieser Arbeit beschreibe ich wie Probleme des konventionellen InSAR überwunden werden können, indem fortgeschrittene InSAR-Methoden, wie das Permanent Scatterer InSAR (PSI) und Small Baseline Subsets (SBAS), mit einer Wavelet-basierten Datenfilterung verknüpft werden. Diese neuartige Analyse von InSAR Zeitreihen wird angewendet, um zum Beispiel nicht-lineare Deformationsprozesse auf Hawaii zu überwachen. Radar-Phasenänderungen, gemessen auf der Pazifikinsel, beruhen auf Magmaintrusion, Vulkaneruption, Erdbeben und Flankenbewegungsprozessen, welche durch signifikante Artefakte (z.B. atmosphärische) überlagert werden. Mit Hilfe der neuen InSAR-Analyse wurde ein Deformationsgebiet ermittelt, welches eine gute Übereinstimmung mit kontinuierlich gemessenen GPS-Daten aufweist. Auf der Grundlage eines solchen, mit hoher Genauigkeit gemessenen, raumzeitlichen Deformationsgebiets wird für Hawaii eine zeitabhängige Modellierung der Deformationsquelle ermöglicht. Konventionelle Methoden zur Modellierung von Deformationsquellen arbeiten normalerweise mit statischen Daten der Deformationsgebiete. Doch um die Dynamik einer Deformationsquelle zu untersuchen, sind hoch entwickelte zeitabhängige Optimierungsansätze notwendig. Dieses Problem bin ich durch eine Kombination von Monte-Carlo-basierten Optimierungsansätzen mit Kalman-Filtern angegangen, womit zeitlich konsistente Modellparameter der Deformationquelle gefunden werden. Ich fand auf der Insel Hawaii mehrere, raumzeitlich interagierende Deformationsquellen, etwa Vulkaninflation verknüpft mit Kluftbildungen und Veränderungen in bestehenden Klüften sowie zeitliche Korrelationen mit stillen Erdbeben. Ich wendete die neuen Methoden auf weitere tektonisch und vulkanisch aktive Gebiete an, wo häufig die eine Interaktion der Deformationsquellen nachgewiesen werden konnte und ihrer bedeutung untersucht wurde. Die untersuchten Gebiete und Deformationsquellen sind 1) tiefe und oberflächliche hydrothermale und magmatische Quellen unterhalb des Campi Flegrei Vulkans, 2) gravitationsbedingte Deformationen am Damawand Vulkan, 3) Störungsdynamik in Verbindung mit dem Haiti Beben im Jahr 2010, 4) unabhängige blockweise Flankenbewegung an der Hilina Störungszone, und 5) der Einfluss eines Salzdiapirs auf das Qeshm Erdbeben im Süd-Iran im Jahr 2005. Diese Dissertation, geschrieben als kumulative Arbeit von neun Manuskripten, welche entweder veröffentlicht oder derzeit in Begutachtung bei ‘peer-review’ Zeitschriften sind, technische Verbesserungen zur Analyse von InSAR Zeitreihen vor sowie zur Modellierung von Deformationsquellen. Sie zeigt die gegenseitige Beeinflussung von benachbarten Deformationsquellen, und sie ermöglicht, realistischere Einschätzungen von Naturgefahren, die von komplexen vulkanischen und tektonischen Systemen ausgehen. KW - InSAR KW - Vulkan KW - Erdbeben KW - inverse Modellierung KW - InSAR KW - Vulcano KW - earthquake KW - inverse modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50774 ER - TY - THES A1 - Schwabedal, Justus Tilmann Caspar T1 - Phase dynamics of irregular oscillations N2 - In der vorliegenden Dissertation wird eine Beschreibung der Phasendynamik irregulärer Oszillationen und deren Wechselwirkungen vorgestellt. Hierbei werden chaotische und stochastische Oszillationen autonomer dissipativer Systeme betrachtet. Für eine Phasenbeschreibung stochastischer Oszillationen müssen zum einen unterschiedliche Werte der Phase zueinander in Beziehung gesetzt werden, um ihre Dynamik unabhängig von der gewählten Parametrisierung der Oszillation beschreiben zu können. Zum anderen müssen für stochastische und chaotische Oszillationen diejenigen Systemzustände identifiziert werden, die sich in der gleichen Phase befinden. Im Rahmen dieser Dissertation werden die Werte der Phase über eine gemittelte Phasengeschwindigkeitsfunktion miteinander in Beziehung gesetzt. Für stochastische Oszillationen sind jedoch verschiedene Definitionen der mittleren Geschwindigkeit möglich. Um die Unterschiede der Geschwindigkeitsdefinitionen besser zu verstehen, werden auf ihrer Basis effektive deterministische Modelle der Oszillationen konstruiert. Hierbei zeigt sich, dass die Modelle unterschiedliche Oszillationseigenschaften, wie z. B. die mittlere Frequenz oder die invariante Wahrscheinlichkeitsverteilung, nachahmen. Je nach Anwendung stellt die effektive Phasengeschwindigkeitsfunktion eines speziellen Modells eine zweckmäßige Phasenbeziehung her. Wie anhand einfacher Beispiele erklärt wird, kann so die Theorie der effektiven Phasendynamik auch kontinuierlich und pulsartig wechselwirkende stochastische Oszillationen beschreiben. Weiterhin wird ein Kriterium für die invariante Identifikation von Zuständen gleicher Phase irregulärer Oszillationen zu sogenannten generalisierten Isophasen beschrieben: Die Zustände einer solchen Isophase sollen in ihrer dynamischen Entwicklung ununterscheidbar werden. Für stochastische Oszillationen wird dieses Kriterium in einem mittleren Sinne interpretiert. Wie anhand von Beispielen demonstriert wird, lassen sich so verschiedene Typen stochastischer Oszillationen in einheitlicher Weise auf eine stochastische Phasendynamik reduzieren. Mit Hilfe eines numerischen Algorithmus zur Schätzung der Isophasen aus Daten wird die Anwendbarkeit der Theorie anhand eines Signals regelmäßiger Atmung gezeigt. Weiterhin zeigt sich, dass das Kriterium der Phasenidentifikation für chaotische Oszillationen nur approximativ erfüllt werden kann. Anhand des Rössleroszillators wird der tiefgreifende Zusammenhang zwischen approximativen Isophasen, chaotischer Phasendiffusion und instabilen periodischen Orbits dargelegt. Gemeinsam ermöglichen die Theorien der effektiven Phasendynamik und der generalisierten Isophasen eine umfassende und einheitliche Phasenbeschreibung irregulärer Oszillationen. N2 - Many natural systems embedded in a complex surrounding show irregular oscillatory dynamics. The oscillations can be parameterized by a phase variable in order to obtain a simplified theoretical description of the dynamics. Importantly, a phase description can be easily extended to describe the interactions of the system with its surrounding. It is desirable to define an invariant phase that is independent of the observable or the arbitrary parameterization, in order to make, for example, the phase characteristics obtained from different experiments comparable. In this thesis, we present an invariant phase description of irregular oscillations and their interactions with the surrounding. The description is applicable to stochastic and chaotic irregular oscillations of autonomous dissipative systems. For this it is necessary to interrelate different phase values in order to allow for a parameterization-independent phase definition. On the other hand, a criterion is needed, that invariantly identifies the system states that are in the same phase. To allow for a parameterization-independent definition of phase, we interrelate different phase values by the phase velocity. However, the treatment of stochastic oscillations is complicated by the fact that different definitions of average velocity are possible. For a better understanding of their differences, we analyse effective deterministic phase models of the oscillations based upon the different velocity definitions. Dependent on the application, a certain effective velocity is suitable for a parameterization-independent phase description. In this way, continuous as well pulse-like interactions of stochastic oscillations can be described, as it is demonstrated with simple examples. On the other hand, an invariant criterion of identification is proposed that generalizes the concept of standard (Winfree) isophases. System states of the same phase are identified to belong to the same generalized isophase using the following invariant criterion: All states of an isophase shall become indistinguishable in the course of time. The criterion is interpreted in an average sense for stochastic oscillations. It allows for a unified treatment of different types of stochastic oscillations. Using a numerical estimation algorithm of isophases, the applicability of the theory is demonstrated by a signal of regular human respiration. For chaotic oscillations, generalized isophases can only be obtained up to a certain approximation. The intimate relationship between these approximate isophase, chaotic phase diffusion, and unstable periodic orbits is explained with the example of the chaotic \roes oscillator. Together, the concept of generalized isophases and the effective phase theory allow for a unified, and invariant phase description of stochastic and chaotic irregular oscillations. T2 - Phasendynamik irregulärer Oszillationen KW - Phasendynamik KW - Stochastische Oszillationen KW - Chaotische Oszillationen KW - Phasenkopplung KW - Zeitreihenanalyse KW - phase dynamics KW - stochastic oscillations KW - chaotic oscillations KW - phase coupling KW - time series analysis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50115 ER - TY - THES A1 - Scherler, Dirk T1 - Climate variability and glacial dynamics in the Himalaya T1 - Klimavariabilität und Gletscherdynamik im Himalaya N2 - In den Hochgebirgen Asiens bedecken Gletscher eine Fläche von ungefähr 115,000 km² und ergeben damit, neben Grönland und der Antarktis, eine der größten Eisakkumulationen der Erde. Die Sensibilität der Gletscher gegenüber Klimaschwankungen macht sie zu wertvollen paläoklimatischen Archiven in Hochgebirgen, aber gleichzeitig auch anfällig gegenüber rezenter und zukünftiger globaler Erwärmung. Dies kann vor allem in dicht besiedelten Gebieten Süd-, Ost- und Zentralasiens zu großen Problem führen, in denen Gletscher- und Schnee-Schmelzwässer eine wichtige Ressource für Landwirtschaft und Stromerzeugung darstellen. Eine erfolgreiche Prognose des Gletscherverhaltens in Reaktion auf den Klimawandel und die Minderung der sozioökonomischen Auswirkungen erfordert fundierte Kenntnisse der klimatischen Steuerungsfaktoren und der Dynamik asiatischer Gletscher. Aufgrund ihrer Abgeschiedenheit und dem erschwerten Zugang gibt es nur wenige glaziologische Geländestudien, die zudem räumlich und zeitlich sehr begrenzt sind. Daher fehlen bisher grundlegende Informationen über die Mehrzahl asiatischer Gletscher. In dieser Arbeit benutze ich verschiedene Methoden, um die Dynamik asiatischer Gletscher auf mehreren Zeitskalen zu untersuchen. Erstens teste ich eine Methode zur präzisen satelliten-gestützten Messung von Gletscheroberflächen-Geschwindigkeiten. Darauf aufbauend habe ich eine umfassende regionale Erhebung der Fliessgeschwindigkeiten und Frontdynamik asiatischer Gletscher für die Jahre 2000 bis 2008 durchgeführt. Der gewonnene Datensatz erlaubt einmalige Einblicke in die topographischen und klimatischen Steuerungsfaktoren der Gletscherfließgeschwindigkeiten in den Gebirgsregionen Hochasiens. Insbesondere dokumentieren die Daten rezent ungleiches Verhalten der Gletscher im Karakorum und im Himalaja, welches ich auf die konkurrierenden klimatischen Einflüsse der Westwinddrift im Winter und des Indischen Monsuns im Sommer zurückführe. Zweitens untersuche ich, ob klimatisch bedingte Ost-West Unterschiede im Gletscherverhalten auch auf längeren Zeitskalen eine Rolle spielen und gegebenenfalls für dokumentierte regional asynchrone Gletschervorstöße relevant sind. Dazu habe ich mittels kosmogener Nuklide Oberflächenalter von erratischen Blöcken auf Moränen ermittelt und eine glaziale Chronologie für das obere Tons Tal, in den Quellgebieten des Ganges, erstellt. Dieses Gebiet befindet sich in der Übergangszone von monsunaler zu Westwind beeinflusster Feuchtigkeitszufuhr und ist damit ideal gelegen, um die Auswirkungen dieser beiden atmosphärischen Zirkulationssysteme auf Gletschervorstöße zu untersuchen. Die ermittelte glaziale Chronologie dokumentiert mehrere Gletscherschwankungen während des Endstadiums der letzten Pleistozänen Vereisung und während des Holzäns. Diese weisen darauf hin, dass Gletscherschwankungen im westlichen Himalaja weitestgehend synchron waren und auf graduelle glaziale-interglaziale Temperaturveränderungen, überlagert von monsunalen Niederschlagsschwankungen höherer Frequenz, zurück zu führen sind. In einem dritten Schritt kombiniere ich Satelliten-Klimadaten mit Eisfluss-Abschätzungen und topographischen Analysen, um den Einfluss der Gletscher Hochasiens auf die Reliefentwicklung im Hochgebirge zu untersuchen. Die Ergebnisse dokumentieren ausgeprägte meridionale Unterschiede im Grad und im Stil der Vergletscherung und glazialen Erosion in Abhängigkeit von topographischen und klimatischen Faktoren. Gegensätzlich zu bisherigen Annahmen deuten die Daten darauf hin, dass das monsunale Klima im zentralen Himalaja die glaziale Erosion schwächt und durch den Erhalt einer steilen orographischen Barriere das Tibet Plateau vor lateraler Zerschneidung bewahrt. Die Ergebnisse dieser Arbeit dokumentieren, wie klimatische und topographische Gradienten die Gletscherdynamik in den Hochgebirgen Asiens auf Zeitskalen von 10^0 bis 10^6 Jahren beeinflussen. Die Reaktionszeit der Gletscher auf Klimaveränderungen sind eng an Eigenschaften wie Schuttbedeckung und Neigung gekoppelt, welche ihrerseits von den topographischen Verhältnissen bedingt sind. Derartige Einflussfaktoren müssen bei paläoklimatischen Rekonstruktion und Vorhersagen über die Entwicklung asiatischer Gletscher berücksichtigt werden. Desweiteren gehen die regionalen topographischen Unterschiede der vergletscherten Gebiete Asiens teilweise auf klimatische Gradienten und den langfristigen Einfluss der Gletscher auf die topographische Entwicklung des Gebirgssystems zurück. N2 - In the high mountains of Asia, glaciers cover an area of approximately 115,000 km² and constitute one of the largest continental ice accumulations outside Greenland and Antarctica. Their sensitivity to climate change makes them valuable palaeoclimate archives, but also vulnerable to current and predicted Global Warming. This is a pressing problem as snow and glacial melt waters are important sources for agriculture and power supply of densely populated regions in south, east, and central Asia. Successful prediction of the glacial response to climate change in Asia and mitigation of the socioeconomic impacts requires profound knowledge of the climatic controls and the dynamics of Asian glaciers. However, due to their remoteness and difficult accessibility, ground-based studies are rare, as well as temporally and spatially limited. We therefore lack basic information on the vast majority of these glaciers. In this thesis, I employ different methods to assess the dynamics of Asian glaciers on multiple time scales. First, I tested a method for precise satellite-based measurement of glacier-surface velocities and conducted a comprehensive and regional survey of glacial flow and terminus dynamics of Asian glaciers between 2000 and 2008. This novel and unprecedented dataset provides unique insights into the contrasting topographic and climatic controls of glacial flow velocities across the Asian highlands. The data document disparate recent glacial behavior between the Karakoram and the Himalaya, which I attribute to the competing influence of the mid-latitude westerlies during winter and the Indian monsoon during summer. Second, I tested whether such climate-related longitudinal differences in glacial behavior also prevail on longer time scales, and potentially account for observed regionally asynchronous glacial advances. I used cosmogenic nuclide surface exposure dating of erratic boulders on moraines to obtain a glacial chronology for the upper Tons Valley, situated in the headwaters of the Ganges River. This area is located in the transition zone from monsoonal to westerly moisture supply and therefore ideal to examine the influence of these two atmospheric circulation regimes on glacial advances. The new glacial chronology documents multiple glacial oscillations during the last glacial termination and during the Holocene, suggesting largely synchronous glacial changes in the western Himalayan region that are related to gradual glacial-interglacial temperature oscillations with superimposed monsoonal precipitation changes of higher frequency. In a third step, I combine results from short-term satellite-based climate records and surface velocity-derived ice-flux estimates, with topographic analyses to deduce the erosional impact of glaciations on long-term landscape evolution in the Himalayan-Tibetan realm. The results provide evidence for the long-term effects of pronounced east-west differences in glaciation and glacial erosion, depending on climatic and topographic factors. Contrary to common belief the data suggest that monsoonal climate in the central Himalaya weakens glacial erosion at high elevations, helping to maintain a steep southern orographic barrier that protects the Tibetan Plateau from lateral destruction. The results of this thesis highlight how climatic and topographic gradients across the high mountains of Asia affect glacier dynamics on time scales ranging from 10^0 to 10^6 years. Glacial response times to climate changes are tightly linked to properties such as debris cover and surface slope, which are controlled by the topographic setting, and which need to be taken into account when reconstructing mountainous palaeoclimate from glacial histories or assessing the future evolution of Asian glaciers. Conversely, the regional topographic differences of glacial landscapes in Asia are partly controlled by climatic gradients and the long-term influence of glaciers on the topographic evolution of the orogenic system. KW - Gletscher KW - Himalaya KW - Klimawandel KW - Fernerkundung KW - Kosmogene Nuklide KW - Glaciers KW - Himalaya KW - Climate change KW - Remote sensing KW - Cosmogenic nuclides Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49871 ER - TY - THES A1 - Schattauer, Sylvia T1 - Hybride Dünnschicht-Solarzellen aus mesoporösem Titandioxid und konjugierten Polymeren T1 - Hybrid thin solar cells comprising mesoporous titanium dioxide and conjugated polymers N2 - Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt. N2 - The main objective of this thesis is to study the active components and their interactions in so called organic hybrid solar cells. These consist of a thin inorganic titanium dioxide layer, combined with a polymer layer. In general, the efficiency of these hybrid solar cells is determined by the light absorption in the donor polymer, the dissociation of excitons at the heterojunction between TiO2 and polymer, as well as the generation and extraction of free charge carriers. To optimize the solar cells, the physical interactions between the materials are modified and the influences of various preparation parameters are systematically investigated. Among others, important findings regarding the optimal use of materials and preparation conditions as well as detailed investigations of fundamental factors such as film morphology and polymer infiltration are presented in more detail. First, a variety of titanium dioxide layer were produced, from which a selection for use in hybrid solar cells was made. The obtained films show differences in surface structure, film morphology and crystallinity, depending on the way how the TiO2 layer has been prepared. All these properties of the TiO2 films may strongly affect the performance of the hybrid solar cells, by influencing e.g. the exciton diffusion length, the efficiency of exciton dissociation at the hybrid interface, and the carrier transport properties. Detailed investigations were made for mesoporous TiO2 layer following a new nanoparticle synthesis route, which allows to produce crystalline particles during the synthesis. As donor component, conjugated polymers, either derivatives of cyclohexylamino-poly(p-phenylene vinylene) (PPV) or a thiophene are used. The preparation routine also includes a thermal treatment of the TiO2 layers, revealing a temperature-dependent change in morphology, but not of the crystal structure. The effects on the solar cell properties have been documented and discussed. To take advantage of the nanoparticle synthesis, the formation of crystalline TiO2 particles by UV crosslinking and first solar cell measurements are presented. In addition to the nature of the TiO2 layer, the influence of polymer morphology is investigated. Different morphologies are realized by solvent variation and thermal annealing. It is shown that, among other factors, the viscosity of the polymer solution and the infiltration into the TiO2 layer mainly affects the efficiency of the solar cell. Another approach to increase the efficiency is the development of new hole-conducting polymers that absorb over a wide spectral range and which are adjusted to the energy levels of TiO2. Also new concepts, for example, the combination of thiophene- and phenyl-units into a copolymer are investigated in more detail. In summary, important parameters influencing the properties of hybrid solar cells are identified and discussed in more detail. For some limiting factors concepts to overcome these limitations are presented. KW - hybride Solarzellen KW - Titandioxid KW - Sintern KW - Polymer KW - hybrid thin solar cells KW - titanium dioxide KW - thermal treatment KW - polymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52619 ER - TY - THES A1 - Ruch, Joël T1 - Volcano deformation analysis in the Lazufre area (central Andes) using geodetic and geological observations T1 - Vulkan Deformationsanalyse im Bereich Lazufre (Zentral-Anden) mit geodätischen und geologischen Beobachtungen N2 - Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring. N2 - Vulkanische Deformationen in großem Maßstab, die mittels InSAR gemessen wurden, liefern neue Informationen und dadurch einen neuen Blickwinkel auf vulkan-tektonische Aktivitäten und das Verständnis von langlebigen, magmatischen Systemen. Die Destabilisierung eines solchen Systems in der Tiefe beeinflusst dauerhaft die Oberfläche durch Versatz des Bodens, magmatische Einflüsse und vulkanische Unruhen. Mit der Kombination aus kleinräumigem Bodenversatz gemessen mittels InSAR, numerischer Modellierung und langfristigen geologischen Beobachtungen, analysieren wir die Gegend um den Vulkan Lazufre in den Zentralanden, um die raumzeitliche Entwicklung der Region zu bestimmen. Bodenversatz wurde hierbei im Jahr 1997 mittels Radar-Interferrometrie (InSAR) gemessen, was eine Fläche von 1800 km² ausmacht, vergleichbar mit der Größe der Deformation des Kraters. Im Jahr 2000 wurde zusätzlich eine kleinräumige Deformation am Nachbarvulkan Lastarria entdeckt. Wir sehen räumliche als auch zeitliche Verbindungen zwischen der Deformation des Vulkans und vulkanischen Strukturen innerhalb der betroffenen Gegend. Wir folgern daraus, dass diese Beobachtungen der Ausdruck eines langlebigen, magmatischen Systems in der Tiefe an der Oberfläche sind. Es ist noch nicht klar, ob Lazufre größere vulkanische Unruhen, wie zum Beispiel Eruptionen auslösen könnte, aber die Deformation am Vulkan Lastarria und ein Anstieg der großräumigen Deformationsrate, machen diese Region interessant für eine zukünftige, kontinuierliche Überwachung. KW - Vulkan Verformung KW - InSAR KW - zentralen Anden KW - Spannungsfeld KW - volcano deformation KW - InSAR KW - central Andes KW - stress field Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47361 ER - TY - THES A1 - Reinke, Sebastian T1 - Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO - dargestellt am Beispiel des Brandenburger Modells T1 - Privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO - shown with the help of the Brandenburg model N2 - Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben. N2 - Although privatisation has been a main subject not only the legal-scientific debate during the last years and decades, the area of the privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO was neglected in this respect. Before the background of primarily fiscal considerations and the possibilities of an escape from the official's right and the budgetary right, such areas get increasingly also in the point of view of the privatisation considerations which are added up to now of course to the area of state activity. The state gets on increasingly as a guarantee state which does not fulfil state duties any more own-handed, but for this of the achievement third helps himself. Up to now the hospital order treatment after §§ 63, 64 StGB and § 7 JGG as well as the accommodation to the observation of the culprit after § 81 StPO and the temporary accommodation after § 126a StPO were carried out by the state in the (state) land medical centres. On the legal basis § 36 paragraph 3 p. 2 and p. 5 BbgPsychKG, introduced in 2004, the State of Brandenburg developed a model to privatise the realisation of the called duties, and separated the land medical centres in 2006 from the land management. The author examines the constitutional-juridical admissibility of this privatisation plan in formal and material regard. A specific feature of the publication consists in it, that the work concrete statements to the arrangement of the control exception relation of the functional reservation after article 33 paragraphs 4 GG contains enough. There was not this up to now. Besides the author examines easy-legal borders for privatisations of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO as well as such privatisation borders which arise from international standards of human rights. KW - Privatisierung KW - Maßregelvollzug KW - §§ 81 KW - 126a StPO KW - Funktionsvorbehalt KW - Brandenburg KW - privatisation KW - hospital order treatment KW - §§ 81 KW - 126a StPO KW - functional reservation KW - Brandenburg Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48428 SN - 978-3-86956-101-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Rasch, Claudia T1 - Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine T1 - Optical spectroscopy for the determination of mould and mycotoxins N2 - Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität. N2 - Problems of food safety have led to an increasing concern regarding contamination of foods and feeds with mycotoxins and the relevant toxigenic fungi, mainly Aspergillus, Penicillium and Fusarium genera. There is a real need for rapid, sensitive and inexpensive sensors for the detection of toxigenic fungi and mycotoxins, both in the field and after harvest in order to obtain real-time monitoring data on contamination and this assist in food safety assessment. This will result in an enormous cost saving to the farmers as well as to agro-food industry through the prevention and reduction of product recalls and reduced treatment costs. The German Ministry of Education and Research (BMBF) has provided funding of more than 1.9 million Euros from July 2006 to December 2009 for the large joint project "ProSeso.net2" on the development of innovative sensor-based techniques and processes in the field of food quality and safety. In this research-project "Exploration of sustainability potentials by use of sensor-based technologies and integrated assessment models in the production chain of plant related food" 13 partners from universities, non-university institutions and industry cooperate within seven subprojects. The expected results shall contribute to maintain freshness and improve safety of the food production chain. In the subproject “Indicators and sensor technology for the identification of mycotoxin producing fungi in the processing of grain” spectroscopic methods are tested for in-situ and in-line detection of moulds and/or mycotoxins. This presentation focuses on some possible spectroscopic methods for the rapid detection of mycotoxins and fungi on grains. Methods based on one- and two-photon-induced fluorescence spectroscopy are highly attractive because of their outstanding sensitivity and selectivity. In order to utilize a fluorescence technique for the analysis of the mycotoxins in food and feedstuff as well as for basic research on the fungal metabolism, the photochemistry and photophysics of the mycotoxins and fungi need to be elucidated in detail, especially the influence of solvent parameters such as polarity and pH value. Consequently, for a sensitive and selective spectroscopic analysis, it is indispensable to take the specific photophysic of the known mycotoxins into account in order to minimize serious limitations upon sensitivity, selectivity, and accuracy of a potential fluorescence-based sensing application. The spectroscopic techniques are complemented by chemometric tools (Principle Component Analysis) to extract the desired chemical information, e.g. with respect to presence of contaminations. The combination of data obtained from different spectroscopic methods (such as optimal excitation and emission wavelength, fluorescence decay times, and fluorescence quantum efficiency) on the one hand side and NIR spectroscopy on the other side shows promising results for the qualitative as well as quantitative identification of mycotoxins grains. Moreover, NIR reflectance spectra yield additional information on ingredients, moisture content, and the presence (or absence) of fungi in the sample. KW - Mykotoxine KW - Schimmelpilze KW - Fluoreszenz KW - Chemometrie KW - Zweiphotonenanregung KW - mycotoxins KW - mould KW - fluorescence KW - chemometrics KW - Two-Photon-Absorption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50746 ER - TY - THES A1 - Pénisson, Sophie T1 - Conditional limit theorems for multitype branching processes and illustration in epidemiological risk analysis T1 - Bedingte Grenzwertsätze für Mehrtyp-Verzweigungsprozesse und Illustration in epidemiologischen Risikoanalyse N2 - This thesis is concerned with the issue of extinction of populations composed of different types of individuals, and their behavior before extinction and in case of a very late extinction. We approach this question firstly from a strictly probabilistic viewpoint, and secondly from the standpoint of risk analysis related to the extinction of a particular model of population dynamics. In this context we propose several statistical tools. The population size is modeled by a branching process, which is either a continuous-time multitype Bienaymé-Galton-Watson process (BGWc), or its continuous-state counterpart, the multitype Feller diffusion process. We are interested in different kinds of conditioning on non-extinction, and in the associated equilibrium states. These ways of conditioning have been widely studied in the monotype case. However the literature on multitype processes is much less extensive, and there is no systematic work establishing connections between the results for BGWc processes and those for Feller diffusion processes. In the first part of this thesis, we investigate the behavior of the population before its extinction by conditioning the associated branching process X_t on non-extinction (X_t≠0), or more generally on non-extinction in a near future 0≤θ<∞ (X_{t+θ}≠0), and by letting t tend to infinity. We prove the result, new in the multitype framework and for θ>0, that this limit exists and is non-degenerate. This reflects a stationary behavior for the dynamics of the population conditioned on non-extinction, and provides a generalization of the so-called Yaglom limit, corresponding to the case θ=0. In a second step we study the behavior of the population in case of a very late extinction, obtained as the limit when θ tends to infinity of the process conditioned by X_{t+θ}≠0. The resulting conditioned process is a known object in the monotype case (sometimes referred to as Q-process), and has also been studied when X_t is a multitype Feller diffusion process. We investigate the not yet considered case where X_t is a multitype BGWc process and prove the existence of the associated Q-process. In addition, we examine its properties, including the asymptotic ones, and propose several interpretations of the process. Finally, we are interested in interchanging the limits in t and θ, as well as in the not yet studied commutativity of these limits with respect to the high-density-type relationship between BGWc processes and Feller processes. We prove an original and exhaustive list of all possible exchanges of limit (long-time limit in t, increasing delay of extinction θ, diffusion limit). The second part of this work is devoted to the risk analysis related both to the extinction of a population and to its very late extinction. We consider a branching population model (arising notably in the epidemiological context) for which a parameter related to the first moments of the offspring distribution is unknown. We build several estimators adapted to different stages of evolution of the population (phase growth, decay phase, and decay phase when extinction is expected very late), and prove moreover their asymptotic properties (consistency, normality). In particular, we build a least squares estimator adapted to the Q-process, allowing a prediction of the population development in the case of a very late extinction. This would correspond to the best or to the worst-case scenario, depending on whether the population is threatened or invasive. These tools enable us to study the extinction phase of the Bovine Spongiform Encephalopathy epidemic in Great Britain, for which we estimate the infection parameter corresponding to a possible source of horizontal infection persisting after the removal in 1988 of the major route of infection (meat and bone meal). This allows us to predict the evolution of the spread of the disease, including the year of extinction, the number of future cases and the number of infected animals. In particular, we produce a very fine analysis of the evolution of the epidemic in the unlikely event of a very late extinction. N2 - Diese Arbeit befasst sich mit der Frage des Aussterbens von Populationen verschiedener Typen von Individuen. Uns interessiert das Verhalten vor dem Aussterben sowie insbesondere im Falle eines sehr späten Aussterbens. Wir untersuchen diese Fragestellung zum einen von einer rein wahrscheinlichkeitstheoretischen Sicht und zum anderen vom Standpunkt der Risikoanalyse aus, welche im Zusammenhang mit dem Aussterben eines bestimmten Modells der Populationsdynamik steht. In diesem Kontext schlagen wir mehrere statistische Werkzeuge vor. Die Populationsgröße wird entweder durch einen zeitkontinuierlichen mehrtyp-Bienaymé-Galton-Watson Verzweigungsprozess (BGWc) oder durch sein Analogon mit kontinuierlichem Zustandsraum, den Feller Diffusionsprozess, modelliert. Wir interessieren uns für die unterschiedlichen Arten auf Überleben zu bedingen sowie für die hierbei auftretenden Gleichgewichtszustände. Diese Bedingungen wurden bereits weitreichend im Falle eines einzelnen Typen studiert. Im Kontext von mehrtyp-Verzweigungsprozessen hingegen ist die Literatur weniger umfangreich und es gibt keine systematischen Arbeiten, welche die Ergebnisse von BGWc Prozessen mit denen der Feller Diffusionsprozesse verbinden. Wir versuchen hiermit diese Lücke zu schliessen. Im ersten Teil dieser Arbeit untersuchen wir das Verhalten von Populationen vor ihrem Aussterben, indem wir das zeitasymptotysche Verhalten des auf Überleben bedingten zugehörigen Verzweigungsprozesses (X_t|X_t≠0)_t betrachten (oder allgemeiner auf Überleben in naher Zukunft 0≤θ<∞, (X_t|X_{t+θ}≠0)_t). Wir beweisen das Ergebnis, neuartig im mehrtypen Rahmen und für θ>0, dass dieser Grenzwert existiert und nicht-degeneriert ist. Dies spiegelt ein stationäres Verhalten für auf Überleben bedingte Bevölkerungsdynamiken wider und liefert eine Verallgemeinerung des sogenannten Yaglom Grenzwertes (welcher dem Fall θ=0 entspricht). In einem zweiten Schritt studieren wir das Verhalten der Populationen im Falle eines sehr späten Aussterbens, welches wir durch den Grenzübergang auf θ→∞ erhalten. Der resultierende Grenzwertprozess ist ein bekanntes Objekt im eintypen Fall (oftmals als Q-Prozess bezeichnet) und wurde ebenfalls im Fall von mehrtyp-Feller-Diffusionsprozessen studiert. Wir untersuchen den bisher nicht betrachteten Fall, in dem X_t ein mehrtyp-BGWc Prozess ist und beweisen die Existenz des zugehörigen Q-Prozesses. Darüber hinaus untersuchen wir seine Eigenschaften einschließlich der asymptotischen und weisen auf mehrere Auslegungen hin. Schließlich interessieren wir uns für die Austauschbarkeit der Grenzwerte in t und θ, und die Vertauschbarkeit dieser Grenzwerte in Bezug auf die Beziehung zwischen BGWc und Feller Prozessen. Wir beweisen die Durchführbarkeit aller möglichen Grenzwertvertauschungen (Langzeitverhalten, wachsende Aussterbeverzögerung, Diffusionslimit). Der zweite Teil dieser Arbeit ist der Risikoanalyse in Bezug auf das Aussterben und das sehr späte Aussterben von Populationen gewidmet. Wir untersuchen ein Modell einer verzweigten Bevölkerung (welches vor allem im epidemiologischen Rahmen erscheint), für welche ein Parameter der Reproduktionsverteilung unbekannt ist. Wir konstruieren Schätzer, die an die jeweiligen Stufen der Evolution adaptiert sind (Wachstumsphase, Verfallphase sowie die Verfallphase, wenn das Aussterben sehr spät erwartet wird), und beweisen zudem deren asymptotische Eigenschaften (Konsistenz, Normalverteiltheit). Im Besonderen bauen wir einen für Q-Prozesse adaptierten kleinste-Quadrate-Schätzer, der eine Vorhersage der Bevölkerungsentwicklung im Fall eines sehr späten Aussterbens erlaubt. Dies entspricht dem Best- oder Worst-Case-Szenario, abhängig davon, ob die Bevölkerung bedroht oder invasiv ist. Diese Instrumente ermöglichen uns die Betrachtung der Aussterbensphase der Bovinen spongiformen Enzephalopathie Epidemie in Großbritannien. Wir schätzen den Infektionsparameter in Bezug auf mögliche bestehende Quellen der horizontalen Infektion nach der Beseitigung des primären Infektionsweges (Tiermehl) im Jahr 1988. Dies ermöglicht uns eine Vorhersage des Verlaufes der Krankheit inklusive des Jahres des Aussterbens, der Anzahl von zukünftigen Fällen sowie der Anzahl infizierter Tiere. Insbesondere ermöglicht es uns die Erstellung einer sehr detaillierten Analyse des Epidemieverlaufs im unwahrscheinlichen Fall eines sehr späten Aussterbens. KW - Mehrtyp-Verzweigungsprozesse KW - Feller Diffusionsprozesse KW - Schätzung von Verzweigungsprozessen KW - Epidemiologie KW - Risikoanalyse KW - Multitype branching processes KW - Feller diffusion processes KW - Estimation for branching processes KW - Epidemiology KW - Risk analysis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45307 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Plodeck, Judith T1 - Bruce Nauman und Olafur Eliasson : Strategien performativer Installationen T1 - Bruce Nauman and Olafur Eliasson : strategies of performative installation art N2 - Die Analyse vergleicht Installationen von Bruce Nauman und Olafur Eliasson ausgehend von der Fragestellung, wie sich die künstlerischen Performativitätsstrategien der 1960er/70er Jahren und die der zeitgenössischen Kunst in ihren Wirkungen und Effekten unterscheiden lassen. Dabei werden die Positionen der beiden Künstler als paradigmatisch für eine Ästhetik des Performativen angesehen. Neben dem Vergleich der Künstler steht die theoretische Auseinandersetzung mit der Diskursfigur der Performativität sowie deren methodischen Anwendbarkeit in der Kunstwissenschaft im Vordergrund. Während sich Installationen der 1960er/70er Jahre besonders durch die psycho-physische Einwirkung auf die Sinneswahrnehmung des Betrachters auszeichnen und durchaus Schockeffekte beim Betrachter hervorrufen, befasst sich die zeitgenössische Kunstpraxis vornehmlich mit visuellen und poetischen Effekten, die eine kontemplative Rezeptionshaltung des Betrachters einfordern. Bruce Nauman war es ein Anliegen, den tradierten Status des Kunstwerks als ein zu Betrachtendes, das sich durch Begriffe wie Form, Ursprung und Originalität fassen ließ, in Frage zu stellen und stattdessen eine reale leibliche Erfahrung für den Betrachter nachvollziehbar werden zu lassen. Künstlern wie Olafur Eliasson geht es in den künstlerischen Produktionen vor allem um die Wahrnehmung der Wahrnehmung sowie der Erzeugung von Präsenzeffekten. Mit dem Aufkommen solcher Verfahren wurde deutlich, dass performative Installationen nach anderen Beschreibungsformen verlangten und, dass diese durch eine Ästhetik des Performativen gefasst werden können. Wie genau vollzieht sich der Wandel von den performativen Strategien der 1960er/70er Jahre zu denen der zeitgenössischen Installationskünstlern? Verläuft dieser vom Schock zur Poesie? N2 - This analysis compares installations by Bruce Nauman and Olafur Eliasson based on the following question: How can artistic performative strategies of the 1960s/70s and those of contemporary art be differentiated in their impact and effect. As part of the analysis, both artists’ positions are considered as being paradigmatic for an aesthetic of the performative. In addition to the comparison of the artists, we are confronted with the theoretical discussion about the discursive figure of performativity as well as its methodological applicability in the science of art. Installations of the 1960s/70s are mainly characterized by the psychological and physical impact on the viewer’s perception and their ability to evoke shock effects from the viewer. By contrast, contemporary art practice deals predominantly with visual and poetic effects, demanding a contemplative state of reception. It was one of Bruce Nauman’s intentions to question the traditional status of a work of art as an object that needs to be viewed and defined through concepts, such as form, origin and originality. Instead, he intended to allow the viewer to comprehend it as a real and physical experience. Artists such as Olafur Eliasson, on the other hand, aim in their artistic productions at producing effects of presence by perceiving the perception. Through the emergence of such procedures, it has become evident that performative installations require other forms of description and can be understood through an aesthetic of the performative. How exactly did performative strategies of the 1960s/70s change compared to works by contemporary installation artists? Did they in fact evolve from shock to poetry? KW - Installationskunst KW - Bruce Nauman KW - Olafur Eliasson KW - performative Ästhetik KW - Werkbegriff KW - Perfromativität KW - installation art KW - Bruce Nauman KW - Olafur Eliasson KW - performativity KW - aesthetics of performative Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-40754 SN - 978-3-86956-032-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Paffhausen, Peter T1 - Entscheidung über eine Öffentlich Private Partnerschaft : Empfehlungen für kommunale Entscheidungsträger beim Eingehen einer institutionellen Öffentlich Privaten Partnerschaft T1 - Decision on a Public-Private Partnership : advice for municipal decision-makers when entering into an institutional Public-Private Partnership N2 - Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen. N2 - In the past ten to fifteen years, Public-Private Partnerships (PPPs) have become considerably important. It is also due to the financial crisis, that even in future a further growth is expected in the municipalities. To ensure that the PPPs, which add such desired advantages like reduction of costs for the public budget or increasing the efficiency of the public entity, they should be actively and carefully guided prior to its formation as well as during the day-to-day business. This dissertation is based on this context while considering that up to date there have not been any well-founded and systematic researches connecting the existing practical experience with applicable theory and from which advice can be derived for the decision-makers in the public sector. Because of the several formats that are possible, the subject has been limited with a focus on institutional PPPs at municipal level. The research begins with the explanation of the basics of PPPs, offering a general understanding of this subject. The explanation of the concept and the elaboration of the characteristics of PPPs, are then followed by the definition of contractual and institutional PPPs. The possible motives for entering such a partnership on both sides, public and private, are shown on a list as well as an outline of the possible prospects and risks. Subsequently, an in-depth analysis on institutional PPPs is presented, which is based on scientific theory on new institutionalism. For this purpose, the dissertation is linked up with the economical, (organisational) sociological and political scientific classification by Mayntz and Scharpf. The new economic institutionalism was researched with the help of the three part-theories: transaction cost theory, principal agent theory and property rights theory. To begin with, the theoretical perception of each individual theory is developed and first deductions for institutional PPPs are reached. Based on this, the development of research criteria follows, depicted as questions that may arise for comparing future case studies. The conclusion of the theoretical part is followed by a contemplation of institutional PPPs, from an empirical point of view. For this purpose, case studies are presented and reflected onto the research criteria, which had been derived from each individual theory. To begin with, the researched case studies are analysed, starting with the partial privatisation of the Stadtentwässerung Dresden GmbH (Dresden’s municipal water drainage company) and the Stadtwerke Görlitz AG (public utility company of Görlitz), where the collaboration is actually developing in a positive manner. A negative example is depicted in the privatisation of the waterworks of Grenoble and its subsequent reversion to a fully municipal service. In the following step, case studies from the authors’ actual experience are discussed. In this case, the focus is placed on the partial privatisation and the subsequent reversion to its municipal status of the waterworks of Potsdam. This is complemented by the portrayal of the positive collaboration between the private partner and Energie und Wasser Potsdam GmbH (Potsdam’s energy and water company). Subsequently, the initial problems that arose during the partial privatisation STEP Stadtentsorgung Potsdam (municipal waste management of Potsdam) between the municipality and the private sector are researched, depicting the positive changes in the partnership, which evolved in favour of the public sector. Founded conclusions for the institutional PPPs were arrived at based on the comparison between theory and practice, and scientific and positive factors for the success of such a co-operation were derived. The knowledge thus gained is summarised in the form of theses, and serve as a basis for the derivation of advice for course of action for municipal decision-makers when entering into an institutional PPP. At the beginning, a portrayal of the advice that is derived from the individual theories is given. This observation is broadened by taking a closer look at the substantial phases of the decision-making process, and by condensing such phases by applying the decision-making advice that has been derived. In this manner the municipal decision-makers are given sound practical advice. Considering the dissertation as a whole, it offers a complete, founded and sound practical guideline, which includes important criteria for entering into institutional PPPs in the municipal sector. From the reflection between theory and practice valuable hints are derived, through which it becomes especially clear which points the public side should secure. Furthermore, the municipal decision-makers can become sensitised by the knowledge gained and sharpen their senses for each individual case. Finally, important conditions are created to ensure the success of such a project. KW - Öffentlich Private Partnerschaften KW - Institutionelle Öffentlich Private Partnerschaften KW - ÖPP KW - Neuer Institutionalismus KW - ÖPP-Erfolgsfaktoren KW - Public-Private Partnerships KW - Institutional Public Private Partnerships KW - PPP KW - New Institutionalism KW - PPP-factors of success Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52435 ER - TY - THES A1 - Niederleithinger, Ernst T1 - Optimierung und Erweiterung der Parallel-Seismik-Methode zur Bestimmung der Länge von Fundamentpfählen T1 - Optimization and extension of the parallel seismic method for the determination of foundation pile length N2 - Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können. N2 - The Parallel Seismic (PS) method is used for determination of the unknown or undocumented depth/length of unknown foundations, mostly piles. Parallel Seismic is an established but rather not commonly used geophysical technique, which has been developed several decades ago. Currently, this method is standardized in France and included in the method catalog of the US FHWA. The principle behind PS is quite simple: an impulse is generated on top of the pile by a hammer stroke, generating elastic waves (mainly compressional) traveling downward through the pile. Due to the high impedance contrast between pile and soil, the main part of the energy remains in the pile, but some is transmitted as guided waves into the surrounding soil. After reaching the pile toe, transmitted/diffracted waves of nearly spherical front are generated. These waves are recorded by sensors (hydrophones or geophones) in a nearby borehole. From the first arrival times registered at the sensors, the apparent wave velocity is calculated, which is different above the pile toe (pile velocity) and below (soil velocity). In the conventional data analysis, the pile length is estimated based on the intersection of the two travel time branches, leading to a systematic overestimation of the length of the pile. This thesis provides a systematic treatise of the mathematical and physical foundations of wave propagation in piles and soil. Extensive numerical simulations and parametric studies have been carried out to investigate the nature of the wave-field and influence of measurement and structural parameters. The results revealed the range of applicability of Parallel Seismic, but also some limitations, e. g. in the case of rock socketed foundations or piles containing flaws. A new mathematical algorithm for data interpretation was developed based on the simulation results, which takes into account the soil layers and the borehole inclination. This novel data interpretation scheme was used in combination with different data inversion methods. A comparison of the results showed that the commonly used Levenberg-Marquardt type least squares approach gives sufficiently accurate estimations in most common scenarios. The VFSA (very fast simulated annealing) method offers some advantages (e. g. avoiding local minima under certain conditions) but is much more time consuming. The new interpretation method was successfully validated using several sets of simulated data. It proved to be not only more accurate than all other available methods, but also to extend the maximum allowable pile-borehole distance to 2 – 3 m. Besides the numerical study, several field investigations have been carried out for the purpose of this study and also in the framework of real world projects. The foundation types included secant pile walls and sheet piles. The method performed successfully in all cases but one: a highly accurate determination of the connection of a T-shaped footing. In this particular case, the inapplicability of the method was concluded after some preliminary simulations, thus avoiding unnecessary costs to the client. Performing simulations prior to the actual testing is recommended in dealing with all non-standard cases. Today, Parallel Seismic is the only method applicable on metallic and non metallic foundations which can be used without calibration. It has the largest range of all borehole methods. KW - Fundament KW - Pfahl KW - Zerstörungsfreie Prüfung KW - Parallel Seismik KW - Inversion KW - foundation KW - pile KW - non-destructive testing KW - parallel seismic KW - inversion Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49191 ER - TY - THES A1 - Natkhin, Marco T1 - Modellgestützte Analyse der Einflüsse von Veränderungen der Waldwirtschaft und des Klimas auf den Wasserhaushalt grundwasserabhängiger Landschaftselemente T1 - Model-based Analysis of the Impact of Changing Climate and Forest Cultivation on the Water Balance of Groundwater-Dependent Landscape Elements N2 - In den letzten drei Jahrzehnten wurden in einigen Seen und Feuchtgebieten in bewaldeten Einzugsgebieten Nordost-Brandenburgs sinkende Wasserstände beobachtet. In diesen Gebieten bestimmt die Grundwasserneubildung im Einzugsgebiet maßgeblich das Wasserdargebot der Seen und Feuchtgebiete, die deshalb hier als grundwasserabhängige Landschaftselemente bezeichnet werden. Somit weisen die sinkenden Wasserstände auf einen Rückgang der wegen des geringen Niederschlagsdargebotes ohnehin schon geringen Grundwasserneubildung hin. Die Höhe der Grundwasserneubildung ist neben den hydroklimatischen Randbedingungen auch von der Landnutzung abhängig. Veränderungen in der Waldvegetation und der hydroklimatischen Randbedingungen bewirken Änderungen der Grundwasserneubildung und beeinflussen somit auch den Wasserhaushalt der Seen und Feuchtgebiete. Aktuell wird die Waldvegetation durch Kiefernmonokulturen dominiert, mit im Vergleich zu anderen Baumarten höherer Evapotranspiration. Entwicklungen in der Forstwirtschaft streben die Verringerung von Kiefernmonokulturen an. Diese sollen langfristig auf geeigneten Standorten durch Laubmischwälder ersetzt werden. Dadurch lassen sich eine geringere Evapotranspiration und damit eine höhere Grundwasserneubildung erreichen. In der vorliegenden Arbeit werden am Beispiel des Redernswalder Sees und des Briesensees die Ursachen der beobachteten sinkenden Wasserstände analysiert. Ihre Wasserstände nahmen in den letzten 25 Jahren um mehr als 3 Meter ab. Weiterhin wird untersucht, wie die erwarteten Klimaänderungen und Veränderungen in der Waldbewirtschaftung die zukünftige Grundwasserneubildung und den Wasserhaushalt von Seen beeinflussen können. Die Entwicklung der Grundwasserneubildung im Untersuchungsgebiet wurde mit dem Wasserhaushaltsmodell WaSiM-ETH simuliert. Die Analyse der Wechselwirkungen der Seen mit dem regionalen quartären Grundwasserleitersystem erfolgte mit dem 3D-Grundwassermodell FEFLOW. Mögliche zukünftige Veränderungen der Grundwasserneubildung und der Seewasserstände durch Klimaänderungen und Waldumbau wurden mit Szenarienrechnungen bis zum Jahr 2100 analysiert. Die modellgestützte Analyse zeigte, dass die beobachteten abnehmenden Wasserstände zu etwa gleichen Anteilen durch Veränderungen der hydroklimatischen Randbedingungen sowie durch Veränderungen in der Waldvegetation und damit abnehmenden Grundwasserneubildungsraten zu erklären sind. Die zukünftigen Entwicklungen der Grundwasserneubildung und der Wasserstände sind geprägt von sich ändernden hydroklimatischen Randbedingungen und einem sukzessiven Wandel der Kiefernbestände zu Laubwäldern. Der Waldumbau hat positive Wirkungen auf die Grundwasserneubildung und damit auf die Wasserstände. Damit können die Einflüsse des eingesetzten REMO-A1B-Klimaszenarios zum Ende des Modellzeitraumes durch den Waldumbau nicht kompensiert werden, das Sinken des Wasserstandes wird jedoch wesentlich reduziert. Bei dem moderateren REMO-B1-Klimaszenario werden die Wasserstände des Jahres 2008 durch den Waldumbau bis zum Jahr 2100 überschritten. N2 - Declining water levels have been observed in some lakes and wetlands in forested catchments in North-East Brandenburg (Germany). Groundwater recharge mainly controls the supply of water available for lakes and wetlands, therefore determining them as groundwater-dependent landscape elements. Thus, the declining water levels indicate a reduction of groundwater recharge. Aspects such as climate change and different forest management practices have been considered as main factors affecting the regional groundwater regime. Currently, forest landscapes in North-East Brandenburg are dominated by pine monoculture. Depending on the climate conditions, groundwater recharge can be significantly lower under pine than under broad-leaved species like beech or oak. Regional forest administration is currently planning to expand the share of broad-leaved trees among mixed deciduous forest in the future. For this study, two lakes were chosen, the Redernswalder See and the Briesensee at Poratz. Water gauge measurements over the last 25 years showed a decline in lake water level by more than 3 m. To identify and quantify the share of changes in both, climate and forest management, the principal processes were evaluated using field measurements and water balance modelling. In the following step, alternative climate change and forestry scenarios were analysed to discover their impacts on the regional distribution of groundwater recharge. At first, the causes of the declining observed water levels were analysed. For this purpose, the physically based and fully distributed water balance model WaSiM-ETH was used to simulate groundwater recharge in the catchment and evaporation from the lake surfaces from 1958 to 2007. To analyse the geohydrological conditions, a FEFLOW 3D groundwater model was built up for the underlying Quaternary aquifer system. Possible development directions of the water balance were simulated under the influence of climate change and forest conversion until 2100. The model based analysis showed that the observed declining water levels are caused by both changes in climatic boundary conditions and in forest vegetation (age distribution and understorey) followed by decreasing groundwater recharge with an equal magnitude. The future developments of groundwater recharge and water levels are governed by changes in climatic boundary conditions and a transition from pine monoculture to broad-leaved trees. Forest conversion will show a positive effect on groundwater recharge and likely increase the water levels of lakes and wetlands. The forest conversation can not completely compensate the impact of climate change to the lake water levels, but the decrease can be significantly limited. KW - Seewasserhaushalt KW - Waldumbau KW - Grundwasserneubildung KW - Nordostdeutsches Tiefland KW - Klimaänderungen KW - lakes water balance KW - forest conversion KW - groundwater recharge KW - North-East German Plain KW - climate change Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50627 ER - TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - THES A1 - Mörbt, Nora T1 - Differential proteome analysis of human lung epithelial cells following exposure to aromatic volatile organic compounds T1 - Differentielle Proteomeanalyse humaner Lungenepithelzellen nach Exposition mit aromatischen flüchtigen Substanzen N2 - The widespread usage of products containing volatile organic compounds (VOC) has lead to a general human exposure to these chemicals in work places or homes being suspected to contribute to the growing incidence of environmental diseases. Since the causal molecular mechanisms for the development of these disorders are not completely understood, the overall objective of this thesis was to investigate VOC-mediated molecular effects on human lung cells in vitro at VOC concentrations comparable to exposure scenarios below current occupational limits. Although differential expression of single proteins in response to VOCs has been reported, effects on complex protein networks (proteome) have not been investigated. However, this information is indispensable when trying to ascertain a mechanism for VOC action on the cellular level and establishing preventive strategies. For this study, the alveolar epithelial cell line A549 has been used. This cell line, cultured in a two-phase (air/liquid) model allows the most direct exposure and had been successfully applied for the analysis of inflammatory effects in response to VOCs. Mass spectrometric identification of 266 protein spots provided the first proteomic map of A549 cell line to this extent that may foster future work with this frequently used cellular model. The distribution of three typical air contaminants, monochlorobenzene (CB), styrene and 1,2 dichlorobenzene (1,2-DCB), between gas and liquid phase of the exposure model has been analyzed by gas chromatography. The obtained VOC partitioning was in agreement with available literature data. Subsequently the adapted in vitro system has been successfully employed to characterize the effects of the aromatic compound styrene on the proteome of A549 cells (Chapter 4). Initially, the cell toxicity has been assessed in order to ensure that most of the concentrations used in the following proteomic approach were not cytotoxic. Significant changes in abundance and phosphorylation in the total soluble protein fraction of A549 cells have been detected following styrene exposure. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. Validation experiments on protein and transcript level confirmed the results of the 2-DE experiments. From the results, two main cellular pathways have been identified that were induced by styrene: the cellular oxidative stress response combined with moderate pro-apoptotic signaling. Measurement of cellular reactive oxygen species (ROS) as well as the styrene-mediated induction of oxidative stress marker proteins confirmed the hypothesis of oxidative stress as the main molecular response mechanism. Finally, adducts of cellular proteins with the reactive styrene metabolite styrene 7,8 oxide (SO) have been identified. Especially the SO-adducts observed at both the reactive centers of thioredoxin reductase 1, which is a key element in the control of the cellular redox state, may be involved in styrene-induced ROS formation and apoptosis. A similar proteomic approach has been carried out with the halobenzenes CB and 1,2-DCB (Chapter 5). In accordance with previous findings, cell toxicity assessment showed enhanced toxicity compared to the one caused by styrene. Significant changes in abundance and phosphorylation of total soluble proteins of A549 cells have been detected following exposure to subtoxic concentrations of CB and 1,2-DCB. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. As for the styrene experiment, the results indicated two main pathways to be affected in the presence of chlorinated benzenes, cell death signaling and oxidative stress response. The strong induction of pro-apoptotic signaling has been confirmed for both treatments by detection of the cleavage of caspase 3. Likewise, the induction of redox-sensitive protein species could be correlated to an increased cellular level of ROS observed following CB treatment. Finally, common mechanisms in the cellular response to aromatic VOCs have been investigated (Chapter 6). A similar number (4.6-6.9%) of all quantified protein spots showed differential expression (p<0.05) following cell exposure to styrene, CB or 1,2-DCB. However, not more than three protein spots showed significant regulation in the same direction for all three volatile compounds: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. However, all of these proteins are important molecular targets in stress- and cell death-related signaling pathways. N2 - Die vermehrte Verwendung von Produkten, welche flüchtige organische Substanzen (VOC - volatile organic compound) enthalten, hat eine generelle Exposition der Bevölkerung mit diesen Substanzen an Arbeitsplätzen aber auch in Wohnräumen bedingt. VOCs stehen im Verdacht, zur zunehmenden Inzidenz umweltbedingter Erkrankungen beizutragen. Da die molekularen Ursachen dieser Erkrankungen bisher noch unverstanden sind, war es ein übergeordnetes Ziel dieser Arbeit, VOC-vermittelte molekulare Effekte in menschlichen Lungenepithelzellen anhand eines in vitro Modells zu untersuchen. Dabei sollten vor allem Konzentrationen unterhalb der gültigen Arbeitsplatzgrenzwerte untersucht werden. Obwohl Effekte auf einzelne Proteine bekannt sind, wurden bisher keine Effekte der VOC-Exposition auf das komplexe Netzwerk der zellulären Proteine (Proteom) untersucht. Dieses Wissen ist essentiell, um induzierte zelluläre Mechanismen zu verstehen und Strategien zu deren Vermeidung zu entwickeln. Für die hier durchgeführten Untersuchungen wurde die Lungenepithelzelllinie A549 in einem Zweiphasenexpositionsmodell eingesetzt. Dieses ermöglichte eine möglichst direkte zelluläre Exposition und wurde bereits erfolgreich verwendet, um durch VOC hervorgerufene Entzündungseffekte zu identifizieren. Die massen-spektrometrische Identifikation von 266 Proteinflecken lieferte die erste umfassende Proteomkarte der A549 Zelllinie, welche nachfolgende Untersuchungen mit diesem häufig verwendeten Zelltyp erleichtern wird. Zusätzlich wurde die Verteilung der drei gängigen Luftkontaminanten Chlorbenzol (CB), Styrol and 1,2-Dichlorobenzol (1,2-DCB) zwischen den beiden Phasen (gas/flüssig) des Expositionsmodells gaschromatographisch bestimmt. Die Verteilung entsprach den verfügbaren Literaturdaten. Anschließend wurde das modifizierte Expositionsmodell erfolgreich eingesetzt, um styrol-vermittelte Effekte auf das Proteom der A549 Zellen zu charakterisieren (Kapitel 4). Zu Beginn erfolgte die Erfassung der Zelltoxizität der Substanz, um sicher zu stellen, daß der überwiegende Teil der späteren Expositionsexperimente mit subtoxischen Konzentrationen durchgeführt wird. Es konnte eine signifikant veränderte Expression und Phosphorylierung der löslichen Proteinfraktion der A549 Zellen als Reaktion auf die Styrolexposition festgestellt werden. Die regulierten Proteine wurden massenspektrometrisch identifiziert und ihre wichtigsten Funktionen wurden zugewiesen. Validierungsexperimente auf Protein- und auf Transkriptebene bestätigten die 2-DE Ergebnisse. Insgesamt konnte die zelluläre Reaktion durch die styrol-vermittelte Induktion zweier zentraler Mechanismen erklärt werden: oxidativer zellulärer Stress und beginnende Apoptose. Folgeexperimente wie die Messung der Menge der zellulären reaktiven Sauerstoffspezies (ROS) und die Induktion von redox-sensitiven Markerproteinen konnte die Hypothese eines styrol-induzierten oxidativen Milieus bestätigen. Schließlich wurden Proteinaddukte des reaktiven Styrolmetaboliten Styrol 7,8 epoxide (SO) identifiziert. Besonders die SO-Addukte, welche and den beiden aktiven Zentren der Thioredoxin Reduktase 1 gefunden wurden könnten eine wichtige Rolle bei der styrol-induzierten ROS-Bildung sowie der beginnenden Apoptose spielen. In Analogie zum Styrolexperiment wurden die Effekte der halogenierten Benzole CB und 1,2-DCB untersucht (Kapitel 5). Es konnten ebenfalls sämtliche Proteine identifiziert und die wichtigsten zellulären Funktionen zugewiesen werden. Diese Substanzen modulierten ebenfalls apoptotische Signalwege und die zelluläre Antwort auf oxidativen Streß. Der beobachtete starke pro-apoptotische Effekt konnte für beide Substanzen mit der Spaltung der Caspase 3 nachgewiesen werden. Weiterhin konnte für CB die Induktion redox-sensitiver Proteinspezies mit einem beobachteten höherem Gehalt an ROS erklärt werden. Schließlich wurden ähnliche Mechanismen der zellulären Antwort auf die Exposition mit den drei untersuchten aromatischen VOCs diskutiert (Kapitel 6). Alle getesteten VOCs verursachten eine vergleichbare differentielle Expression (p<0,05) von 4,6-6,9% aller quantifizierten Proteinspezies. Nur drei Proteinspots wurden dabei gemeinsam für alle VOCs reguliert: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. Allerdings gehören diese drei Proteine zu wichtigen zellulären Zielstrukturen der Signalwege für Stressantwort und Zelltod. KW - VOC KW - Proteom KW - Styrol KW - chlorbenzol KW - dichlorbenzol KW - VOC KW - proteome KW - styrene KW - monochlorobenzene KW - dichlorobenzene Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49257 ER - TY - THES A1 - Löwinger, Maria T1 - Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entzündungsvermittelte Dickdarmkanzerogenese T1 - Sulforaphane and Selenium : impact on phase II enzymes and selenoproteins, and the effect on the inflammation triggered colon carcinogenesis N2 - Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen. N2 - Sulforaphane (SFN), a versatile actor derived from broccoli or other brassicaceae, is proposed to be a dietary anticarcinogen. Together with an adequate selenium status, it has been associated with a decreased risk for developing certain forms of cancer. In our mouse model, we investigate the influence of SFN and Se on the expression and activity of selenoproteins and phase II enzymes as well as the effects on inflammation triggered colon carcinogenesis. SFN increased NQO1 activity and protein expression significantly in the ileum, in both, Se-deficiently and Se-adequately fed animals. TrxR activity was increased in Se-adequately compared to Se-deficiently fed mice, SFN positively affected TrxR activity only in the former ones. An increase of GPx2 protein expression by SFN was observed in the ileum of mice of both diets. GPx1 reacts sensitively on Se supply. GST was the only enzyme analyzed being significantly increased by SFN on activity level in the colon. All AOM/DSS treated animals showed an inflammation, which was attenuated by SFN within Se-adequacy. In contrast, Se-deficient animals showed a more severe inflammation. The administration of SFN therefore seemed to enhance this even more and to be not beneficial in this case. SFN inhibited colon carcinogenesis in Se-adequate mice when being administered together with AOM. To summarize, both, GPx2 and TrxR, require selenium in order to be synthesized. In contrast to TrxR, the SFN-mediated induction of GPx2, the highest ranking selenoprotein, does not depend on additional selenium supply. Whereas distinct effects by SFN were observed in the ileum, only GST was influenced by SFN in the colon. SFN seems to induce its own metabolism. In conclusion, SFN and Se attenuate inflammation and colon carcinogenesis, preferably by means of up-regulating the endogenous defense system and inhibiting the metabolic activation of AOM. KW - Sulforaphan KW - Selen KW - Dickdarmkanzerogenese KW - Phase II Enzyme KW - Selenoproteine KW - sulforaphane KW - selenium KW - colon carcinogenesis KW - phase II enzymes KW - selenoproteins Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51862 ER - TY - THES A1 - Luschtinetz, Franziska T1 - Cyaninfarbstoffe als Fluoreszenzsonden in biomimetischen und biologischen Systemen : Fluoreszenz-Korrelations-Spektroskopie und Fluoreszenzanisotropie-Untersuchungen T1 - Cyanine dyes as fluorescent probes in biomimetic and biological systems : fluorescence correlation spectroscopy and fluorescence anisotropy studies N2 - Um Prozesse in biologischen Systemen auf molekularer Ebene zu untersuchen, haben sich vor allem fluoreszenzspektroskopische Methoden bewährt. Die Möglichkeit, einzelne Moleküle zu beobachten, hat zu einem deutlichen Fortschritt im Verständnis von elementaren biochemischen Prozessen geführt. Zu einer der bekanntesten Methoden der Einzelmolekülspektroskopie zählt die Fluoreszenz-Korrelations-Spektroskopie (FCS), mit deren Hilfe intramolekulare und diffusionsgesteuerte Prozesse in einem Zeitbereich von µs bis ms untersucht werden können. Durch die Verwendung von sog. Fluoreszenzsonden können Informationen über deren molekulare Mikroumgebung erhalten werden. Insbesondere für die konfokale Mikroskopie und die Einzelmolekülspektroskopie werden Fluoreszenzfarbstoffe mit einer hohen Photostabilität und hohen Fluoreszenzquantenausbeute benötigt. Aufgrund ihrer hohen Fluoreszenzquantenausbeute und der Möglichkeit, maßgeschneiderte“ Farbstoffe in einem breiten Spektralbereich für die Absorption und Fluoreszenz zu entwickeln, sind Cyaninfarbstoffe von besonderem Interesse für bioanalytische Anwendungen. Als Fluoreszenzmarker finden diese Farbstoffe insbesondere in der klinischen Diagnostik und den Lebenswissenschaften Verwendung. Die in dieser Arbeit verwendeten Farbstoffe DY-635 und DY-647 sind zwei typische Vertreter dieser Farbstoffklasse. Durch Modifizierung können die Farbstoffe kovalent an biologisch relevante Moleküle gebunden werden. Aufgrund ihres Absorptionsmaximums oberhalb von 630nm werden sie insbesondere in der Bioanalytik eingesetzt. In der vorliegenden Arbeit wurden die spektroskopischen Eigenschaften der Cyaninfarbstoffe DY-635 und DY-647 in biomimetischen und biologischen Modellsystemen untersucht. Zur Charakterisierung wurden dabei neben der Absorptionsspektroskopie insbesondere fluoreszenzspektroskopische Methoden verwendet. Dazu zählen die zeitkorrelierte Einzelphotonenzählung zur Ermittlung des Fluoreszenzabklingverhaltens, Fluoreszenz-Korrelations-Spektroskopie (FCS) zur Beobachtung von Diffusions- und photophysikalischen Desaktivierungsprozessen und die zeitaufgelöste Fluoreszenzanisotropie zur Untersuchung der Rotationsdynamik und Beweglichkeit der Farbstoffe im jeweiligen Modellsystem. Das Biotin-Streptavidin-System wurde als Modellsystem für die Untersuchung von Protein-Ligand-Wechselwirkungen verwendet, da der Bindungsmechanismus weitgehend aufgeklärt ist. Nach Bindung der Farbstoffe an Streptavidin wurde eine erhebliche Veränderung in den Absorptions- und Fluoreszenzeigenschaften beobachtet. Es wird angenommen, dass diese spektralen Veränderungen durch Wechselwirkung von benachbarten, an ein Streptavidintetramer gebundenen Farbstoffmolekülen und Bildung von H-Dimeren verursacht wird. Für das System Biotin-Streptavidin ist bekannt, dass während der Bindung des Liganden (Biotin) an das Protein eine Konformationsänderung auftritt. Anhand von zeitaufgelösten Fluoreszenzanisotropieuntersuchungen konnte in dieser Arbeit gezeigt werden, dass diese strukturellen Veränderungen zu einer starken Einschränkung der Beweglichkeit des Farbstoffes DY-635B führen. Liegt eine Mischung von ungebundenem und Streptavidin-gebundenem Farbstoff vor, können die Anisotropieabklingkurven nicht nach einem exponentiellen Verlauf angepasst werden. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass in diesem Fall die Auswertung mit Hilfe des Assoziativen Anisotropiemodells möglich ist, welches eine Unterscheidung der Beiträge aus den zwei verschiedenen Mikroumgebungen ermöglicht. Als zweites Modellsystem dieser Arbeit wurden Mizellen des nichtionischen Tensids Tween-20 eingesetzt. Mizellen bilden eines der einfachsten Systeme, um die Mikroumgebung einer biologischen Membran nachzuahmen. Sind die Farbstoffe in den Mizellen eingelagert, so kommt es zu keiner Veränderung der Mizellgröße. Die ermittelten Werte des Diffusionskoeffizienten der mizellar eingelagerten Farbstoffe spiegeln demzufolge die Translationsbewegung der Tween-20-Mizellen wider. Die Beweglichkeit der Farbstoffe innerhalb der Tween-20-Mizellen wurde durch zeitaufgelöste Fluoreszenzanisotropiemessungen untersucht. Neben der „Wackelbewegung“, entsprechend dem wobble-in-a-cone-Modell, wird zusätzlich noch die laterale Diffusion der Farbstoffe entlang der Mizelloberfläche beschrieben. N2 - To investigate processes in biological systems on a molecular level, particularly fluorescence spectroscopic methods have proven. The possibility to observe single molecules led to significant progress in the understanding of basic biochemical processes. Fluorescence correlation spectroscopy (FCS) is one of the most popular methods of single molecule spectroscopy and is a powerful technique for the investigation of intramolecular and diffusion-controlled processes on a µs to ms time scale. The photophysical characteristics of fluorescent probes are often strongly influenced by their microenvironment. For confocal microscopy and single molecule detection applications fluorescent dyes with properties, such as high photostability and high fluorescence efficiency are highly needed. Due to the high fluorescence efficiency and the high potential to design tailor-made fluorescence probes covering a wide spectral range in absorption and fluorescence, cyanine dyes are highly attractive as fluorescence probes for bioanalytical applications, such as clinical diagnostics and life sciences. The dyes DY-635 and DY-647 are two typical representatives of this class of dyes and can be covalently attached to biologically relevant molecules. Because of their excitation wavelength above 630nm these dyes are especially suited for bioanalytical applications. In this work the spectroscopic properties of DY-635 and DY-647 in biomimetic and biological model systems were studied by absorption and fluorescence spectroscopy techniques: time-correlated single photon counting to determine fluorescence decay behavior, fluorescence correlation spectroscopy (FCS) to observe diffusion and photophysical deactivation processes, and fluorescence anisotropy to study the mobility and rotational behavior of the dyes in the respective model system. The well characterized system biotin-streptavidin was used as a model system for protein-ligand interactions. Binding to streptavidin resulted in significant changes in the steady-state photophysical characteristics of DY-635B and DY-647. These spectral changes are attributed to dye-dye interactions and the formation of H-dimers. Previous studies have demonstrated, that binding of biotin alters the conformation of streptavidin. Based on the evaluation of time-resolved anisotropy data in this study it was shown that these structural changes result in strong hindrance of the rotational freedom of DY-635B. For mixtures of unbound and streptavidin-bound dyes the fluorescence anisotropy decay curves are found to be nonexponential. In this case the concept of an associated anisotropy were applied which allowed discrimination between contributions from different microenvironments. As a second model system, micelles of the nonionic surfactant Tween-20 were used. Micelles are one of the simplest systems to mimic the microenvironment of a biological membrane. Incorporation of the dyes had no effect on the micelle size. The diffusion coefficient of the dyes, obtained by fluorescence correlation spectroscopy (FCS), reflects the translational behavior of Tween-20 micelles. The mobility of the dyes in the Tween-20 micelles was studied by time-resolved fluorescence anisotropy. In addition to a „wobbling“ motion ccording to the wobble-in-a-cone model, a lateral diffusion of the dyes along the micelle surface is described. KW - Cyaninfarbstoffe KW - Fluoreszenz-Korrelations-Spektroskopie KW - Fluoreszenzanisotropie KW - Biotin-Streptavidin KW - Assoziatives Anisotropiemodell KW - cyanine dyes KW - fluorescence correlation spectroscopy KW - fluorescence anisotropy KW - biotin streptavidin KW - associated anisotropy Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48478 ER - TY - THES A1 - Liesenjohann, Thilo T1 - Foraging in space and time T1 - Nahrungssuche unter variablen zeitlichen und räumlichen Bedingungen N2 - All animals are adapted to the environmental conditions of the habitat they chose to live in. It was the aim of this PhD-project, to show which behavioral strategies are expressed as mechanisms to cope with the constraints, which contribute to the natural selection pressure acting on individuals. For this purpose, small mammals were exposed to different levels and types of predation risk while actively foraging. Individuals were either exposed to different predator types (airborne or ground) or combinations of both, or to indirect predators (nest predators). Risk was assumed to be distributed homogeneously, so changing the habitat or temporal adaptations where not regarded as potential options. Results show that wild-caught voles have strategic answers to this homogeneously distributed risk, which is perceived by tactile, olfactory or acoustic cues. Thus, they do not have to know an absolut quality (e.g., in terms of food provisioning and risk levels of all possible habitats), but they can adapt their behavior to the actual circumstances. Deriving risk uniform levels from cues and adjusting activity levels to the perceived risk is an option to deal with predators of the same size or with unforeseeable attack rates. Experiments showed that as long as there are no safe places or times, it is best to reduce activity and behave as inconspicuous as possible as long as the costs of missed opportunities do not exceed the benefits of a higher survival probability. Test showed that these costs apparently grow faster for males than for females, especially in times of inactivity. This is supported by strong predatory pressure on the most active groups of rodents (young males, sexually active or dispersers) leading to extremely female-biased operative sex ratios in natural populations. Other groups of animals, those with parental duties such as nest guarding, for example, have to deal with the actual risk in their habitat as well. Strategies to indirect predation pressure were tested by using bank vole mothers, confronted with a nest predator that posed no actual threat to themselves but to their young (Sorex araneus). They reduced travelling and concentrated their effort in the presence of shrews, independent of the different nutritional provisioning of food by varying resource levels due to the different seasons. Additionally, they exhibited nest-guarding strategies by not foraging in the vicinity of the nest site in order to reduce conspicuous scent marks. The repetition of the experiment in summer and autumn showed that changing environmental constraints can have a severe impact on results of outdoor studies. In our case, changing resource levels changed the type of interaction between the two species. The experiments show that it is important to analyze decision making and optimality models on an individual level, and, when that is not possible (maybe because of the constraints of field work), groups of animals should be classified by using the least common denominator that can be identified (such as sex, age, origin or kinship). This will control for the effects of the sex or stage of life history or the individual´s reproductive and nutritional status on decision making and will narrow the wide behavioral variability associated with the complex term of optimality. N2 - Das Verhalten von Tieren ist das Ergebnis eines kontinuierlichen Anpassungsprozesses im Laufe der Evolution einer Art und damit der Veränderung der Umgebung in der es lebt und der Interaktion mit anderen Arten. Dies wird besonders deutlich im Verhalten von potentiellen Beutetieren, ihre Strategien beinhalten meist ein möglichst unauffälliges Verhalten im Zusammenspiel mit reduzierter Bewegung und möglichst guter Tarnung. Dementgegen stehen essentielle Bedürfnisse, wie zum Beispiel die Nahrungssuche, die Verteidigung von Ressourcen (zum Beispiel Territorien, Futterstellen) und die Suche nach Paarungspartnern. Beutetiere leben also in einem Spannungsfeld indem sie Ihr Verhalten optimieren müssen. Hierbei stehen die Ernährung, erfolgreiche Verpaarung und andere Chancen auf der einen Seite, die Vermeidung von Begegnungen mit Prädatoren auf der anderen. Vor allem Kleinsäuger sind häufig als Beutetiere mit einer Vielzahl von Prädatoren aus der Luft und auf dem Boden konfrontiert. Sie müssen für die verschiedenen Bedrohungen adaptive Verhaltensanpassungen bereit haben und in der Lage sein, auf die optischen, olfaktorischen oder akustischen Signale, die die Gefahr durch Prädatoren anzeigen, mit plastischen Verhaltensmustern zu reagieren. Die vorliegende Dissertation beschäftigt sich mit bisher als Konstanten behandelten Faktoren und untersucht anhand von Verhaltensexperimenten mit wilden Wühlmäusen (Microtus arvalis) folgende Fragestellungen: - Wie verhalten sich Tiere, die einer homogenen Risikoverteilung ausgesetzt sind, zum Beispiel weil ihr Prädator genauso gross ist wie sie, im gleichen Habitat lebt und es keinen sicheren Ort gibt? - Mit welchen Anpassungen reagieren Tiere, wenn sie gleichzeitig verschiedenen Prädatoren ausgesetzt sind? - Wie unterscheiden sich die Nahrungssuchstrategien von Männchen und Weibchen? - Wie verhalten sich laktierende Weibchen, die einer permanenten, indirekten Gefahr, z.B. durch einen Nestprädator ausgesetzt sind? Die Ergebnisse der verschiedenen Versuche in künstlichen Arenen und Aussengehegen zeigen, dass die Mäuse in der Lage sind, adaptive Verhaltensanpassung an homogenes Risiko und verschiedene Prädationstypen abzurufen. So sind sie in der Lage, Luft- von Bodenprädatoren zu unterscheiden und jeweils das Verhalten zu zeigen, dass die größtmögliche Sicherheit mit sich bringt. Die simultane Kombination von verschiedenen Prädatoren bewirkt hierbei additive Effekte. Gibt es keine Auswahl zwischen Habitaten, sondern nur unterschiedliche homogene Risikolevel, reagieren sie auf steigendes Risiko immer mit verminderter Aktivität und konzentrieren ihre Nahrungssuche auf weniger Futterstellen, beuten diese dafür jedoch länger aus. Die Wertigkeit von Futterstellen und alternativen Optionen verändert sich also mit dem Risikolevel. Ähnliches zeigt sich auch in den unterschiedlichen Futtersuchstrategien von Männchen und Weibchen. Die untersuchte Art ist polygyn und multivoltin, dementsprechend verbinden die Männchen mit ihrer Nahrungssuche Aktivitäten wie die Suche nach Paarungspartnern und unterscheiden sich die Aktivitätsmuster zwischen Männchen und Weibchen. Zusätzlich zeigen die Ergebnisse, das laktierende Weibchen in der Lage sind, das Risiko für sich und für Ihre Jungen abzuschätzen, wenn sie mit einem Nestprädator (Sorex araneus) konfrontiert werden. Für die Interaktion zwischen diesen beiden Arten ist jedoch die Saison (und damit die Ressourcenlage), in der sie sich begegnen, von entscheidender Bedeutung. Wühlmäuse reagieren mit entsprechenden Verhaltensanpassungen zum Schutz des Nestes um die Überlebenschancen ihrer letzten Würfe im Herbst zu erhöhen. Die vorliegende Arbeit konnte grundsätzliche Probleme der antiprädatorischen Verhaltensanpassung von Beutetieren klären und wichtige Faktoren der Entscheidungsfindung unter Prädationsdruck analysieren. Sie zeigt, dass Tiere das Risiko in ihrer Umgebung nicht unbedingt über direkt Signale wahrnehmen, sondern ihre Verhaltensstrategien einem empfundenen Gesamtrisikolevel anpassen. Dies ermöglicht ihnen, adaptive Strategien zu verfolgen, auch wenn sie keine Auswahl an sicheren Habitaten haben. Sie zeigt auch die unterschiedliche Wahrnehmung von Risiken durch Männchen und Weibchen, die durch die unterschiedlichen mit der Aktivität zusätzlich wahrgenommenen Chancen verknüpft zu sein scheint. Zusätzlich wurde der Einfluss des reproduktiven Status (z.B. laktierend), sowie der Ressourcenlage (z. B. je nach Saison) nachgewiesen. KW - Nahrungssuche KW - Microtus KW - Wühlmaus KW - Prädation KW - Optimalität KW - Predation KW - Microtus KW - Optimality KW - Seasonality KW - Foraging Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48562 ER - TY - THES A1 - Lengefeld, Jan T1 - Zirkulardichroismus-Messungen mit Synchrotronstrahlung am BESSY : Möglichkeiten und Grenzen bei der Untersuchung biologischer Proben T1 - Synchrotron radiation circular dichroism measurements at BESSY : potentials and limitations investigating biological samples N2 - In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar. N2 - The possibilities and limitations for synchrotron radiation circular dichroism measurements were investigated in this thesis. Therefore an experimental setup to measure circular dichroism was used at two beamlines at the “Berliner Elektronenspeicherring für Synchrotronstrahlung”(BESSY), which were suitable in the ultraviolet range of light. Properties of the beamlines and the experimental setup were compared to those of commercial circular dichroism spectrometer in some important points. The focus was on the extension of the accessible wavelength range below 180 nm, with the aim to investigate the circular dichroism of proteins in that range. It is not only the light source that limits measurements with aqueous solutions in that range, but mainly the absorption of the light by water. Conditions were found under which the wavelength range was extended to about 160 nm, in some cases even to 130 nm. To achieve this, a significant reduction of the pathlength was necessary. Several sample cells were tested for their usability. The effect of birefringence within the sample cells on the circular dichroism signal could be reduced strongly with an alternative experimental setup. However systematic errors in the circular dichroism signal and appearing radiation damage of the proteins limits the reliability of the measured spectra. By using protein films, the light absorption by water is not a problem anymore. However, significant differences between the circular dichroism spectra of protein films and proteins in aqueous solution occurred in most of the cases. Unless these differences can be eliminated, measuring protein films is not an alternative to measurements in aqueous solution. KW - Synchrotronstrahlung KW - Zirkulardichroismus KW - BESSY KW - Wasserabsorption KW - Protein KW - synchrotron radiation KW - circular dichroism KW - BESSY KW - water absorbance KW - protein Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44263 ER - TY - THES A1 - Landgraf, Angela T1 - Fault interaction at different time- and length scales : the North Tehran thrust and Mosha-Fasham fault (Alborz mountains, Iran) T1 - Störungsinteraktion auf verschiedenen räumlichen und zeitlichen Skalen : die Nord-Teheran Überschiebung und die Mosha-Fasham Störung, Elburs Gebirge, Iran N2 - The seismically active Alborz mountains of northern Iran are an integral part of the Arabia-Eurasia collision. Linked strike-slip and thrust/reverse-fault systems in this mountain belt are characterized by slow loading rates, and large earthquakes are highly disparate in space and time. Similar to other intracontinental deformation zones such a pattern of tectonic activity is still insufficiently understood, because recurrence intervals between seismic events may be on the order of thousands of years, and are thus beyond the resolution of short term measurements based on GPS or instrumentally recorded seismicity. This study bridges the gap of deformation processes on different time scales. In particular, my investigation focuses on deformation on the Quaternary time scale, beyond present-day deformation rates, and it uses present-day and paleotectonic characteristics to model fault behavior. The study includes data based on structural and geomorphic mapping, faultkinematic analysis, DEM-based morphometry, and numerical fault-interaction modeling. In order to better understand the long- to short term behavior of such complex fault systems, I used geomorphic surfaces as strain markers and dated fluvial and alluvial surfaces using terrestrial cosmogenic nuclides (TCN, 10Be, 26Al, 36Cl) and optically stimulated luminescence (OSL). My investigation focuses on the seismically active Mosha-Fasham fault (MFF) and the seismically virtually inactive North Tehran Thrust (NTT), adjacent to the Tehran metropolitan area. Fault-kinematic data reveal an early mechanical linkage of the NTT and MFF during an earlier dextral transpressional stage, when the shortening direction was oriented northwest. This regime was superseded by Pliocene to Recent NE-oriented shortening, which caused thrusting and sinistral strike-slip faulting. In the course of this kinematic changeover, the NTT and MFF were reactivated and incorporated into a nascent transpressional duplex, which has significantly affected landscape evolution in this part of the range. Two of three distinctive features which characterize topography and relief in the study area can be directly related to their location inside the duplex array and are thus linked to interaction between eastern MFF and NTT, and between western MFF and Taleghan fault, respectively. To account for inferred inherited topography from the previous dextral-transpression regime, a new concept of tectonic landscape characterization has been used. Accordingly, I define simple landscapes as those environments, which have developed during the influence of a sustained tectonic regime. In contrast, composite landscapes contain topographic elements inherited from previous tectonic conditions that are inconsistent with the regional present-day stress field and kinematic style. Using numerical fault-interaction modeling with different tectonic boundary conditions, I calculated synoptic snapshots of artificial topography to compare it with the real topographic metrics. However, in the Alborz mountains, E-W faults are favorably oriented to accommodate the entire range of NW- to NE-directed compression. These faults show the highest total displacement which might indicate sustained faulting under changing boundary conditions. In contrast to the fault system within and at the flanks of the Alborz mountains, Quaternary deformation in the adjacent Tehran plain is characterized by oblique motion and thrust and strike-slip fault systems. In this morphotectonic province fault-propagation folding along major faults, limited strike-slip motion, and en-échelon arrays of second-order upper plate thrusts are typical. While the Tehran plain is characterized by young deformation phenomena, the majority of faulting took place in the early stages of the Quaternary and during late Pliocene time. TCN-dating, which was performed for the first time on geomorphic surfaces in the Tehran plain, revealed that the oldest two phases of alluviation (units A and B) must be older than late Pleistocene. While urban development in Tehran increasingly covers and obliterates the active fault traces, the present-day kinematic style, the vestiges of formerly undeformed Quaternary landforms, and paleo earthquake indicators from the last millennia attest to the threat that these faults and their related structures pose for the megacity. N2 - Das seismisch aktive Elburs Gebirge im Nordiran ist Bestandteil der Arabisch-Eurasischen Kollisionszone. Gekoppelte Blattverschiebungs- und Überschiebungssysteme dieses Gebirges zeichnen sich durch geringe Spannungsaufbauraten aus. Dementsprechend treten große Erdbeben räumlich und zeitlich weit verteilt voneinander auf und Wiederkehrperioden solcher Erdbeben können tausende von Jahren dauern und wurden noch nicht von kurzzeitigen Messmethoden, wie GPS oder instrumenteller Seismologie erfasst. Diese Arbeit überbrückt verschiedene Zeitskalen. Diese Studie beinhaltet insbesondere Auswertungen struktureller und geomorphologischer Kartierungen, störungskinematische Analysen, auf digitalen Höhenmodellen basierende Morphometrie und numerische Modellierung von Störungsinteraktion. Um das lang- und kurzfristige Verhalten solcher komplexen Schwächezonen besser zu verstehen, benutze ich geomorphologische Oberflächen als Deformationsmarker und datiere alluviale und fluviatile Oberflächen mittels kosmogener Nuklide (TCN, 10Be, 26Al, 36Cl) und optisch stimulierter Lumineszenz (OSL). Mein Untersuchungsgebiet umfasst die seismisch aktive Mosha-Fasham Störung (MFF) und die als seismisch quasi inaktiv geltende Nordteheranstörung (NTT), die sich in unmittelbarer Nähe zum Teheraner Ballungsgebiet befinden. Die Ergebnisse zeigen, dass sich das Deformationfeld mit der Zeit verändert hat. Die störungskinematischen Daten haben ergeben, dass NTT und MFF bereits seit einer früheren dextral-transpressionalen Phase unter NW-gerichteter Einengung mechanisch gekoppelt sind. Dieses System wurde von pliozäner und bis heute andauernder NE-gerichteter Einengung ersetzt, woraufhin sich Überschiebungen und linkslaterale Blattverschiebungen herausbildeten. Während dieses kinematischen Wechsels wurden NTT und MFF reaktiviert und in ein beginnendes transpressionales Duplexsystem eingebunden, welches die Landschaftentwicklung in diesem Teil des Gebirges signifikant beeinflusst hat. Zwei von drei ausgeprägten topographischen Besonderheiten des Untersuchungsgebietes können direkt mit deren Lage in der Duplexanordnung in Verbindung gebracht werden und spiegeln Interaktion zwischen den östlichen Segmenten von NTT und MFF, bzw., zwischen dem westlichen Segment der MFF und der parallelen Taleghan Schwächezone wider. Um diejenige Topographie auszuweisen, die möglicherweise aus der vorhergehenden Phase vererbt wurde, wurde ein neues Konzept tektonischer Landschaftscharakterisierung benutzt. Einfache Landschaften sind unter dem Einfluß gleichbleibender tektonischer Randbedingungen entstanden. Dagegen enthalten zusammengesetzte Landschaften vererbte Elemente vergangener tektonischer Randbedingungen, die mit dem heutigen Spannungsfeld und kinematischen Stil unvereinbar sind. Mittels numerischer Störungsinteraktionsmodellierungen teste ich verschiedene Randbedingungen und berechne synoptische Momentaufnahmen künstlicher Topographie um sie mit reellen topographischen Maßen zu vergleichen. Im Elburs Gebirge treten allerdings auch E-W streichende Schwächezonen auf, die so günstig orientiert sind, dass sie Verformung unter der gesamten Einengungsspanne von Nordwest nach Nordost zeigen. Diese weisen den höchsten totalen Versatz auf. Hier tritt das Grundgebirge zutage und wird versetzt, was, wie die Modellierungen vermuten lassen, auf langanhaltende Verformung unter sich ändernden Randbedingungen hinweisen kann. Quartäre Deformation in der benachbarten Teheran Ebene ist durch Schrägbewegungen, Überschiebungen und Blattverschiebungssyteme gekennzeichnet, die typischerweise in Auffaltungen entlang von Hauptstörungen, vereinzelten Blattverschiebungen und en-échelon Anordnungen untergeordneter oberflächlicher Überschiebungen resultieren. Junge Deformation tritt auf, die Hauptbewegungen fanden allerdings im frühen Quartär und wahrscheinlich späten Pliozän statt. TCN-Datierungen, die erstmalig an geomorphologischen Oberflächen in der Teheran Ebene durchgeführt wurden, ergeben dass die beiden älteren Sedimentationsphasen (Einheiten A und B) älter sind als spätes Pleistozän. Obwohl die urbane Entwicklung im Teheraner Ballungsraum die aktiven Störungslinien zunehmend verdeckt und ausradiert, zeugen der heutige kinematische Stil, die Überreste ehemals unverstellter Quartärer Landschaftsformen und Hinweise auf Paläoerdbeben während der letzten Jahrtausende von der Gefahr, die diese Schwächezonen für die Megastadt bedeuten. KW - Störungsinteraktion KW - Tektonische Geomorphologie KW - Kosmogene Nuklide KW - Elburs KW - Iran KW - Fault interaction KW - Tectonic geomorphology KW - Cosmogenic nuclides KW - Alborz KW - Iran Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50800 ER - TY - THES A1 - Kummer, Michael T1 - Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorgänger in der DDR : ein Vergleich ihrer Bedingungen T1 - The football clubs Rot-Weiss Erfurt and Carl Zeiss Jena and its predecessors in the GDR : a comparison of their conditions N2 - Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit. N2 - The SC Motor/FC Carl Zeiss Jena was in the late 50's to the 80's one of the DFV der DDR and of the DTSB repeatedly nominated and confirmed priority club within the so-called civilian clubs. The SC Turbine/FC Rot-Weiss Erfurt could never reach this status within the Football Association. The central question of this thesis to the specific structure of conditions of the civilian priority club FC Carl Zeiss Jena (and earlier) and of the civilian non-focal clubs FC Rot-Weiss Erfurt (and earlier) in the East German football system resulted from these different privileges, and the uneven track records of these two clubs. The hypothesis of the comparative case study to suspected a direct relationship between these highly visible success differences between the two teams in the East and made the key requirements. Additionally it was suggested that a significant proportion of the Jena successes to the particularly strong support of the economically powerful VEB Carl Zeiss Jena was due. To investigate these relationships, the author asked about the specific preferences of the Jena focal club and the disadvantages of the Erfurt non-focal clubs and on the specific conditions and scope for action of the two Thuringian teams in the GDR. This resulted in a series of detailed, based on a comparison of the different conditions in Erfurt and Jena out questions that are answered in detail in this study: What was the specific support of the DFV or the DTSB for a priority club like Jena at all from? Who took effect on the club, by whom they were dependent on who they supported by what is included? How these decisions were implemented on site? Who were the carrier companies and to what extent and how dedicated these for football in Erfurt and Jena? How did the frequent change of the best players reached Erfurt in Jena? Why was the overall direction of these changes unilaterally in the direction of Jena? What financial, material and social conditions were the players in Jena and Erfurt are offered? The present results of this first time to the civilian clubs at the micro-perspective scale systematic study to confirm the already by Hans Joachim Teichler as fundamental to the East German football described patterns of conflict of "Football local patriotism versus party argue." Unauthorized actions of many managers and many party and union officials in the support operations for example, could be detected in Erfurt at the arbitrary increase in the numbers of pictures of football players at the KJS Erfurt in Jena or to the appointing of the footballers in the Zeiss factory. The Soviet model based on the GDR sports system provoked by his close ties to the carrier companies almost hidden benefits of companies that have been passed down through the clubs to the players. For the central authorities of the East German football was a constant problem because it deprived a large part of the operations of local control. As described in the present work, exactly that was, however, the key to the success of the SC Motor/FC Carl Zeiss Jena of the late 50's until the early 80's and for the comparative failure of the SC Turbine/FC Rot-Weiss Erfurt in the same period. That were the financial, physical and social opportunities the key reason for the players, ultimately, to move to another club or BSG, consequently, therefore market mechanisms, and this is primarily the reason for the strength of the SC Motor/FC Carl Zeiss Jena looking for is is a central finding of this study. KW - DDR-Fußball KW - FC Rot-Weiß Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena KW - GDR-football KW - FC Rot-Weiss Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51065 ER - TY - THES A1 - Kuehnast, Milena T1 - Processing negative imperatives in Bulgarian : evidence from normal, aphasic and child language T1 - Die Verarbeitung von negativen Imperativen im Bulgarischen : Evidenz aus Spracherwerb und Sprachstörung N2 - The incremental nature of sentence processing raises questions about the way the information of incoming functional elements is accessed and subsequently employed in building the syntactic structure which sustains interpretation processes. The present work approaches these questions by investigating the negative particle ne used for sentential negation in Bulgarian and its impact on the overt realisation and the interpretation of imperative inflexion, bound aspectual morphemes and clitic pronouns in child, adult and aphasic language. In contrast to other Slavic languages, Bulgarian negative imperatives (NI) are grammatical only with imperfective verbs. We argue that NI are instantiations of overt aspectual coercion induced by the presence of negation as a temporally sensitive sentential operator. The scope relation between imperative mood, negation, and aspect yields the configuration of the imperfective present which in Bulgarian has to be overtly expressed and prompts the imperfective marking of the predicate. The regular and transparent application of the imperfectivising mechanism relates to the organisation of the TAM categories in Bulgarian which not only promotes the representation of fine perspective shifts but also provides for their distinct morphological expression. Using an elicitation task with NI, we investigated the way 3- and 4-year-old children represent negation in deontic contexts as reflected in their use of aspectually appropriate predicates. Our findings suggest that children are sensitive to the imperfectivity requirement in NI from early on. The imperfectivisation strategies reveal some differences from the target morphological realisation. The relatively low production of target imperfectivised prefixed verbs cannot be explained with morphological processing deficits, but rather indicates that up to the age of five children experience difficulties to apply a progressive view point to accomplishments. Two self-paced reading studies present evidence that neurologically unimpaired Bulgarian speakers profit from the syntactic and prosodic properties of negation during online sentence comprehension. The imperfectivity requirement negation imposes on the predicate speeds up lexical access to imperfective verbs. Similarly, clitic pronouns are more accessible after negation due to the phono-syntactic properties of clitic clusters. As the experimental stimuli do not provide external discourse referents, personal pronouns are parsed as object agreement markers. Without subsequent resolution, personal pronouns appear to be less resource demanding than reflexive clitics. This finding is indicative of the syntax-driven co-reference establishment processes triggered through the lexical specification of reflexive clitics. The results obtained from Bulgarian Broca's aphasics show that they exhibit processing patterns similar to those of the control group. Notwithstanding their slow processing speed, the agrammatic group showed no impairment of negation as reflected by their sensitivity to the aspectual requirements of NI, and to the prosodic constraints on clitic placement. The aphasics were able to parse the structural dependency between mood, negation and aspect as functional categories and to represent it morphologically. The prolonged reaction times (RT) elicited by prefixed verbs indicate increasing processing costs due to the semantic integration of prefixes as perfectivity markers into an overall imperfective construal. This inference is supported by the slower RT to reflexive clitics, which undergo a structurally triggered resolution. Evaluated against cross-linguistic findings, the obtained result strongly suggests that aphasic performance with pronouns depends on the interpretation efforts associated with co-reference establishment and varies due to availability of discourse referents. The investigation of normal and agrammatic processing of Bulgarian NI presents support for the hypothesis that the comprehension deficits in Broca's aphasia result from a slowed-down implementation of syntactic operations. The protracted structure building consumes processing resources and causes temporal mismatches with other processes sustaining sentence comprehension. The investigation of the way Bulgarian children and aphasic speakers process NI reveals that both groups are highly sensitive to the imperfective constraint on the aspectual construal imposed by the presence of negation. The imperfective interpretation requires access to morphologically complex verb forms which contain aspectual morphemes with conflicting semantic information – perfective prefixes and imperfective suffixes. Across modalities, both populations exhibit difficulties in processing prefixed imperfectivised verbs which as predicates of negative imperative sentences reflect the inner perspective the speaker and the addressee need to take towards a potentially bounded situation description. N2 - Die schnelle und automatische Natur der Satzverarbeitung wirft Fragen nach der inkrementellen Integration von funktionalen Elementen auf. Wie erfolgt der Zugriff auf die strukturellen, semantischen und prosodischen Informationen der funktionalen Elemente? Wie werden diese Informationen beim Aufbau der syntaktischen Struktur so verknüpft, dass eine wohlgeformte semantische Repräsentation entsteht? Die vorliegende Dissertation widmet sich diesen Fragen durch die Untersuchung der Verarbeitungsmuster von bulgarischen negativen Imperativen (NI) in der Sprache von Kindern, Erwachsenen und Broca-Aphasikern. Die Effekte der Negationspartikel ne auf die Realisierung und die Interpretation von Imperativ- und Aspektmorphologie sowie von klitischen Pronomen werden in Produktions- und online Satzverständnistests untersucht. Im Unterschied zu anderen slawischen Sprachen sind synthetische NI im Bulgarischen mit perfektiven Verben ungrammatisch. Diese Besonderheit wird zunächst durch die aspektuelle Interpretation von NI und die sprachspezifische Organisation des TAM-Systems begründet. Die Aspektrestriktion resultiert aus dem Aspektzwang, den die Negation als temporal sensitiver Operator auslöst. Die Skopusrelation zwischen imperativem Modus, Negation und Aspekt ergibt die temporale Konfiguration von imperfektivem Präsens, die im Bulgarischen morphologisch durch die Imperfektivierung des Prädikats markiert werden muss. Der Wechsel in der aspektuellen Perspektive wird durch einen produktiven und transparenten Imperfektivierungsmechanismus gewährleistet. Der Erwerb von Negation in deontischen Kontexten wurde anhand der Produktion von imperfektiven Prädikaten in einem Elizitationsexperiment mit 3- und 4-jährigen Kindern untersucht. Die Ergebnisse belegen eine frühe Sensitivität für die aspektuelle Wohlgeformtheit der NI. Die Imperfektivierungsstragien zeigen jedoch Abweichungen von der zielsprachlichen morphologischen Realisierung. Die relativ niedrige Produktion von imperfektivierten präfigierten Verben kann nicht durch Defizite in der Morphologieverarbeitung erklärt werden. Die Fehleranalyse verdeutlicht die Schwierigkeiten der Kinder eine Innenperspektive zu potenziell gebundenen Ereignissen einzunehmen, die der zielsprachlichen Interpretation entspräche. Die syntaktischen und prosodischen Effekte der Negation auf die inkrementelle Verarbeitung von Imperativen bei erwachsenen bulgarischen Muttersprachlern wurde in zwei online Leseexperimenten (self-paced reading) untersucht. Die Reaktionszeiten (RT) zeigen, dass die Negation den lexikalischen Zugriff auf imperfektive Verben beschleunigt. In NI wird der Verarbeitungsaufwand für klitische Pronomen auch deutlich reduziert, da die proklitische Negation mit den pronominalen Enklitika eine phono-syntaktisch strikt geordnete Sequenz bildet. Da der experimentelle Kontext keine externen Diskursreferenten bereitstellt, werden klitische Personalpronomen als Objektkongruenzmarker verarbeitet. Dementsprechend elizitieren sie kürzere RT als die reflexiven Klitika, die eine syntaktisch motivierte Resolution auslösen. Abgesehen von der deutlich verlangsamten Geschwindigkeit, weisen die RT der untersuchten Broca-Aphasikern ein mit dem der Kontrollgruppe vergleichbares Muster auf. Die Agrammatiker profitieren vom Aspektzwang sowie von den phono-syntaktischen Restriktionen der klitischen Gruppe in NI. Dieses Ergebnis wird als Evidenz interpretiert, dass keine qualitative Beeinträchtigung in der Verarbeitung der funktionalen Eigenschaften der Negation vorliegt. Die Aphasiker sind in der Lage die strukturell bedingte Interaktion zwischen Modus, Negation und Aspekt zu parsen und morphologisch abzubilden, weisen jedoch längere RT für präfigierte Verben auf, was auf einen erhöhten Interpretationsaufwand hindeutet. Die längeren RT der reflexiven Klitika sprechen auch dafür, dass die Performanz der Broca-Aphasikern eher durch den Resolutionsprozess und durch die Verfügbarkeit von Diskursreferenten bedingt wird. Die Lesezeit-Experimente liefern Evidenz für die Hypothese, dass Verständnisdefizite bei Broca-Aphasie von einer langsamen Implementierung syntaktischer Operationen resultieren. Die Limitierung von Verarbeitungsressourcen verzögert den Strukturaufbau und verursacht zeitliche Diskrepanzen zwischen Prozessen, die die semantische Repräsentation bedingen. Die Untersuchungen zur Verarbeitung von NI bei bulgarischen Kindern und Broca-Aphasikern belegen die hohe Sensitivität beider Gruppen für den Aspektzwang in prohibitiven NI. Die imperfektive Interpretation erfordert Zugang zu morphologisch komplexen Verben mit semantisch widersprüchlichen aspektuellen Affixen – perfektiven Präfixen und imperfektiven Suffixen. Beide Gruppen haben Schwierigkeiten präfigierte imperfektivierte Verben zu verarbeiten. Als Prädikate in NI reflektieren solche komplexe Verben die innere Perspektive, die Sprecher und Hörer in der Repräsentation eines potenziell gebundenen Ereignisses einzunehmen haben. KW - Negation KW - Aspekt KW - Bulgarisch KW - Agrammatismus KW - Spracherwerb KW - negation KW - aspect KW - agrammatism KW - language acquisition KW - Bulgarian Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45826 ER - TY - THES A1 - Ksianzou, Viachaslau T1 - Second-order nonlinear optical interactions and cascading effects in thinorganic films T1 - Nichtlineare optische Wechselwirkung zweiter Ordnung und Cascading in dünnen organischen Schichten N2 - The presented work describes new concepts of fast switching elements based on principles of photonics. The waveguides working in visible and infra-red ranges are put in a basis of these elements. And as materials for manufacturing of waveguides the transparent polymers, dopped by molecules of the dyes possessing second order nonlinear-optical properties are proposed. The work shows how nonlinear-optical processes in such structures can be implemented by electro-optical and opto-optical control circuit signals. In this paper we consider the complete cycle of fabrication of several types of integral photonic elements. The theoretical analysis of high-intensity beam propagation in media with second-order optical nonlinearity is performed. Quantitative estimations of necessary conditions of occurrence of the nonlinear-optical phenomena of the second order taking into account properties of used materials are made. The paper describes the various stages of manufacture of the basic structure of the integrated photonics: a planar waveguide. Using the finite element method the structure of the electromagnetic field inside the waveguide in different modes was analysed. A separate part of the work deals with the creation of composite organic materials with high optical nonlinearity. Using the methods of quantum chemistry, the dependence of nonlinear properties of dye molecules from its structure were investigated in details. In addition, the paper discusses various methods of inducing of an optical nonlinearity in dye-doping of polymer films. In the work, for the first time is proposed the use of spatial modulation of nonlinear properties of waveguide according Fibonacci law. This allows involving several different nonlinear optical processes simultaneously. The final part of the work describes various designs of integrated optical modulators and switches constructed of organic nonlinear optical waveguides. A practical design of the optical modulator based on Mach-Zehnder interferometer made by a photolithography on polymer film is presented. N2 - Die vorliegende Arbeit beschreibt neue Konzepte für schnelle photonische Schaltelemente. Diese Elemente basieren auf optischer Wellenleitung im sichtbaren und nahen infraroten Spektralbereich. Die Arbeit ist auf organische Wellenleiter aus transparenten, farbstoffdotierten Polymeren fokussiert, welche Chromophore mit besonders großen optischen Nichtlinearitäten zweiter Ordnung enthalten. Insbesondere wird dargestellt, wie nichtlineare optische Prozesse in derartigen Bauelementen genutzt werden können, wenn man elektrische oder optische Steuersignale einsetzt. Es wird der gesamte Her-stellungszyklus verschiedener integrierter photonischer Bauelemente betrachtet. Die Arbeit umfasst weiterhin eine detaillierte theoretische Analyse der Wellenausbreitung in Medien mit großer nichtlinearer optischer Suszeptibilität zweiter Ordnung bei hoher Lichtintensität. Unter Annahme optischer Materialkonstanten, welche den experimentell ermittelten Werten entsprechen, erfolgte eine quantitative Abschätzung für das Auftreten von Szenarien, bei denen messbare Abwei-chungen der Strahlausbreitung vom linearen Regime auftreten, z:B. das Auftreten von zeitlichen, räumlichen und spektralen Satteliten zu den im Material propagierenden Laserpulsen. Es gelang, we-sentliche Aspekte der Strahlpropagationsprozesse durch Anwendung von Jacobi-Integralfunktionen in geschlossener mathematischer Form darzustellen. Darüber hinausgehende theoretische Untersuchungen nutzten die Finite-Elemente-Methode, um die Verteilung des elektromagnetischen Feldes im Inneren optischer Wellenleiter für verschiedene Pro-pagationsmoden zu analysieren. Ein weiterer Teil der Arbeit beschäftigt sich mit organischen Kompositmaterialen, welche große opti-sche Nichtlinearitäten aufweisen. Mittels quantenchemischer Verfahren erfolgte eine detaillierte Un-tersuchung der Zusammenhänge zwischen der molekularen Struktur und den linearen sowie den nichtlinearen optischen Eigenschaften der untersuchten Farbstoffmoleküle und Polymere. In Bezug auf die Probenpräparation sind unterschiedliche Verfahren zur Schichtbildung und zur molekularen Orientierung miteinander verglichen und bewertet worden, da letztere eine Voraussetzung für das Auftreten nichtlinearer optischer Prozesse zweiter Ordnung bildet. Die Untersuchungen erstreckten sich auf Vakuumaufdampfschichten aus niedermolekularen Chromophoren und auf Polymerschich-ten, welche durch Vakuumabscheidung sowie durch Spincoating oder andere Flüssigphasenabschei-dungsverfahren hergestellt worden sind. Auf orientierenden Substraten (z.B. geriebene Schichten aus Polytetrafluoräthylen) konnte eine spontane Orientierung der deponierten Chromophore nachgewie-sen werden. Die Chromophore in Polymerschichten wurden durch Coronapolung orientiert. In der Arbeit ist zum ersten Mal vorgeschlagen worden, eine räumliche Modulation der nichtlinearen optischen Eigenschaften durch gezielte lokale Coronapolung oder andere Orientierungstechniken derart zu generieren, dass die Abfolge gepolter Domänen dem Bildungsgesetz einer modifizierten Fibonacci-Reihe mit gebrochen rationalen Zahlen gehorcht. Der Vorteil von optischen Wellenleitern mit dieser Struktur darin, dass diese mehrere unterschiedli-che nichtlineare optische Prozesse gleichzeitig unterstützen und somit eine Vielzahl neuartiger Phä-nomene auftreten kann, welche man in neuartigen photonischen Bauelementen, z.B. für die optische Informations- und Kommunikationstechnik nutzen kann. Der letzte Teil der Arbeit beschreibt den Aufbau verschiedener integrierter optischer Modulatoren und Schalter, die sich mit Hilfe das neu entwickelten Verfahrens herstellen lassen. Zukünftige Entwicklungen in der Photonik, insbesondere der optischen Informations- und Kommuni-kationstechnik werden im abschließenden Teil der Arbeit diskutiert. KW - NLO KW - SHG KW - QPM KW - Cascading KW - NLO KW - SHG KW - QPM KW - Cascading Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49186 ER - TY - THES A1 - Kralemann, Björn Christian T1 - Die Rekonstruktion invarianter Phasenmodelle aus Daten T1 - Reconstructing invariant phase models from data N2 - Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht. N2 - The aim of this work is to bridge the gap between the theoretical description of the phase dynamics of coupled oscillators and the application of the theory to model reconstruction from time series analysis. In the theory, the phase of a self-sustained oscillator is defined in an unambiguous way, whereas the standard techniques used to estimate phases from given time series provide observabledependent results, so that generally these estimates deviate from the true phase. To stress this crucial issue, we term the observable-dependent phase-like variables as protophases. The main goal of this work is to develop a deterministic transformation from arbitrary protophases to the true, unique phase of the selfsustained oscillator. This approach allows us to obtain an invariant description of coupled oscillators and of their interaction. The application of the transformation and its efficiency are illustrated by means of numerical examples, as well as by the reconstruction of phase models of the cardiorespiratory interaction from multivariate time series of ECG, pulse and respiration. Next, the transformation from protophases to phases is extended for the case of three coupled oscillators. Finally, we go beyond the phase approximation and extend the phase transformation for autonomous oscillators to the case when the amplitude dynamics cannot be neglected. This technique for example allows us to compute numerically the isochrones of the chaotic Roessler system. KW - nichtlineare Dynamik KW - selbsterhaltende Oszillatoren KW - Phase KW - Protophase KW - Invarianz KW - nonlinear Dynamics KW - self-sustained Oscillators KW - Phase KW - Protophase KW - Invariance Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45057 ER - TY - THES A1 - Kirchner, Henriette T1 - The ghrelin system links dietary lipids with the endocrine control of energy homeostasis T1 - Das Ghrelin-GOAT-System verbindet die Aufnahme von Nahrungsfetten mit der zentralen Regulation der Energiehomöostase N2 - Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule N2 - Ghrelin ist ein einzigartiges im Magen produziertes Hormon, da es von dem Enzym Ghrelin O-acyltransferase (GOAT) mit einer mittelkettigen Fettsäure acyliert werden muss, um biologische Aktivität zu erlangen. Kurz nach seiner Entdeckung entstand die Hypothese, dass Ghrelin das „Hungerhormon“ sei und eine wichtige Rolle in der Regulation des Energiehaushalts spiele. Die genetische Manipulation von Ghrelin und seinem Rezeptor, dem GHSR, hat jedoch nur geringe Auswirkung auf Appetit und Körpergewicht. In der hier vorliegenden Studie stellen wir neuartige Mausmodelle mit abgewandelter Ghrelin-, GHSR- und GOATfunktion vor, um den Einfluss des Ghrelinsystems auf die Regulation der Energiehomöostase zu reevaluieren. Weiterhin wird die endogene Regulation von GOAT erstmalig beschrieben. Double-knockout Mäuse, die gleichzeitig defizitär für Ghrelin und GHSR sind, haben ein geringeres Körpergewicht, weniger Fettmasse und einen niedrigeren Energieverbrauch als Kontrolltiere. Knockout Mäuse für das GOAT Gen Mboat4 sind leichter und schlanker als Kontrolltiere. Dementsprechend haben transgene Mäuse, die Ghrelin und GOAT überproduzieren, eine erhöhte Fettmasse und einen verminderten Energieverbrauch. Weiterhin können wir zeigen, dass GOAT, anders als auf Grund der allgemein bekannten Ghrelinfunktion angenommen, nicht durch Hungern aktiviert wird. Bei Mäusen, die gefastet haben, ist die Genexpression von Mboat4 deutlich herunterreguliert, woraus ein geringer Blutspiegel von Acyl-Ghrelin resultiert. Daraus haben wir geschlossen, dass GOAT eventuell Nahrungsfette und nicht die durch Hungern freigesetzten endogen Fettsäuren zur Ghrelinacylierung benutzt. Fütterungsversuche bestätigen diese Hypothese, da GOAT die unnatürliche Fettsäure Heptan Säure (C7), die der Tiernahrung beigefügt wurde, zur Ghrelinacylierung verwendet. Ein weiteres Indiz für die Notwendigkeit von Nahrungsfetten für die Ghrelinacylierung ist, dass die transgenen Ghrelin/GOAT Mäuse nur massiv Acyl-Ghrelin produzieren, wenn sie mit einer Diät gefüttert werden, die mit mittelkettigen Fettsäuren angereichert ist. Zusammenfassend zeigt die Studie, dass das Ghrelinsystem maßgeblich an der Regulation der Energiehomöostase beteiligt ist und dass die Ghrelinaktivierung direkt von Nahrungsfetten beeinflusst wird. Daraus könnte geschlossen werden, dass Ghrelin wohlmöglich nicht das Hungerhormon ist, wie bisher generell angenommen wurde. Ghrelin könnte vielmehr ein potentieller “Fettsensor KW - Ghrelin KW - GOAT KW - Hungerhormon KW - Nahrungsfette KW - Energiehaushalt KW - Ghrelin KW - GOAT KW - hunger hormone KW - dietary lipids KW - energy homeostasis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52393 ER - TY - THES A1 - Kauffmann, Albrecht T1 - Das Städtesystem der Russischen Föderation aus Sicht der Neuen Ökonomischen Geographie T1 - The Russian system of cities from the perspective of New Economic Geography N2 - Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden. N2 - The rise in energy prices may result in long-lasting rise in costs of freight transports. Which effects do rising freight transport costs have for the development of urban systems? Such rise of transport costs in real terms has happened in Russia after price liberalisation in 1992. At the same time, the Russian official demographic statistics provides data that can be used to test hypotheses concerning the development of urban systems affected by rising transport costs. In the present study, these data are comprehensively evaluated. The theoretical background is provided by modelling of a linear shaped urban system in the framework of New Economic Geography. By means of this tool, analysis can be applied to spacious urban systems with large transport distances. For the first time, the underlying theoretical approach is explained in detail. The empirical results provide evidence for the outcomes of the theoretical model: In spacious countries or regions, respectively, whose urban systems are drawn-out on long lines, rising costs of freight transport are conducive to tendencies of concentration of population in large cities in the centre of the system, while peripheral regions are increasingly disconnected. T3 - Potsdamer Schriften zur Raumwirtschaft - 2 KW - Russland KW - Städtesysteme KW - Neue Ökonomische Geographie KW - Wanderungen KW - Russia KW - urban systems KW - New Economic Geography KW - migration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44520 SN - 978-3-86956-074-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Karnahl, Brita T1 - Vergleichende Untersuchungen von Leistungs- und Stoffwechselparametern im ergometrischen Test an Land und im Wasser T1 - Comparative studies on performance and metabolic parameters in the ergometric test on land and in water N2 - Einleitung: Vorliegende empirische Daten verdeutlichen, dass in der Fachwelt zwar weites gehend Einigkeit über die Wirkung des Mediums Wasser auf den Organismus in Ruhe (metabolisch und endokrin) besteht, aber differente Aussagen bei Immersion und Bewegung (hämodynamisch, metabolisch und endokrin) getroffen werden. Wie unterscheidet sich die physische Beanspruchung an Land und im Wasser? Gelten die allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings- bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen? Ergebnisse und Diskussion: Die Herzfrequenz, der systolische Blutdruck und der Sauerstoffverbrauch waren in Ruhe (baseline) an der anaeroben Schwelle und während der Ausbelastung auf dem Land und im Wasser ähnlich. Der Respiratorische Quotient wurde gering reduziert, als die Probanden im Wasser trainierten. Die Glukose- und Laktatkonzentration wurden vermindert, wohingegen die freie Fettsäurekonzentration mit der Belastung im Wasser erhöht wurde. Wasserimmersion senkte die Adrenalin- und Noradrenalinkonzentration und erhöhte die vermehrte ANP-Produktion während der Belastung. Belastungsinduzierte Anstiege endokriner Parameter (Adrenalin und Noradrenalin) sind im Wasser geringer ausgeprägt als an Land. Hinsichtlich der Stoffwechselregulation konnte beobachtet werden, dass ANP eine Rolle bei der Regulation des Fettstoffwechsels spielt. Die Ergebnisse lassen vermuten, dass Belastungen im Wasser vor allem eine spezifische humorale und metabolische Antwort des Organismus entlocken. Belastungsinduzierte Anstiege endokriner Parameter (Katecholamine) im Wasser sind geringer ausgeprägt als an Land. Immersions- und Belastungseffekte scheinen teilweise konträre Reize zu sein. Es sind daher weiterhin experimentelle Untersuchungen notwendig, um die Regulationsmechanismen des Organismus zur Kompensation eines erhöhten venösen Rückstroms bei Immersion ohne und vor allem mit Bewegung zu klären. Auf Grund der geringen Unterschiede in der hämodynamischen Reaktion des Körpers bei vergleichbarer körperlicher Belastung Land vs. Wasser kann sich an den allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings-bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen orientiert werden. N2 - Introduction: The empirical data we have shows clearly that that there may be a large area of agreement among professionals on the effect of water as a medium on the organism at rest (metabolic and endocrinal), but different conclusions have been drawn about immersion and exercise (hemodynamic, metabolic and endocrinal). How does physical stress differ on dry land and in the water? Do the general recommendations on land apply to control of desired training or stress effects as well as for aquatic types of exercise and training? Results and discussion: The heart rate, systolic blood pressure and uptake of oxygen at rest (baseline) were similar at the anaerobic threshold and during a workout on land and in the water. The respiratory quotient was slightly reduced when the test subjects were training in the water. Their glucose and lactate concentration was lowered, whereas the free fatty acid concentration was raised during physical workload in the water. Water immersion lowered adrenalin and noradrenalin concentration and raised the increased production of ANP during workload. Load-induced increases in endocrinal parameters (adrenalin and noradrenalin) are less marked in water than on land. When it comes to regulating the metabolism, it was possible to observe that ANP plays a role in regulating lipid metabolism. The results suggest that workloads in water elicit especially a specific humoral and metabolic response from the organism. Load-induced increases of endocrinal parameters (catecholamines) in water are less marked than on land. Immersion and load effects appear to be partly contrary stimuli. For this reason, further experimental tests are required in order to clarify the organism’s regulatory mechanisms to compensate for increased venous back current when immersed without and especially with exercise. Because of the slight differences in the body’s hemodynamic response at comparable physical loads on land versus water, the generally accepted recommendations to control the desired training and physical workload effects on land can be used as the basis for aquatic types of exercise and training as well. KW - Immersion KW - Aqua-Cycling KW - ANP KW - Aqua-Fitness KW - Lipolyse KW - Immersion KW - Aqua-Cycling KW - ANP KW - Aqua-Fitness KW - Lipolyse Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49523 ER - TY - THES A1 - Jamil, Abdlhamed T1 - Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen) T1 - Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen) N2 - Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann. N2 - This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications. KW - Fernerkundung KW - 3D-Visualisierung KW - Klassifikation KW - 2D-Stadtmodell KW - orientalische Stadt KW - remote sensing KW - 3D visualization KW - classification KW - 2D city model KW - oriental city Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50200 ER - TY - THES A1 - Ishebabi, Harold T1 - Architecture synthesis for adaptive multiprocessor systems on chip T1 - Architektursynthese adaptiver On-Chip Multiprozessor-Systeme N2 - This thesis presents methods for automated synthesis of flexible chip multiprocessor systems from parallel programs targeted at FPGAs to exploit both task-level parallelism and architecture customization. Automated synthesis is necessitated by the complexity of the design space. A detailed description of the design space is provided in order to determine which parameters should be modeled to facilitate automated synthesis by optimizing a cost function, the emphasis being placed on inclusive modeling of parameters from application, architectural and physical subspaces, as well as their joint coverage in order to avoid pre-constraining the design space. Given a parallel program and a set of an IP library, the automated synthesis problem is to simultaneously (i) select processors (ii) map and schedule tasks to them, and (iii) select one or several networks for inter-task communications such that design constraints and optimization objectives are met. The research objective in this thesis is to find a suitable model for automated synthesis, and to evaluate methods of using the model for architectural optimizations. Our contributions are a holistic approach for the design of such systems, corresponding models to facilitate automated synthesis, evaluation of optimization methods using state of the art integer linear and answer set programming, as well as the development of synthesis heuristics to solve runtime challenges. N2 - Aktuelle Technologien erlauben es komplexe Multiprozessorsysteme auf einem Chip mit Milliarden von Transistoren zu realisieren. Der Entwurf solcher Systeme ist jedoch zeitaufwendig und schwierig. Diese Arbeit befasst sich mit der Frage, wie On-Chip Multiprozessorsysteme ausgehend von parallelen Programmen automatisch synthetisiert werden können. Die Implementierung der Multiprozessorsysteme auf rekonfigurierbaren Chips erlaubt es die gesamte Architektur an die Struktur eines vorliegenden parallelen Programms anzupassen. Auf diese Weise ist es möglich die aktuellen technologischen Unzulänglichkeiten zu umgehen, insbesondere die nicht weitersteigende Taktfrequenzen sowie den langsamen Zugriff auf Datenspeicher. Eine Automatisierung des Entwurfs von Multiprozessorsystemen ist notwendig, da der Entwurfsraum von Multiprozessorsystemen zu groß ist, um vom Menschen überschaut zu werden. In einem ersten Ansatz wurde das Syntheseproblem mittels linearer Gleichungen modelliert, die dann durch lineare Programmierungswerkzeuge gelöst werden können. Ausgehend von diesem Ansatz wurde untersucht, wie die typischerweise langen Rechenzeiten solcher Optimierungsmethoden durch neuere Methode aus dem Gebiet der Erfüllbarkeitsprobleme der Aussagenlogik minimiert werden können. Dabei wurde die Werkzeugskette Potassco verwendet, in der lineare Programme direkt in Logikprogramme übersetzt werden können. Es wurde gezeigt, dass dieser zweite Ansatz die Optimierungszeit um bis zu drei Größenordnungen beschleunigt. Allerdings lassen sich große Syntheseprobleme auf diese weise wegen Speicherbegrenzungen nicht lösen. Ein weiterer Ansatz zur schnellen automatischen Synthese bietet die Verwendung von Heuristiken. Es wurden im Rahmen diese Arbeit drei Heuristiken entwickelt, die die Struktur des vorliegenden Syntheseproblems ausnutzen, um die Optimierungszeit zu minimieren. Diese Heuristiken wurden unter Berücksichtigung theoretischer Ergebnisse entwickelt, deren Ursprung in der mathematische Struktur des Syntheseproblems liegt. Dadurch lassen sich optimale Architekturen in kurzer Zeit ermitteln. Die durch diese Dissertation offen gewordene Forschungsarbeiten sind u. a. die Berücksichtigung der zeitlichen Reihenfolge des Datenaustauschs zwischen parallelen Tasks, die Optimierung des logik-basierten Ansatzes, die Integration von Prozessor- und Netzwerksimulatoren zur funktionalen Verifikation synthetisierter Architekturen, sowie die Entwicklung geeigneter Architekturkomponenten. KW - Multiprozessor KW - rekonfigurierbar KW - Synthese KW - Parallelrechner KW - Exploration KW - Multiprocessor KW - Reconfigurable KW - High-Level Synthesis KW - Parallel Programming KW - Exploration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41316 ER - TY - THES A1 - Höchner, Andreas T1 - GPS based analysis of earthquake induced phenomena at the Sunda Arc T1 - GPS-basierte Analyse erdbebeninduzierter Phänomene am Sundabogen N2 - Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties. N2 - Indonesien ist eines der am stärksten von Naturkatastrophen bedrohten Länder der Erde. Die komplexe Interaktion mehrer tektonischer Platten, die sich mit hohen Relativgeschwindigkeiten zueinander bewegen, führt im Mittel zu ungefähr zwei Erdbeben mit Magnitude Mw>7 pro Jahr, was mehr als 15% der Ereignisse weltweit entspricht. Beben mit Magnitude über 9 sind weitaus seltener, haben aber katastrophale Folgen. Die schwerwiegendsten Konsequenzen hierbei werden durch Tsunamis verursacht, welche durch diese Subduktionsbeben ausgelöst werden, wie das Sumatra-Andamanen Ereignis von 2004 gezeigt hat. Um eine wirksame Tsunami-Frühwarnung zu ermöglichen, welche die Abschätzung der Wellenhöhen und Ankunftszeiten beinhaltet, ist es erforderlich, verschieden Arten von Echtzeit-Sensordaten mit numerischen Modellen für die Erdbebenquelle und Tsunamiausbreitung zu kombinieren. Diese Doktorarbeit wurde im Rahmen des GITEWS-Projektes (German Indonesian Tsunami Early Warning System) erstellt und umfasst fünf Fachpublikationen und Manuskripte. Projektbezogene Hauptaufgabe war die Erstellung einer Datenbank mit realistischen Bebenszenarien für den Sundabogen. Die Datenbank beinhaltet Anfangsbedingungen für die Tsunami-Ausbreitungsmodellierung und ist Teil des Simulationssystems im Frühwarnzentrum. Eine sorgfältige Diskretisierung der Subduktionsgeometrie, bestehend aus 25x150 subfaults, wurde basierend auf seismischen Daten erstellt. Greensfunktionen, welche die Deformation, hervorgerufen durch Verschiebung an den subfaults ausmachen, wurden mittels eines semianalytischen Verfahrens für den geschichteten Halbraum berechnet. Verschiedene Skalierungsrelationen für Erdbebendimension und slip-Verteilung wurden implementiert. Eine weitere projektbezogene Aufgabe war die Weiterentwicklung des ‚GPS-Schild’-Konzeptes. Dieses besteht aus einer Konstellation von GPS-Empfängern im Nahfeldbereich, welche sich als sehr wertvoll für die Tsunami-Frühwarnung erweisen. Der größere Teil dieser Doktorarbeit beschäftigt sich mit der geophysikalischen Interpretation von GPS-Daten. Coseismische Verschiebungen an der Erdoberfläche, ausgelöst durch das Erdbeben von 2004, werden nach slip an der Verwerfung invertiert. Die Wirkung verschiedener Erdschichtungsmodelle wird getestet und resultiert in der Bevorzugung einer kontinentalen Struktur. Die Möglichkeit von splay-faulting wird untersucht und erweist sich als zweitrangiger Effekt bezüglich der Tsunamiwirkung für dieses Ereignis. Die auf der Quelleninversion basierenden Tsunamimodelle werden mit satellitengestützen Radaraltimetriedaten verglichen. Postseismische GPS-Daten werden verwendet, um einen weiten Parameterbereich uni- und bi-viskoser Modelle der Asthenosphäre zu testen. Dabei stellt sich stationäre Maxwell-Rheologie als inkompatibel mit Nahfeld-GPS-Zeitreihen heraus, es sei denn, eine große Quantität an afterslip, entsprechend etwa 10% des coseismischen Momentes, wird angenommen. Im Gegensatz dazu ist die transiente Burgers-Rheologie ohne große Mengen an afterslip kompatibel zu den Beobachtungen. Der Vergleich mit postseismischen Geoidbeobachtungen durch die GRACE-Satelliten zeigt, dass das Modell basierend auf Maxwell-Rheologie, auch mit afterslip, zu kleine Amplituden liefert, und bekräftigt die Annahme einer biviskosen Rheologie der Asthenosphäre. Ein einfacher Ansatz, der auf einer quasi-statischen Deformationsausbreitung beruht, wird eingeführt und zur Inversion coseismischer Nahfeld-GPS-Zeitreihen vorgeschlagen. Die Anwendung dieses Ansatzes auf Beobachtungen vom Sumatra-Beben von 2004 ermöglicht nicht die quantitative Rekonstruktion der Ausbreitung des Bruches, da die notwendigen Bedingungen in diesem Fall nicht erfüllt sind. Jedoch zeigen Experimente an synthetischen Daten die Gültigkeit eines solchen Ansatzes zur raschen Abschätzung der Bruchausbreitungseigenschaften. KW - GPS KW - Erdbeben KW - Tsunami KW - Rheologie KW - GITEWS KW - GPS KW - Earthquake KW - Tsunami KW - Rheology KW - GITEWS Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53166 ER - TY - THES A1 - Huber, Veronika Emilie Charlotte T1 - Climate impact on phytoplankton blooms in shallow lakes T1 - Der Einfluss des Klimas auf Algenblüten in Flachseen N2 - Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems. N2 - Weltweit haben Seeökosysteme auf den Klimawandel der letzten Jahrzehnte reagiert. Beobachtete Veränderungen eindeutig dem Klimawandel zuzuordnen, wird jedoch häufig dadurch erschwert, dass Seen gleichzeitig vielfachen anthropogenen Einflüssen ausgesetzt sind. Diese Arbeit trägt zu einem besseren Verständnis des Klimaeinflusses auf Algen bei, die am Anfang der Nahrungskette stehen und maßgeblich die Wasserqualität eines Sees beeinflussen können. Zum größten Teil stützt sich die Arbeit auf eine dreißigjährige Datenreihe eines unregelmäßig geschichteten Flachsees im Nordosten von Deutschland (Müggelsee), in dem sowohl steigende Wassertemperaturen als auch sinkende Nährstoffeinträge zu verzeichnen waren. Bei der Datenanalyse wurde ein neu erstelltes dynamisches Simulationsmodell, genetische Algorithmen zur Parametrisierung von Modellen, und statistische Methoden der Klassifizierung und Zeitreihenanalyse genutzt. Ergebnisse dieser Arbeit zeigen, dass nicht nur klimatische Faktoren sondern auch die Nährstoffverfügbarkeit im See den Zeitpunkt der Algenfrühjahrsblüte (Phänologie) beeinflussen. Durch eine Veränderung der Mechanismen, die zum Kollaps der Blüte führen, trat diese trotz ähnlich milder Winterbedingungen bei hoher Nährstoffverfügbarkeit früher auf als bei niedriger. Ein neuentwickelter Ansatz zur Modellierung von Phänologie erwies sich als geeignet, um vorherzusagen, wann Algen und ihre Räuber in einem künstlich periodisch angetriebenen Laborsystem ihre Populationshöhepunkte erreichten. Eine Verlängerung der Wachstumsperiode führte dazu, dass diese früher auftraten. Die Untersuchung, warum sich Blaualgen im betrachteten See während jüngster Hitzewellenereignisse überraschend unterschiedlich entwickelt hatten, ergab, dass ungewöhnlich warmes Wetter nicht wie häufig vermutet generell förderlich für ihre Entwicklung ist. Der Zeitpunkt und die Dauer der Hitzewellen waren entscheidend dafür, ob für Blaualgen kritische Schwellenwerte der thermischen Schichtung im See überschritten wurden. Zudem zeigte sich, dass saisonale Erwärmungsmuster einen bedeutenden Einfluss auf Räuber nahmen, die das Auftreten von Algenblüten verhindern können. Diese Arbeit reiht sich in eine wachsende Anzahl von Studien ein, die zeigen, dass Seeökosysteme bereits stark auf die Klimaveränderungen der letzen Jahrzehnte reagiert haben. Mit ihrem Fokus auf Mechanismen und der expliziten Berücksichtigung simultaner anthropogener Einflüsse geht diese Arbeit gleichzeitig über viele bisherige Studien hinaus, die sich auf reine Beobachtung und die Betrachtung klimatischer Faktoren beschränkten. Kernergebnisse deuten daraufhin, dass Klimafolgen in nährstoffreichen Seen stärker ausfallen als in nährstoffarmen Seen. Nur mit einem umfassenden, mechanistischen Verständnis des vielfältigen anthropogenen Einflusses wird eine hohe Wasserqualität in Seen auch in Zukunft aufrechtzuerhalten sein. KW - Klimawandel KW - Gewässer KW - Phytoplankton KW - Phänologie KW - Modellierung KW - climate change KW - freshwater KW - phytoplankton KW - phenology KW - modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42346 ER - TY - THES A1 - Götze, Jan Philipp T1 - Influence of protein and solvent environments on quantum chemical properties of photosynthesis enzymes and photoreceptors T1 - Einfluss von Protein- und Lösungsmittelumgebungen auf quantenchemische Eigenschaften von Photosynthese-Enzymen und -Photorezeptoren N2 - This thesis contains quantum chemical models and force field calculations for the RuBisCO isotope effect, the spectral characteristics of the blue-light sensor BLUF and the light harvesting complex II. The work focuses on the influence of the environment on the corresponding systems. For RuBisCO, it was found that the isotopic effect is almost unaffected by the environment. In case of the BLUF domain, an amino acid was found to be important for the UV/vis spectrum, but unaccounted for in experiments so far (Ser41). The residue was shown to be highly mobile and with a systematic influence on the spectral shift of the BLUF domain chromophore (flavin). Finally, for LHCII it was found that small changes in the geometry of a Chlorophyll b/Violaxanthin chromophore pair can have strong influences regarding the light harvesting mechanism. Especially here it was seen that the proper description of the environment can be critical. In conclusion, the environment was observed to be of often unexpected importance for the molecular properties, and it seems not possible to give a reliable estimate on the changes created by the presence of the environment. N2 - Diese Arbeit beinhaltet quantenchemische und molekularmechanische Modelle zum Isotopeneffekt des Enzyms RuBisCO, der spektralen Charakterisierung des Blaulicht-Rezeptors BLUF und dem Lichtsammelkomplex II (LHCII). Es wurden vor allem die Einflüsse der Umgebung auf die entsprechenden Systeme untersucht. Für RuBisCO wurde gefunden, dass der Isotopeneffekt nur marginal von der Umgebung abhängt. Im Falle der BLUF Domäne wurde eine Aminosäure charakterisiert (Ser41), die bis dato experimentell noch nicht beschrieben war. Es wurde festgestellt, dass Ser41 hochmobil ist und einen systematischen Einfluss auf die spektrale Verschiebung des BLUF Chromophors (Flavin) hat. Schließlich wurde bei LHCII festgestellt, dass kleine Veränderungen in der Geometrie eines Chlorophyll b/Violaxanthin Chromophorenpaares bereits massive Einflüsse auf den Mechanismus des Lichtsammelprozesses haben können. Insbesondere hier zeigt sich, wie kritisch die genaue Beschreibung der Umgebung ist. Zusammenfassend wurde beobachtet, dass sich die Umgebung in oft unerwarteter Weise auf die molekularen Eigenschaften auswirken kann und es daher nicht möglich zu sein scheint, die entsprechenden Effekte vorher abzuschätzen. KW - Photosynthese KW - Molekülmodelle KW - RuBisCO KW - LHCII KW - Blaulichtsensoren KW - Photosynthesis KW - molecular modeling KW - RuBisCO KW - LHCII KW - Blue-light sensors Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51135 ER - TY - THES A1 - Guse, Björn Felix T1 - Improving flood frequency analysis by integration of empirical and probabilistic regional envelope curves T1 - Verbesserung der Hochwasserstatistik durch eine Integration von empirischen und probabilistischen regionalen Hüllkurven N2 - Flood design necessitates discharge estimates for large recurrence intervals. However, in a flood frequency analysis, the uncertainty of discharge estimates increases with higher recurrence intervals, particularly due to the small number of available flood data. Furthermore, traditional distribution functions increase unlimitedly without consideration of an upper bound discharge. Hence, additional information needs to be considered which is representative for high recurrence intervals. Envelope curves which bound the maximum observed discharges of a region are an adequate regionalisation method to provide additional spatial information for the upper tail of a distribution function. Probabilistic regional envelope curves (PRECs) are an extension of the traditional empirical envelope curve approach, in which a recurrence interval is estimated for a regional envelope curve (REC). The REC is constructed for a homogeneous pooling group of sites. The estimation of this recurrence interval is based on the effective sample years of data considering the intersite dependence among all sites of the pooling group. The core idea of this thesis was an improvement of discharge estimates for high recurrence intervals by integrating empirical and probabilistic regional envelope curves into the flood frequency analysis. Therefore, the method of probabilistic regional envelope curves was investigated in detail. Several pooling groups were derived by modifying candidate sets of catchment descriptors and settings of two different pooling methods. These were used to construct PRECs. A sensitivity analysis shows the variability of discharges and the recurrence intervals for a given site due to the different assumptions. The unit flood of record which governs the intercept of PREC was determined as the most influential aspect. By separating the catchments into nested and unnested pairs, the calculation algorithm for the effective sample years of data was refined. In this way, the estimation of the recurrence intervals was improved, and therefore the use of different parameter sets for nested and unnested pairs of catchments is recommended. In the second part of this thesis, PRECs were introduced into a distribution function. Whereas in the traditional approach only discharge values are used, PRECs provide a discharge and its corresponding recurrence interval. Hence, a novel approach was developed, which allows a combination of the PREC results with the traditional systematic flood series while taking the PREC recurrence interval into consideration. An adequate mixed bounded distribution function was presented, which in addition to the PREC results also uses an upper bound discharge derived by an empirical envelope curve. By doing so, two types of additional information which are representative for the upper tail of a distribution function were included in the flood frequency analysis. The integration of both types of additional information leads to an improved discharge estimation for recurrence intervals between 100 and 1000 years. N2 - Abschätzungen von Abflüssen mit hohen Wiederkehrintervallen werden vor allem für die Bemessung von Extremhochwässern benötigt. In der Hochwasserstatistik bestehen insbesondere für hohe Wiederkehrintervalle große Unsicherheiten, da nur eine geringe Anzahl an Messwerten für Hochwasserereignisse verfügbar ist. Zudem werden zumeist Verteilungsfunktionen verwendet, die keine obere Grenze beinhalten. Daher müssen zusätzliche Informationen zu den lokalen Pegelmessungen berücksichtigt werden, die den Extrembereich einer Verteilungsfunktion abdecken. Hüllkurven ermitteln eine obere Grenze von Hochwasserabflüssen basierend auf beobachteten maximalen Abflusswerten. Daher sind sie eine geeignete Regionalisierungsmethode. Probabilistische regionale Hüllkurven sind eine Fortentwicklung des herkömmlichen Ansatzes der empirischen Hüllkurven. Hierbei wird einer Hüllkurve einer homogenen Region von Abflusspegeln ein Wiederkehrintervall zugeordnet. Die Berechnung dieses Wiederkehrintervalls basiert auf der effektiven Stichprobengröße und berücksichtigt die Korrelationsbeziehungen zwischen den Pegeln einer Region. Ziel dieser Arbeit ist eine Verbesserung der Abschätzung von Abflüssen mit großen Wiederkehrintervallen durch die Integration von empirischen und probabilistischen Hüllkurven in die Hochwasserstatistik. Hierzu wurden probabilistische Hüllkurven detailliert untersucht und für eine Vielzahl an homogenen Regionen konstruiert. Hierbei wurden verschiedene Kombinationen von Einzugsgebietsparametern und Variationen von zwei Gruppierungsmethoden verwendet. Eine Sensitivitätsanalyse zeigt die Variabilität von Abfluss und Wiederkehrintervall zwischen den Realisationen als Folge der unterschiedlichen Annahmen. Die einflussreichste Größe ist der maximale Abfluss, der die Höhe der Hüllkurve bestimmt. Eine Einteilung in genestete und ungenestete Einzugsgebiete führt zu einer genaueren Ermittlung der effektiven Stichprobe und damit zu einer verbesserten Abschätzung des Wiederkehrintervalls. Daher wird die Verwendung von zwei getrennten Parametersätzen für die Korrelationsfunktion zur Abschätzung des Wiederkehrintervalls empfohlen. In einem zweiten Schritt wurden die probabilistischen Hüllkurven in die Hochwasserstatistik integriert. Da in traditionellen Ansätzen nur Abflusswerte genutzt werden, wird eine neue Methode präsentiert, die zusätzlich zu den gemessenen Abflusswerten die Ergebnisse der probabilistischen Hüllkurve – Abfluss und zugehöriges Wiederkehrintervall - berücksichtigt. Die Wahl fiel auf eine gemischte begrenzte Verteilungsfunktion, die neben den probabilistischen Hüllkurven auch eine absolute obere Grenze, die mit einer empirischen Hüllkurve ermittelt wurde, beinhaltet. Damit werden zwei Arten von zusätzlichen Informationen verwendet, die den oberen Bereich einer Verteilungsfunktion beschreiben. Die Integration von beiden führt zu einer verbesserten Abschätzung von Abflüssen mit Wiederkehrintervallen zwischen 100 und 1000 Jahren. KW - Hochwasserstatistik KW - Hochwasserregionalisierung KW - Probabilistische Regionale Hüllkurven KW - Verteilungsfunktionen mit einer oberen Grenze KW - Flood frequency analysis KW - Flood regionalisation KW - Probabilistic regional envelope curves KW - Distribution functions with upper bound Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49265 ER - TY - THES A1 - Gulina, Olga R. T1 - Rechtspolitische und rechtliche Probleme der Zuwanderung - dargestellt anhand der Zuwanderer aus den GUS-Staaten T1 - Legal-political and juridical problems of the immigration to Germany - shown on the example of the Russian-speaking immigrants from the CIS-countries N2 - Die Zuwanderung und der Integration von Zuwanderern aus den GUS-Staaten in Deutschland ist eine bedeutsame politische und rechtliche Thematik. Diese Thematik ist in Deutschland bisher noch wenig untersucht und nur in Teilbereichen bearbeitet. Deshalb untersucht das vorgestellte Werk folgende Fragen und Aspekte: Analyse der Zuwanderung aus den GUS-Staaten; Darstellung von Zuwanderungsgruppen aus den GUS-Staaten und ihres rechtlichen Status; die Wellen der Zuwanderung anhand der Zuwanderer aus den GUS-Staaten, einschließlich (Spät)Aussiedlern und jüdische Zuwanderern, tschetschenischen Asylsuchenden, Familienangehörige, Studierende, qualifizierte Arbeitskrafte usw., Analyse der Integrationsprogramme und Integrationsmaßnahmen für die Zuwanderer aus den GUS-Staaten; Darstellung der Integrationschancen und Integrationshemmnisse am Beispiel der Zuwanderer aus den GUS-Staaten, einschließlich das Recht auf Annerkennung der akademischen und beruflichen Qualifikation, das Recht auf Arbeit u.a., die russischen Rückkehr- und (Reintegrations-) Programme für die im Bundesgebiet lebenden Zuwanderer aus den GUS-Staaten – ihre Analyse und Bewertung. Eine weitere Besonderheit der Veröffentlichung besteht darin, dass die Autorin Ihre wissenschaftlichen Ausführungen zur rechtlichen Stellung der GUS-Zuwanderer und zu den Erfolgen bei ihrer Integration, aber auch zu den Integrationshemmnissen und Integrationsproblemen auf eine soziologische Befragung von Zuwanderern aus den GUS-Staaten in den Ländern Brandenburg und Berlin stützt. Die empirische Untersuchung bezieht sich auf den Zeitraum 1991 bis 2009. N2 - The present edition is given the complex analysis of the legal-political and juridical problems connected Russian-speaking immigrants from the CIS-countries. The flows of migration from the post-soviet territories to Germany, classification of these flows, characterised as emigrants, Jewish immigrants, family members, students, and qualified specialists, etc., their legal status - the rights, freedoms and duties, the cultural and linguistic integration, incl. the recognition of the professional and academic qualification, unemployment, the infringement of their other rights are in a case study. The given paper lean results of the empirical research of 2009 in Berlin and Brandenburg. KW - GUS-Staaten KW - Zuwanderer KW - Immigrationspolitik KW - Integrationspolitik KW - Rückkehrprogramm KW - CIS-countries KW - Immigrant KW - Immigration KW - Integration KW - Reintegration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43127 SN - 978-3-86956-066-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Glöckner, Olaf T1 - Immigrated Russian Jewish elites in Israel and Germany after 1990 T1 - Russisch-jüdische Eliten in Israel und Deutschland nach 1990 BT - their integration, self image and role in community building BT - Integration, Selbstbild und Rolle in Immigranten-Netzwerken N2 - Russian Jews who left the Former Soviet Union (FSU) and its Successor States after 1989 are considered as one of the best qualified migrants group worldwide. In the preferred countries of destination (Israel, the United States and Germany) they are well-known for cultural self-assertion, strong social upward mobility and manifold forms of self organisation and empowerment. Using Suzanne Kellers sociological model of “Strategic Elites”, it easily becomes clear that a huge share of the Russian Jewish Immigrants in Germany and Israel are part of various elites due to their qualification and high positions in the FSU – first of all professional, cultural and intellectual elites (“Intelligentsija”). The study aimed to find out to what extent developments of cultural self-assertion, of local and transnational networking and of ethno-cultural empowerment are supported or even initiated by the immigrated (Russian Jewish) Elites. The empirical basis for this study have been 35 half-structured expert interviews with Russian Jews in both countries (Israel, Germany) – most of them scholars, artists, writers, journalists/publicists, teachers, engineers, social workers, students and politicians. The qualitative analysis of the interview material in Israel and Germany revealed that there are a lot of commonalities but also significant differences. It was obvious that almost all of the interview partners remained to be linked with Russian speaking networks and communities, irrespective of their success (or failure) in integration into the host societies. Many of them showed self-confidence with regard to the groups’ amazing professional resources (70% of the adults with academic degree), and the cultural, professional and political potential of the FSU immigrants was usually considered as equal to those of the host population(s). Thus, the immigrants’ interest in direct societal participation and social acceptance was accordingly high. Assimilation was no option. For the Russian Jewish “sense of community” in Israel and Germany, Russian Language, Arts and general Russian culture have remained of key importance. The Immigrants do not feel an insuperable contradiction when feeling “Russian” in cultural terms, “Jewish” in ethnical terms and “Israeli” / “German” in national terms – in that a typical case of additive identity shaping what is also significant for the Elites of these Immigrants. Tendencies of ethno-cultural self organisation – which do not necessarily hinder impressing individual careers in the new surroundings – are more noticeable in Israel. Thus, a part of the Russian Jewish Elites has responded to social exclusion, discrimination or blocking by local population (and by local elites) with intense efforts to build (Russian Jewish) Associations, Media, Educational Institutions and even Political Parties. All in all, the results of this study do very much contradict popular stereotypes of the Russian Jewish Immigrant as a pragmatic, passive “Homo Sovieticus”. Among the Interview Partners in this study, civil-societal commitment was not the exception but rather the rule. Traditional activities of the early, legendary Russian „Intelligentsija“ were marked by smooth transitions from arts, education and societal/political commitment. There seem to be certain continuities of this self-demand in some of the Russian Jewish groups in Israel. Though, nothing comparable could be drawn from the Interviews with the Immigrants in Germany. Thus, the myth and self-demand of Russian “Intelligentsija” is irrelevant for collective discourses among Russian Jews in Germany. N2 - Russischsprachige Juden, die nach 1989 die Sowjetunion und ihre Nachfolgestaaten verlassen haben, zählen weltweit zu den bestqualifizierten Migranten. In ihren bevorzugten Zielländern (Israel, USA, Deutschland) zeichnen sie sich durch sichtbare Formen der kulturellen Selbstbehauptung, eine starke Aufstiegsmobilität und einen relativ hohen Grad der Selbstorganisation aus. Auf Grund des hohen Bildungsgrades und der dominierenden Berufsbilder konnte in Anlehnung an das Modell der „Strategic Elites“ von Suzanne Keller ein generell hoher Anteil an Eliten in der untersuchten Gruppe von Immigranten in Deutschland und Israel ausgemacht werden – v.a. professionelle, kulturelle und intellektuelle Eliten. Die Studie fragte danach, inwiefern Prozesse der kulturellen Selbstbehauptung, der lokalen und transnationalen Vernetzung und der ethno-kulturellen Selbstorganisation von den zugewanderten Eliten unterstützt oder sogar selbst befördert werden. Als empirische Grundlage dienten je 35 Experten-Interviews mit russisch-jüdischen Immigranten in beiden Ländern – dabei vorwiegend Wissenschaftler, Künstler, Schriftsteller, Publizisten/Journalisten, Lehrer, Ingenieure, Sozialarbeiter, Studenten und Politiker. Die qualitative Auswertung des Interviewmaterials in Deutschland und Israel ergab zahlreiche Gemeinsamkeiten, aber auch markante Unterschiede. Auffällig war, dass fast alle Interviewpartner mit russischsprachigen Netzwerken und Community-Strukturen gut verbunden blieben – unabhängig vom bisherigen Erfolg ihrer individuellen Integration. Fast durchweg waren sie sich ihrer überdurchschnittlichen beruflichen Kompetenzen (70% Akademiker) bewusst, die kulturellen, beruflichen und häufig auch politischen Ressourcen wurden mindestens als ebenbürtig zu jenen der Aufnahmegesellschaften betrachtet. Das Interesse an direkter gesellschaftlicher Partizipation und Akzeptanz war entsprechend hoch. Für das Zusammengehörigkeitsgefühl der Immigranten in Israel und Deutschland bilden russische Sprache, Kunst und (Alltags-) Kultur nach wie vor eine Schlüssel-Rolle. Dabei entsteht für die meisten Immigranten kein zwingender Widerspruch, sich "russisch" im kulturellen, "jüdisch" im ethnischen und "israelisch" / "deutsch" im nationalen Sinne zu fühlen - insofern ein klassischer Fall von additiver Identitätsbildung, der auch die zugewanderten Eliten charakterisiert. Assimilation in die Mehrheitsgesellschaft ist keine Option. Tendenzen ethno-kultureller Selbstorganisation, die erfolgreiche individuelle Integrationsverläufe im neuen Umfeld keineswegs ausschließen, zeigten sich am intensivsten in Israel. So reagiert ein Teil der russisch-jüdischen Eliten auf allgemeine Ausgrenzungserfahrungen und/oder Schließungsprozesse der lokalen Eliten bewusst mit der Bildung eigener Vereine, Medien, Bildungseinrichtungen und sogar politischer Parteien. Insgesamt widersprechen die Ergebnisse der Studie dem weitverbreiteten Stereotyp vom russisch-jüdischen Migranten als eines pragmatisch-passiven „Homo Sovieticus“. Zivilgesellschaftliches Engagement war bei den untersuchten Eliten eher der Regelfall. Zu den Traditionen der frühen, legendären russischen „Intelligentsija“ gehörten fließende Übergänge zwischen Kunst, Bildung und gesellschaftspolitischem Engagement. Dies setzt sich in Israel in einigen Gruppierungen der russisch-jüdischen Immigranten nahtlos fort. Dagegen machten die Experten-Interviews in Deutschland deutlich, dass ein vergleichbarer „Intelligentsija“-Effekt hier nicht zu erwarten ist - und daher für kollektive Orientierungsprozesse der russischen Juden irrelevant bleibt. KW - Immigration KW - Russisch-jüdische Eliten KW - Integration KW - Kollektive Identität KW - Transnationale Diaspora KW - Immigration KW - Russian-Jewish Elites KW - Cultural Integration KW - Collective Identity KW - Transnational Diaspora Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50369 ER - TY - THES A1 - Gentsch, Rafael T1 - Complex bioactive fiber systems by means of electrospinning T1 - Komplexe Bioaktive Fasersysteme mittels Elektrospinnen N2 - Nanofibrous mats are interesting scaffold materials for biomedical applications like tissue engineering due to their interconnectivity and their size dimension which mimics the native cell environment. Electrospinning provides a simple route to access such fiber meshes. This thesis addresses the structural and functional control of electrospun fiber mats. In the first section, it is shown that fiber meshes with bimodal size distribution could be obtained in a single-step process by electrospinning. A standard single syringe set-up was used to spin concentrated poly(ε-caprolactone) (PCL) and poly(lactic-co-glycolic acid) (PLGA) solutions in chloroform and meshes with bimodal-sized fiber distribution could be directly obtained by reducing the spinning rate at elevated humidity. Scanning electron microscopy (SEM) and mercury porosity of the meshes suggested a suitable pore size distribution for effective cell infiltration. The bimodal fiber meshes together with unimodal fiber meshes were evaluated for cellular infiltration. While the micrometer fibers in the mixed meshes generate an open pore structure, the submicrometer fibers support cell adhesion and facilitate cell bridging on the large pores. This was revealed by initial cell penetration studies, showing superior ingrowth of epithelial cells into the bimodal meshes compared to a mesh composed of unimodal 1.5 μm fibers. The bimodal fiber meshes together with electrospun nano- and microfiber meshes were further used for the inorganic/organic hybrid fabrication of PCL with calcium carbonate or calcium phosphate, two biorelevant minerals. Such composite structures are attractive for the potential improvement of properties such as stiffness or bioactivity. It was possible to encapsulate nano and mixed sized plasma-treated PCL meshes to areas > 1 mm2 with calcium carbonate using three different mineralization methods including the use of poly(acrylic acid). The additive seemed to be useful in stabilizing amorphous calcium carbonate to effectively fill the space between the electrospun fibers resulting in composite structures. Micro-, nano- and mixed sized fiber meshes were successfully coated within hours by fiber directed crystallization of calcium phosphate using a ten-times concentrated simulated body fluid. It was shown that nanofibers accelerated the calcium phosphate crystallization, as compared to microfibers. In addition, crystallizations performed at static conditions led to hydroxyapatite formations whereas in dynamic conditions brushite coexisted. In the second section, nanofiber functionalization strategies are investigated. First, a one-step process was introduced where a peptide-polymer-conjugate (PLLA-b-CGGRGDS) was co-spun with PLGA in such a way that the peptide is enriched on the surface. It was shown that by adding methanol to the chloroform/blend solution, a dramatic increase of the peptide concentration at the fiber surface could be achieved as determined by X-ray photoelectron spectroscopy (XPS). Peptide accessibility was demonstrated via a contact angle comparison of pure PLGA and RGD-functionalized fiber meshes. In addition, the electrostatic attraction between a RGD-functionalized fiber and a silica bead at pH ~ 4 confirmed the accessibility of the peptide. The bioactivity of these RGD-functionalized fiber meshes was demonstrated using blends containing 18 wt% bioconjugate. These meshes promoted adhesion behavior of fibroblast compared to pure PLGA meshes. In a second functionalization approach, a modular strategy was investigated. In a single step, reactive fiber meshes were fabricated and then functionalized with bioactive molecules. While the electrospinning of the pure reactive polymer poly(pentafluorophenyl methacrylate) (PPFPMA) was feasible, the inherent brittleness of PPFPMA required to spin a PCL blend. Blends and pure PPFPMA showed a two-step functionalization kinetics. An initial fast reaction of the pentafluorophenyl esters with aminoethanol as a model substance was followed by a slow conversion upon further hydrophilization. This was analysed by UV/Vis-spectroscopy of the pentaflurorophenol release upon nucleophilic substitution with the amines. The conversion was confirmed by increased hydrophilicity of the resulting meshes. The PCL/PPFPMA fiber meshes were then used for functionalization with more complex molecules such as saccharides. Aminofunctionalized D-Mannose or D-Galactose was reacted with the active pentafluorophenyl esters as followed by UV/Vis spectroscopy and XPS. The functionality was shown to be bioactive using macrophage cell culture. The meshes functionalized with D-Mannose specifically stimulated the cytokine production of macrophages when lipopolysaccharides were added. This was in contrast to D-Galactose- or aminoethanol-functionalized and unfunctionalized PCL/PPFPMA fiber mats. N2 - Biofunktionale Materialien gewinnen immer größere Bedeutung in biomedizinischen Anwendungen wie dem künstlichen Ersatz von Knochen oder Blutgefässe. Weiterhin können diese Stoffe nützlich sein, um die Wechselwirkung zwischen Biomaterialien und biologischen Systemen wie Zellen oder Organismen weiter zu erforschen. In diversen Studien konnten Größen wie dreidimensionaler Strukturaufbau, Oberflächentopographie, Mechanik und die Funktionalisierung mit bioaktiven Substanzen als Einflussfaktoren identifiziert werden, welche auf verschiedenen Größenskalen von makroskopisch bis nanoskopisch untersucht wurden und gegenwärtig erforscht werden. Bioinspiriert von Kollagenfasern, die als Strukturmotiv an verschieden Orten im menschlichen Körper vorkommen (z.B. extrazelluläre Matrix) konnte gezeigt werden, dass Fasermatten, die eine ähnliche Größendimensionen wie die vorher erwähnten Kollagenfasern (Ø ~ 500 nm) aufweisen, eine aussichtsreiche Gerüstmatrix darstellen. Eine einfache Methode Fasermatten in diesen Dimensionen herzustellen ist Elektrospinning, wobei typischerweise eine viskose Polymerlösung durch anlegen eines Hochspannungsfeldes verstreckt wird. Obwohl auf diese Weise hergestellte Fasermatten für gewisse Zelllinien eine ideale Zellwechselwirkung aufweisen, ist die Zellbesiedelung solcher Netzwerke, bedingt auch durch die kleinen Porendurchmesser, problematisch und bedarf meistens weiterer Prozessierungsschritte. Diese Arbeit beschäftigt sich mit der einfachen Herstellung von strukturel und funktional kontrollierten Fasersystem mittels Elektrospinning. Der erste Teil behandelt ein Einschrittverfahren zum Elektrospinnen von bimodalen Fasermatten bestehend aus Nano- und Mikrofasern. In Zellstudien mit Epithelzellen konnte gezeigt werden, dass solche Netzwerke tiefer besiedelt werden als Matten bestehend aus unimodalen 1.5 μm dicken Fasern. Des Weiteren wurden diese Fasermatten für fasergerichtete Kristallisation von Kalziumcarbonat und – phosphat benutzt. In einem zweiten Teil wurden 2 Strategien für die Faserfunktionalisierung mit Peptiden und Zuckermolekülen entwickelt. Zum einen wurde gezeigt, dass funktionale Peptidfasern durch Verspinnung einer Mischung von einem Peptid-Polymer-Konjugat mit einem kommerziellen Polymer hergestellt werden konnten. Zusätzlich wurde ein modularer Ansatz für die Herstellung von reaktiven Fasern ausgearbeitet, die anschließend mit Peptiden oder Zuckern funktionalisiert wurden. Die Bioaktivität der Zucker funktionalisierten Fasern konnte durch Zellversuche erfolgreich bestätigt werden. KW - Elektrospinnen KW - Faser KW - bioaktiv KW - funktional KW - Struktur KW - electrospinning KW - fiber KW - bioactive KW - functional KW - structure Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44900 ER - TY - THES A1 - Ganesan, Lakshmi Meena T1 - Coupling of the electrical, mechanical and optical response in polymer/liquid-crystal composites T1 - Kopplung von elektrischen, mechanischen und optischen Effekten in einem Polymer/Flüssigkristall-Komposit N2 - Micrometer-sized liquid-crystal (LC) droplets embedded in a polymer matrix may enable optical switching in the composite film through the alignment of the LC director along an external electric field. When a ferroelectric material is used as host polymer, the electric field generated by the piezoelectric effect can orient the director of the LC under an applied mechanical stress, making these materials interesting candidates for piezo-optical devices. In this work, polymer-dispersed liquid crystals (PDLCs) are prepared from poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) and a nematic liquid crystal (LC). The anchoring effect is studied by means of dielectric relaxation spectroscopy. Two dispersion regions are observed in the dielectric spectra of the pure P(VDF-TrFE) film. They are related to the glass transition and to a charge-carrier relaxation, respectively. In PDLC films containing 10 and 60 wt% LC, an additional, bias-field-dependent relaxation peak is found that can be attributed to the motion of LC molecules. Due to the anchoring effect of the LC molecules, this relaxation process is slowed down considerably, when compared with the related process in the pure LC. The electro-optical and piezo-optical behavior of PDLC films containing 10 and 60 wt% LCs is investigated. In addition to the refractive-index mismatch between the polymer matrix and the LC molecules, the interaction between the polymer dipoles and the LC molecules at the droplet interface influences the light-scattering behavior of the PDLC films. For the first time, it was shown that the electric field generated by the application of a mechanical stress may lead to changes in the transmittance of a PDLC film. Such a piezo-optical PDLC material may be useful e.g. in sensing and visualization applications. Compared to a non-polar matrix polymer, the polar matrix polymer exhibits a strong interaction with the LC molecules at the polymer/LC interface which affects the electro-optical effect of the PDLC films and prevents a larger increase in optical transmission. N2 - Mikrometer-große, in eine Polymermatrix eingebettete Flüssigkristall-Tröpfchen können als elektro-optische Lichtventile fungieren, da die Ausrichtung der Flüssigkristalle durch ein externes elektrisches Feld verändert werden kann. Wird nun ein ferroelektrisches Polymer als Matrix verwendet, so kann das durch den piezoelektrischen Effekt erzeugte und von der äußeren mechanischen Spannung abhängige elektrische Feld den Flüssigkristall ausrichten. Solche Materialien können daher als piezo-optische Lichtventile eingesetzt werden. Im Rahmen dieser Arbeit wurden PDLCs (polymer-dispersed liquid crystals) durch Einbettung von nematischen Flüssigkristallen in Poly(Vinylidenefluoride-Trifluorethylene) (P(VDF-TrFE)) erzeugt. Die Wechselwirkungen an der Grenzfläche zwischen Flüssigkristall und Polymer wurden mittels dielektrischer Spektroskopie untersucht. Im dielektrischen Spektrum des reinen P(VDF-TrFE) wurden zwei Dispersions-Regionen beobachtet, welche vom Glasübergang und einer Ladungsträgerrelaxation des Polymers herrühren. PDLC Folien mit unterschiedlichen Anteilen von Flüssigkristall-Tröpfchen (10 bzw. 60 Gewichtsprozente) zeigten beim Anlegen eines elektrischen Wechselfelds zusatzliche Relaxationseffekte, welche der Bewegung der eingebetteten Flüssigkristall-Moleküle zugeordnet werden konnten. Durch die Einlagerung der Flüssigkristall-Moleküle weist die Struktur eine Relaxation auf, die gegenüber vergleichbaren Prozessen im reinen Flüssigkristall deutlich verlangsamt ist. Des weiteren wurde das elektrooptische und piezo-optische Verhalten der mit 10 und 60 Gewichtsprozent Flüssigkristall geladenen Folien untersucht. Die Lichtstreuung hängt dabei ab von der Fehlanpassung der Brechungsindizes von Polymermatrix und Flüssigkristallen sowie von den Wechselwirkungen der Polymerdipole mit den Flüssigkristall-Molekülen an der Tröpfchenoberfläche. Es konnte erstmalig gezeigt werden, dass die Lichtdurchlässigkeit der PDLC-Folien durch eine externe mechanische Spannung gesteuert werden kann. Dieser Effekt macht das piezo-optische PDLC-Material für die Verwendung in Optik- und Sensoranwendungen interessant. Im Vergleich mit unpolaren Wirtspolymeren zeigen polare Wirtsmaterialien eine deutlich stärkere Wechselwirkung zwischen den Flüssigkristall-Molekülen an der Polymer/Flüssigkristall-Grenzfläche, welche den elektrooptischen Effekt beeinflusst und so die maximale transmissions änderung reduziert. KW - PDLC KW - P(VDF-TrFE) KW - nematic LC KW - piezo-optisch KW - elektro-optisch KW - PDLC KW - P(VDF-TrFE) KW - nematic LC KW - piezo-optical KW - electro-optical Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41572 ER - TY - THES A1 - Fucik, Markus T1 - Bayesian risk management : "Frequency does not make you smarter" T1 - Bayesianisches Risko-Management : "Frequency does not make you smarter" N2 - Within our research group Bayesian Risk Solutions we have coined the idea of a Bayesian Risk Management (BRM). It claims (1) a more transparent and diligent data analysis as well as (2)an open-minded incorporation of human expertise in risk management. In this dissertation we formulize a framework for BRM based on the two pillars Hardcore-Bayesianism (HCB) and Softcore-Bayesianism (SCB) providing solutions for the claims above. For data analysis we favor Bayesian statistics with its Markov Chain Monte Carlo (MCMC) simulation algorithm. It provides a full illustration of data-induced uncertainty beyond classical point-estimates. We calibrate twelve different stochastic processes to four years of CO2 price data. Besides, we calculate derived risk measures (ex ante/ post value-at-risks, capital charges, option prices) and compare them to their classical counterparts. When statistics fails because of a lack of reliable data we propose our integrated Bayesian Risk Analysis (iBRA) concept. It is a basic guideline for an expertise-driven quantification of critical risks. We additionally review elicitation techniques and tools supporting experts to express their uncertainty. Unfortunately, Bayesian thinking is often blamed for its arbitrariness. Therefore, we introduce the idea of a Bayesian due diligence judging expert assessments according to their information content and their inter-subjectivity. N2 - Die vorliegende Arbeit befasst sich mit den Ansätzen eines Bayes’schen Risikomanagements zur Messung von Risiken. Dabei konzentriert sich die Arbeit auf folgende zentrale Fragestellungen: (1) Wie ist es möglich, transparent Risiken zu quantifizieren, falls nur eine begrenzte Anzahl an geeigneten historischen Beobachtungen zur Datenanalyse zur Verfügung steht? (2) Wie ist es möglich, transparent Risiken zu quantifizieren, falls mangels geeigneter historischer Beobachtungen keine Datenanalyse möglich ist? (3) Inwieweit ist es möglich, Willkür und Beliebigkeit bei der Risikoquantifizierung zu begrenzen? Zur Beantwortung der ersten Frage schlägt diese Arbeit die Anwendung der Bayes’schen Statistik vor. Im Gegensatz zu klassischen Kleinste-Quadrate bzw. Maximum-Likelihood Punktschätzern können Bayes’sche A-Posteriori Verteilungen die dateninduzierte Parameter- und Modellunsicherheit explizit messen. Als Anwendungsbeispiel werden in der Arbeit zwölf verschiedene stochastische Prozesse an CO2-Preiszeitreihen mittels des effizienten Bayes’schen Markov Chain Monte Carlo (MCMC) Simulationsalgorithmus kalibriert. Da die Bayes’sche Statistik die Berechnung von Modellwahrscheinlichkeiten zur kardinalen Modellgütemessung erlaubt, konnten Log-Varianz Prozesse als mit Abstand beste Modellklasse identifiziert werden. Für ausgewählte Prozesse wurden zusätzlich die Auswirkung von Parameterunsicherheit auf abgeleitete Risikomaße (ex-ante/ ex-post Value-at-Risks, regulatorische Kapitalrücklagen, Optionspreise) untersucht. Generell sind die Unterschiede zwischen Bayes’schen und klassischen Risikomaßen umso größer, je komplexer die Modellannahmen für den CO2-Preis sind. Überdies sind Bayes’sche Value-at-Risks und Kapitalrücklagen konservativer als ihre klassischen Pendants (Risikoprämie für Parameterunsicherheit). Bezüglich der zweiten Frage ist die in dieser Arbeit vertretene Position, dass eine Risikoquantifizierung ohne (ausreichend) verlässliche Daten nur durch die Berücksichtigung von Expertenwissen erfolgen kann. Dies erfordert ein strukturiertes Vorgehen. Daher wird das integrated Bayesian Risk Analysis (iBRA) Konzept vorgestellt, welches Konzepte, Techniken und Werkzeuge zur expertenbasierten Identifizierung und Quantifizierung von Risikofaktoren und deren Abhängigkeiten vereint. Darüber hinaus bietet es Ansätze für den Umgang mit konkurrierenden Expertenmeinungen. Da gerade ressourceneffiziente Werkzeuge zur Quantifizierung von Expertenwissen von besonderem Interesse für die Praxis sind, wurden im Rahmen dieser Arbeit der Onlinemarkt PCXtrade und die Onlinebefragungsplattform PCXquest konzipiert und mehrfach erfolgreich getestet. In zwei empirischen Studien wurde zudem untersucht, inwieweit Menschen überhaupt in der Lage sind, ihre Unsicherheiten zu quantifizieren und inwieweit sie Selbsteinschätzungen von Experten bewerten. Die Ergebnisse deuten an, dass Menschen zu einer Selbstüberschätzung ihrer Prognosefähigkeiten neigen und tendenziell hohes Vertrauen in solche Experteneinschätzungen zeigen, zu denen der jeweilige Experte selbst hohes Zutrauen geäußert hat. Zu letzterer Feststellung ist jedoch zu bemerken, dass ein nicht unbeträchtlicher Teil der Befragten sehr hohe Selbsteinschätzung des Experten als negativ ansehen. Da der Bayesianismus Wahrscheinlichkeiten als Maß für die persönliche Unsicherheit propagiert, bietet er keinerlei Rahmen für die Verifizierung bzw. Falsifizierung von Einschätzungen. Dies wird mitunter mit Beliebigkeit gleichgesetzt und könnte einer der Gründe sein, dass offen praktizierter Bayesianismus in Deutschland ein Schattendasein fristet. Die vorliegende Arbeit stellt daher das Konzept des Bayesian Due Diligence zur Diskussion. Es schlägt eine kriterienbasierte Bewertung von Experteneinschätzungen vor, welche insbesondere die Intersubjektivität und den Informationsgehalt von Einschätzungen beleuchtet. KW - MCMC Simulation KW - Modelgewichtung KW - Bayesianischer Value-at-Risk KW - Expertenbefragung KW - Zukunftsmärkte KW - MCMC Simulation KW - Model Weighting KW - Bayesian Value-at-Risk KW - Expert Elicitation KW - Prediction Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53089 ER - TY - THES A1 - Frohwerk, Sascha T1 - Asymmetrien in der Neuen Ökonomischen Geographie T1 - Asymmetries in new economic geography BT - Modelle, Simulationsmethoden und wirtschaftspolitische Diskussion BT - models, simulation methods and economic discussion T2 - Potsdamer Schriften zur Raumwirtschaft N2 - Die Neue Ökonomische Geographie (NEG) erklärt Agglomerationen aus einem mikroökonomischen Totalmodell heraus. Zur Vereinfachung werden verschiedene Symmetrieannahmen getätigt. So wird davon ausgegangen, dass die betrachteten Regionen die gleiche Größe haben, die Ausgabenanteile für verschiedene Gütergruppen identisch sind und die Transportkosten für alle Industrieprodukte die selben sind. Eine Folge dieser Annahmen ist es, dass zwar erklärt werden kann, unter welchen Bedingungen es zur Agglomerationsbildung kommt, nicht aber wo dies geschieht. In dieser Arbeit werden drei Standardmodelle der NEG um verschiedene Asymmetrien erweitert und die Veränderung der Ergebnisse im Vergleich zum jeweiligen Basismodell dargestellt. Dabei wird neben der Theorie auf die Methoden der Simulation eingegangen, die sich grundsätzlich auf andere Modelle übertragen lassen. Darauf aufbauend wird eine asymmetrische Modellvariante auf die wirtschaftliche Entwicklung Deutschlands angewandt. So lässt sich das Ausbleiben eines flächendeckenden Aufschwungs in den neuen Ländern, die starken Wanderungsbewegungen in die alten Länder und das dauerhafte Lohnsatzgefälle in einem Totalmodell erklären. N2 - The new economic geography explains agglomerations based on a microeconomic general equilibrium model, witch is usually assumed to be symmetric in the sense, that regions are of the same size and transport costs and expenditure shares are the same. As a result, the models can explain why an agglomeration occurs, but not in witch region. This book modifies three of the most influential models of the new economic geography and assumes various asymmetries. It compares the results to the symmetric cases. Not only theoretical aspects but also methods of simulation are discussed in detail. This methods can be applied to a wide variety of models. To show the political implications of the theoretical results, one of the asymmetric models is applied to the economical development in germany after reunification. The model is able to explain the persistent difference in wages between east and west and the simultaneous incomplete agglomeration in the west. T3 - Potsdamer Schriften zur Raumwirtschaft - 3 KW - Neue Ökonomische Geographie KW - Simulationsmethoden KW - Agglomeration KW - Regionale Entwicklung KW - new economic geography KW - methods of simulation KW - agglomeration KW - regional development Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49158 SN - 978-3-86956-089-2 SN - 2190-8702 SN - 2190-8710 IS - 3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Friedrich, Maika T1 - Wirkung von Teecatechin Epigallocatechingallat auf den Energiestoffwechsel der Maus T1 - Effect of tea catechin epigallocatechin gallate on energy metabolism in mice N2 - Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus. N2 - The health-promoting properties of green tea are widely accepted. Tea catechins, particularly epigallocatechin-3-gallate (EGCG), are attributed to many positive effects (anti-oxidative, anti-cancerogen, anti-inflammatory, blood pressure and cholesterol lowering). Mechanisms leading to a reduction of body mass and fat mass in animal experiments are not fully elucidated. The aim of this study was to examine multiple effects of TEAVIGO® application (at least 94% EGCG) in a mouse model in terms of energy and fat metabolism. Expressions of genes involved in these processes were also determined in different organs and tissues. In several animal studies, male C57BL/6 mice were fed a high fat diet supplemented with decaffeinated TEAVIGO® (oral, dietetic) at different dosages. Short- and medium-term effects of EGCG were investigated on energy balance (indirect animal calorimetry), body composition (NMR), exogenous substrate oxidation (stable isotopes: breath tests, incorporation of naturally 13C-enriched triglycerides from corn oil into various organs/tissues), and gene expression (quantitative real-time PCR). Type of application and its duration elicited different effects. Supplemented mice already showed a reduced body fat mass after short- and medium-term treatment. Further administration lead to a reduction of body weight. Regardless of the duration of intervention, both types of application resulted in an increased energy excretion, while food and energy intake was not affected by EGCG. Fecal energy loss was accompanied by an increased fat and nitrogen excretion, which was probably due to an inhibition of digestive enzymes. Fed mice displayed a decreased triglyceride and glycogen content in liver suggesting a reduced absorption of nutrients in the intestine. This was supported by a decreased expression of intestinal fatty acid transporters. However, expression of glucose transporters was increased after short- and medium term application. Furthermore, EGCG attenuated incorporation of naturally 13C-enriched triglycerides into various organs and tissues – particularly liver, visceral and brown adipose tissue, and skeletal muscle. Analysis of 13C-enrichment in breath and measurement of energy expenditure revealed an initial increased fat oxidation, which was switched to an increased carbohydrate oxidation over time. Besides, a combination of oral administration of EGCG and high fat feeding was accompanied by macroscopic and microscopic deleterious changes in liver. These effects were not observed after dietary supplementation of EGCG. Altogether, reduction in body mass and fat mass by EGCG can be explained by a decreased food digestibility leading to various short- and medium-term changes in fat distribution and lipid metabolism. KW - Grüner Tee KW - Teecatechin KW - Epigallocatechingallat KW - Energiestoffwechsel KW - Fettstoffwechsel KW - green tea KW - tea catechin KW - epigallocatechin gallate KW - energy metabolism KW - fat metabolism Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48159 ER - TY - THES A1 - Fiedler, Christian T1 - Die Strukturbildung der beta-Helix in der Pektatlyase Pel-15 T1 - The structure formation of the beta-helix in the pectate lyase Pel-15 N2 - Pektatlyase (Pel-15) aus dem alkalophilen Bodenbakterium Bacillus spec. KSM-P15 ist mit 197 Aminosäuren eines der kleinsten, bekannten β-3-Solenoidproteine. Sie spaltet Polygalakturonsäurederivate in einem Ca2+-abhängigen β-Eliminierungsprozess. Wie bei allen Proteinen dieser Enzymfamilie ist auch die Polypeptidkette von Pel-15 zu einer einsträngigen, rechtsgängigen, parallelen β-Helix aufgewunden. In diesem Strukturmotiv enthält jede Windung drei β-Stränge, die jeweils durch flexible Schleifenbereiche miteinander verbunden sind. Insgesamt acht Windungen stapeln sich in Pel-15 übereinander und bilden entlang der Helixachse flächige, parallele β-Faltblätter aus. Im Bereich dieser β-Faltblätter existiert ein ausgedehntes Netzwerk von Wasserstoffbrückenbindungen, durch das der hydrophobe Kern, der sich im Inneren der β-Helix befindet, vom umgebenden Lösungsmittel abgeschirmt wird. Besondere Abschlussstrukturen an beiden Enden der β-Helix, wie sie typischerweise bei anderen Ver-tretern dieser Strukturklasse ausgeprägt werden, sind in Pel-15 nicht zu beobachten. Stattdessen sind die terminalen Bereiche der β-Helix über Salzbrücken und hydrophobe Seitenkettenkontakte stabilisiert. In der vorliegenden Dissertation wurde die Pektatlyase Pel-15 hinsichtlich ihres Faltungsgleichgewichtes, ihrer enzymatischen Aktivität und der Kinetik ihrer Strukturbildung charakterisiert. In eine evolutionär konservierte Helixwindung wurden destabilisierende Mutationen eingeführt, und deren Auswirkungen mittels spektroskopischer Methoden analysiert. Die Ergebnisse zeigen, dass Pel-15 in Gegenwart des Denaturierungsmittels Guanidiniumhydrochlorid einen hyperfluoreszenten Gleichgewichtsustand (HF) populiert, der nach Messungen von Faltungs- und Entfaltungskinetiken ein konformationelles Ensemble aus den Zuständen HFslow und HFfast darstellt. Diese HF-Zustände sind durch eine hohe Aktivierungsbarriere voneinander getrennt. In Rückfaltungsexperimenten populieren nur etwa 80 % der faltenden Moleküle den Zwischenzustand HFslow, der mit einer Zeitkonstante von ca. 100 s zu HFfast weiterreagiert. Die Denaturierungsmittelabhängigkeit dieser Reaktion ist sehr gering, was eine trans-/cis-Prolylisomerisierung als geschwindigkeitslimitierenden Schritt nahelegt. Die Existenz eines cis-Peptides in der nativen Struktur macht es erforderlich, den denaturierten Zustand als ein Ensemble kinetisch separierter Konformationen, kurz: DSE, zu betrachten, das durch die Spezies Ufast und Uslow populiert wird. Nach dem in dieser Arbeit aufgestellten „Minimalmodell der Pel-15 Faltung“ stehen die HF-Spezies (HFslow, HFfast) mit den Konformationen des DSE in einem thermodynamischen Kreisprozess. Das Modell positioniert HFfast und die native Konformation N auf die „native Seite“ der Aktivierungsbarriere und trägt damit der Tatsache Rechnung, dass die Gleichgewichtseinstellung zwischen diesen Spezies zu schnell ist, um mit manuellen Techniken erfasst zu werden. Die hochaffine Bindung von Ca2+ (Kd = 10 μM) verschiebt sich das Faltungsgleichgewicht bereits in Gegenwart von 1 mM CaCl2 soweit auf die Seite des nativen Zustandes, das HFfast nicht länger nachweisbar ist. Entgegen anfänglicher Vermutungen kommt einer lokalen, evolutionär konservierten Disulfidbrücke im Zentrum der β-Helix eine wichtige Stabilisierungsfunktion zu. Die Disulfidbrücke befindet sich in einem kurzen Schleifenbereich der β-Helix nahe dem aktiven Zentrum. Obwohl ihr Austausch gegen die Reste Val und Ala die freie Stabilisierungsenthalpie des Proteins um ca. 10 kJ/mol reduziert, lässt die Struktur im Bereich der Mutationsstelle keine gravierende Veränderung erkennen. Auch die katalytisch relevante Ca2+-Bindungsaffinität bleibt unbeeinflusst; dennoch zeigen Enzymaktivitätstests für VA-Mutanten eine Reduktion der enzymatischen Aktivität um fast 50 % an. Die evolutionär konservierte Helixwindung im Allgemeinen und die in ihr enthaltene Disulfidbrücke im Besonderen müssen nach den vorliegenden Ergebnissen also eine zentrale Funktion sowohl für die Struktur des katalytischen Zentrums als auch für die Strukturbildung der β-Helix während der Faltungsreaktion besitzen. Die Ergebnisse dieser Arbeit finden in mehreren Punkten Anklang an Faltungseigenschaften, die für andere β -Helixproteine beschrieben wurden. Vor allem aber prädestinieren sie Pel-15 als ein neues, β-helikales Modellprotein. Aufgrund seiner einfachen Topologie, seiner niedrigen Windungszahl und seiner hohen thermodynamischen Stabilität ist Pel-15 sehr gut geeignet, die Determinanten von Stabilität und Strukturbildung des parallelen β-Helix-Motivs in einer Auflösung zu studieren, die aufgrund der Komplexität bestehender β-helikaler Modellsysteme bislang nicht zur Verfügung stand. N2 - Pectate lyase Pel-15 was isolated from alcaliphlic Bacillus spec. strain KSM-P15. Like all pectate lyases Pel-15 binds and subsequently cleaves polygalacturonic acid, the main pectic compound in plant cell walls and middle lamellae, in a Ca2+ dependent beta-elimination reaction. With 197 amino acids and a molecular mass of only 21 kDa the protein is one of the smallest right-handed parallel beta-helical proteins known today. Polypeptide chains that are classified into this structural family adopt super-helical folds in which each “solenoid stack” consists of three beta-structured regions that are connected by flexible turn segments. Along its longitudinal axis the right-handed parallel beta-helix thus comprises three elongated parallel beta-sheets that are stabilized by an extensive network of hydrogen bonds wrapping around the densely packed hydrophobic core. Together with the shield-like arrangement of hydrogen bonds this hydrophobic core is considered as the main contributor to an exceptionally high stability that is a common feature of all beta-helical proteins. In contrast to most right-handed parallel beta-helices, Pel-15 is devoid of any terminal capping domains and laterally associated secondary structure. Therefore, this protein is considered to be a promising model protein of a pure beta-helix which will help to understand the determinants of both parallel beta-sheet formation and stability. In the dissertation at hand optical spectroscopic methods were used to assess the enzymatic activity, the folding/unfolding equilibrium and the kinetic mechanism of structure formation in neutral buffered solutions. Results indicate that Pel-15 populates a hyper-fluorescent equilibrium intermediate (HF) that is effectively populated in presence of the denaturing agent guanidinium hydrochloride (GdmCl). According to kinetic folding and unfolding experiments HF is not only an essential on-pathway intermediate but has to be considered as a conformational ensemble in which several hyperfluorescent states are in thermodynamic equilibrium with each other. According to their existence in kinetic folding trajectories these different HF-species were termed HFslow and HFfast. The activation energy between both states is remarkably high leading to a time constant of about 100 seconds for the reaction HFslow ⇆ HFfast. Since native Pel-15 contains an energetically disfavoured cis-prolyl peptide between A59 and P60 it is proposed that HFslow and HFfast differ in their prolyl peptide conformations. Two main results emerge from this dissertation. First, an extensive study of the Pel-15 folding- and unfolding behaviour facilitated the proposal of a “minimal folding model”. According to this model the HF-states and the according denatured species Uslow and Ufast are aligned into a thermodynamic circle. This implies that unfolded polypeptide chains reach the HF-ensemble via parallel folding trajectories. Since the native conformation N together with HFfast are on the same side of the activation barrier, it is the reaction HFslow ⇆ HFfast that is the rate limiting step in the folding reaction of Pel-15. Second, the importance of an evolutionarily conserved disulfide bond in the central region of Pel-15 was tested by site directed mutagenesis and subsequent spectroscopic characterization. The exchange of the disulfide against a hydrophobic pair of alanine and valine decreases the folding free energy by about 10 kJ/mol. Although this value is unexpectedly high, structural perturbations around both mutational positions are small as was deduced from X-Ray crystallography. Interestingly, the stability decrease is accompanied by a major loss of enzymatic activity while the Ca2+ binding affinity is not significantly affected. It is therefore concluded that the allosterically relevant disulfide bond stabilizes long-range interactions that stabilize several adjacent solenoid turns near the N-terminus of the protein. Indeed, planar stacking interactions are perturbed and flexibility of N-terminal loops is increased once the disulfide bond is removed. This dissertation establishes Pel-15 as a novel beta-helical model protein and – even more important – smoothes the way for a generally accepted perspective on the formation and stability of parallel beta-sheet proteins. KW - Rechtsgängige parallele beta-Helix KW - Pektatlyase KW - thermodynamische Stabilität KW - Dreizustandsmodell KW - right-handed parallel beta-helix KW - thermodynamic stability KW - protein folding KW - pectate lyase KW - three-state model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47250 ER - TY - THES A1 - Fang, Peng T1 - Preparation and investigation of polymer-foam films and polymer-layer systems for ferroelectrets T1 - Präparation und Untersuchung von Polymerschaumfolien und Polymerschichtsystemen für Ferroelektrete N2 - Piezoelectric materials are very useful for applications in sensors and actuators. In addition to traditional ferroelectric ceramics and ferroelectric polymers, ferroelectrets have recently become a new group of piezoelectrics. Ferroelectrets are functional polymer systems for electromechanical transduction, with elastically heterogeneous cellular structures and internal quasi-permanent dipole moments. The piezoelectricity of ferroelectrets stems from linear changes of the dipole moments in response to external mechanical or electrical stress. Over the past two decades, polypropylene (PP) foams have been investigated with the aim of ferroelectret applications, and some products are already on the market. PP-foam ferroelectrets may exhibit piezoelectric d33 coefficients of 600 pC/N and more. Their operating temperature can, however, not be much higher than 60 °C. Recently developed polyethylene-terephthalate (PET) and cyclo-olefin copolymer (COC) foam ferroelectrets show slightly better d33 thermal stabilities, but usually at the price of smaller d33 values. Therefore, the main aim of this work is the development of new thermally stable ferroelectrets with appreciable piezoelectricity. Physical foaming is a promising technique for generating polymer foams from solid films without any pollution or impurity. Supercritical carbon dioxide (CO2) or nitrogen (N2) are usually employed as foaming agents due to their good solubility in several polymers. Polyethylene propylene (PEN) is a polyester with slightly better properties than PET. A “voiding + inflation + stretching” process has been specifically developed to prepare PEN foams. Solid PEN films are saturated with supercritical CO2 at high pressure and then thermally voided at high temperatures. Controlled inflation (Gas-Diffusion Expansion or GDE) is applied in order to adjust the void dimensions. Additional biaxial stretching decreases the void heights, since it is known lens-shaped voids lead to lower elastic moduli and therefore also to stronger piezoelectricity. Both, contact and corona charging are suitable for the electric charging of PEN foams. The light emission from the dielectric-barrier discharges (DBDs) can be clearly observed. Corona charging in a gas of high dielectric strength such as sulfur hexafluoride (SF6) results in higher gas-breakdown strength in the voids and therefore increases the piezoelectricity. PEN foams can exhibit piezoelectric d33 coefficients as high as 500 pC/N. Dielectric-resonance spectra show elastic moduli c33 of 1 − 12 MPa, anti-resonance frequencies of 0.2 − 0.8 MHz, and electromechanical coupling factors of 0.016 − 0.069. As expected, it is found that PEN foams show better thermal stability than PP and PET. Samples charged at room temperature can be utilized up to 80 − 100 °C. Annealing after charging or charging at elevated temperatures may improve thermal stabilities. Samples charged at suitable elevated temperatures show working temperatures as high as 110 − 120 °C. Acoustic measurements at frequencies of 2 Hz − 20 kHz show that PEN foams can be well applied in this frequency range. Fluorinated ethylene-propylene (FEP) copolymers are fluoropolymers with very good physical, chemical and electrical properties. The charge-storage ability of solid FEP films can be significantly improved by adding boron nitride (BN) filler particles. FEP foams are prepared by means of a one-step procedure consisting of CO2 saturation and subsequent in-situ high-temperature voiding. Piezoelectric d33 coefficients up to 40 pC/N are measured on such FEP foams. Mechanical fatigue tests show that the as-prepared PEN and FEP foams are mechanically stable for long periods of time. Although polymer-foam ferroelectrets have a high application potential, their piezoelectric properties strongly depend on the cellular morphology, i.e. on size, shape, and distribution of the voids. On the other hand, controlled preparation of optimized cellular structures is still a technical challenge. Consequently, new ferroelectrets based on polymer-layer system (sandwiches) have been prepared from FEP. By sandwiching an FEP mesh between two solid FEP films and fusing the polymer system with a laser beam, a well-designed uniform macroscopic cellular structure can be formed. Dielectric resonance spectroscopy reveals piezoelectric d33 coefficients as high as 350 pC/N, elastic moduli of about 0.3 MPa, anti-resonance frequencies of about 30 kHz, and electromechanical coupling factors of about 0.05. Samples charged at elevated temperatures show better thermal stabilities than those charged at room temperature, and the higher the charging temperature, the better is the stability. After proper charging at 140 °C, the working temperatures can be as high as 110 − 120 °C. Acoustic measurements at frequencies of 200 Hz − 20 kHz indicate that the FEP layer systems are suitable for applications at least in this range. N2 - Piezoelektrische Materialien haben große technische und wirtschaftliche Bedeutung für Anwendungen in Sensoren und Aktuatoren. Neben den traditionellen ferroelektrischen Keramiken und Polymeren bilden Ferroelektrete eine neue Gruppe der Piezoelektrika. Ferroelektrete sind reversible funktionelle Polymersysteme zur Umwandlung von elektrischer in mechanische Energie und umgekehrt. Sie zeichnen sich aus durch eine elastische zelluläre Struktur mit internen quasi-permanenten Dipolen. Der Mechanismus der Piezoelektrizität in Ferroelektreten wird dominiert von der Änderung der einzelnen Dipolmomente bei Einwirkung einer äußeren mechanischen Kraft. Insbesondere zelluläres Polypropylene (PP) war in den vergangenen zwei Jahrzehnten Gegenstand intensiver Forschung und Entwicklung im Hinblick auf die grundlegenden Eigenschaften und Anwendungen von Ferroelektreten. Einige bereits erhältliche kommerzielle Produkte nutzen die in geladenem zellulären PP erreichbaren hohen piezoelektrischen d33-Koeffizienten von 600 pC/N und mehr, sind aber durch eine relativ geringe maximale Betriebstemperatur von ungefähr 60 °C eingeschränkt. Die kürzlich entwickelten Ferroelektrete aus zellulärem Polyethylenterephthalat (PET) und zellulären Cyclo-Olefin-Copolymeren (COC) zeigen eine bessere Temperaturbeständigkeit (vor allem COC), allerdings gewöhlich auf Kosten von geringeren d33-Koeffizienten. Das Ziel der vorliegenden Arbeit ist es, temperaturbeständige Ferroelektrete mit für den Markt geeigneten piezoelektrischen Eigenschaften zu entwickeln. Physikalisches Schäumen ist eine beliebte Methode, um besonders reine Polymerschäume herzustellen. Häufig werden, wegen ihrer guten Löslichkeit in vielen Polymeren, Kohlenstoffdioxid (CO2) und Stickstoff (N2) im superkritischen Zustand als Treibmittel eingesetzt. Der Polyester Polyethylennaphtalat (PEN) hat ähnliche Eigenschaften wie PET, ist jedoch temperaturbeständiger. Ein Dreistufenprozess (Schäumen, Aufblähen und Strecken) wurde entwickelt, um PEN-Schäume für hochwertige Ferroelektrete herzustellen. Ungeschäumte PEN-Folien werden mit superkritischem CO2 unter hohem Druck gesättigt und anschließend unter geringem Druck bei Temperaturen nahe der Glastemperatur geschäumt. Um die Hohlräume zu vergrößern, wird der Schaum anschließend mittels Gasdiffusionsexpansion (GDE) aufgebläht. Nach zusätzlichem biaxialen Verstrecken erhält man die optimalen linsenförmigen Zellen, welche zu einer minimalen mechanischen Steifigkeit und einem maximalen piezoelektrischen d33-Koeffizienten des Ferroelektrets führen. Sowohl Korona- als auch Kontaktaufladung werden an zellulärem PEN erfolgreich eingesetzt. Die Lichtemission der dielektrisch behinderten Entladungen (DBDs) kann klar beobachtet werden. Korona-Aufladung in Gasen mit hohen dielektrischen Durchbruchsfestigkeiten, wie z.B. Schwefelhexafluorid (SF6), ermöglicht es, das Paschen-Durchbruchsfeld in den Hohlräumen und damit die erzielbare interne Ladungsdichte zu erhöhen. Dadurch können für zelluläres PEN piezoelektrische d33-Koeffizienten bis zu 500 pC/N erzielt werden. Piezoelektrischen Resonanzmessungen der Ferroelektrete liefern Steifigkeiten c33 im Bereich von 1 – 12 MPa, Antiresonanzfrequenzen von 0.2 – 0.8 MHz und elektromechanische Kopplungsfaktoren zwischen 0.016 und 0.069. PEN-Ferroelektrete zeigen eine bessere Temperaturstabilität als solche aus PP und PET. Der Anwendungsbereich von unbehandeltem PEN reicht bis etwa 80 – 100°C, jener von getemperten oder bei 120°C geladenen Proben bis etwa 110 – 120 °C. Akustische Messungen im Frequenzbereich von 2 Hz – 20 kHz zeigen die Eignung von PEN-Ferroelektretwandlern für Luftschallanwendungen. Fluoriertes Ethylen-Propylen (FEP) ist ein Fluorpolymer mit sehr guten physikalischen, chemischen und elektrischen Eigenschaften. Die Ladungsspeichereigenschaften von ungeschäumtem FEP können durch die Beimengung von Bornitrid deutlich verbessert werden. In dieser Arbeit wird zelluläres FEP mittels eines einstufigen Prozesses, dem schon erwähnten Schäumen mit überkritischem CO2, hergestellt. Die geladenen FEP-Proben weisen d33-Koeffizienten von bis zu 40 pC/N auf. Ermüdungstests zeigen eine sehr gute mechanische Stabilität von PEN- und FEP-Ferroelektreten. Zelluläre Polymerferroelektrete haben großes Potenzial für Anwendungen, und die Suche nach geeigneten zellulären Morphologien ist eng verknüpft mit dem technischen Aufwand ihrer Herstellung. Alternativ wurden Ferroelektrete mit Sandwich-Strukturen aus FEP-Folien entwickelt. Durch Laserverschmelzen eines FEP-Foliengitters mit zwei umgebenden FEP-Folien wird eine definierte, einheitliche zelluläre Struktur gebildet. Aus dielektrischen Resonanzspektren können effektive piezoelektrische d33-Koeffizienten bis zu 350 pC/N, effektive mechanische Steifigkeiten um 0.3 MPa, Antiresonanzfrequenzen um 30 kHz und elektromechanische Kopplungsfaktoren von etwa 0.05 abgeleitet werden. Proben, welche bei erhöhter Temperatur geladen werden, zeigen höhere Ladungsstabilitäten. Nach geeigneter Aufladung bei 140 °C kann die Arbeitstemperatur bis auf 110 – 120 °C gesteigert werden. Akustische Messungen im Frequenzbereich von 2 Hz – 20 kHz zeigen die Eignung von FEP-Sandwich-Strukturen für Luftschallanwendungen. KW - Elektroaktive Materialien KW - Ferroelektret KW - Piezoelektrizität KW - Polymerschaum KW - Polymerfilm KW - Electroactive material KW - ferroelectret KW - piezoelectricity KW - polymer foam KW - polymer film Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48412 ER - TY - THES A1 - Esther, Alexandra T1 - Investigating mechanisms maintaining plant species diversity in fire prone Mediterranean-type vegetation using spatially-explicit simulation models T1 - Untersuchung von Mechanismen zum Erhalt von Pflanzenartendiversität in feuergeprägter mediterraner Vegetation durch räumlich explizite Simulationsmodelle N2 - Fire prone Mediterranean-type vegetation systems like those in the Mediterranean Basin and South-Western Australia are global hot spots for plant species diversity. To ensure management programs act to maintain these highly diverse plant communities, it is necessary to get a profound understanding of the crucial mechanisms of coexistence. In the current literature several mechanisms are discussed. The objective of my thesis is to systematically explore the importance of potential mechanisms for maintaining multi-species, fire prone vegetation by modelling. The model I developed is spatially-explicit, stochastic, rule- and individual-based. It is parameterised on data of population dynamics collected over 18 years in the Mediterranean-type shrublands of Eneabba, Western Australia. From 156 woody species of the area seven plant traits have been identified to be relevant for this study: regeneration mode, annual maximum seed production, seed size, maximum crown diameter, drought tolerance, dispersal mode and seed bank type. Trait sets are used for the definition of plant functional types (PFTs). The PFT dynamics are simulated annual by iterating life history processes. In the first part of my thesis I investigate the importance of trade-offs for the maintenance of high diversity in multi-species systems with 288 virtual PFTs. Simulation results show that the trade-off concept can be helpful to identify non-viable combinations of plant traits. However, the Shannon Diversity Index of modelled communities can be high despite of the presence of ‘supertypes’. I conclude, that trade-offs between two traits are less important to explain multi-species coexistence and high diversity than it is predicted by more conceptual models. Several studies show, that seed immigration from the regional seed pool is essential for maintaining local species diversity. However, systematical studies on the seed rain composition to multi-species communities are missing. The results of the simulation experiments, as presented in part two of this thesis, show clearly, that without seed immigration the local species community found in Eneabba drifts towards a state with few coexisting PFTs. With increasing immigration rates the number of simulated coexisting PFTs and Shannon diversity quickly approaches values as also observed in the field. Including the regional seed input in the model is suited to explain more aggregated measures of the local plant community structure such as species richness and diversity. Hence, the seed rain composition should be implemented in future studies. In the third part of my thesis I test the sensitivity of Eneabba PFTs to four different climate change scenarios, considering their impact on both local and regional processes. The results show that climate change clearly has the potential to alter the number of dispersed seeds for most of the Eneabba PFTs and therefore the source of the ‘immigrants’ at the community level. A classification tree analysis shows that, in general, the response to climate change was PFT-specific. In the Eneabba sand plains sensitivity of a PFT to climate change depends on its specific trait combination and on the scenario of environmental change i.e. development of the amount of rainfall and the fire frequency. This result emphasizes that PFT-specific responses and regional process seed immigration should not be ignored in studies dealing with the impact of climate change on future species distribution. The results of the three chapters are finally analysed in a general discussion. The model is discussed and improvements and suggestions are made for future research. My work leads to the following conclusions: i) It is necessary to support modelling with empirical work to explain coexistence in species-rich plant communities. ii) The chosen modelling approach allows considering the complexity of coexistence and improves the understanding of coexistence mechanisms. iii) Field research based assumptions in terms of environmental conditions and plant life histories can relativise the importance of more hypothetic coexistence theories in species-rich systems. In consequence, trade-offs can play a lower role than predicted by conceptual models. iv) Seed immigration is a key process for local coexistence. Its alteration because of climate change should be considered for prognosis of coexistence. Field studies should be carried out to get data on seed rain composition. N2 - Feuer geprägte, mediterrane Vegetationstypen, wie sie im Mittelmeerraum und Süd-West Australien zu finden sind, gelten als globale „hotspots“ für Pflanzendiversität. Um sicher zu stellen, dass Managementprogramme zum Erhalt dieser hoch diversen Pflanzengesellschaften zielgerichtet beitragen, ist ein profundes Verständnis der wesentlichen Koexistenzmechanismen notwendig. In der aktuellen Literatur werden verschiedene Mechanismen diskutiert. Das Ziel meiner Doktorarbeit ist es, die Bedeutung der Mechanismen für den Erhalt der artenreichen, feuergeprägten Vegetation anhand eines Modells systematisch zu untersuchen. Das von mir dafür entwickelte Modell ist räumlich-explizit, stochastisch und regel- und individuenbasiert. Es ist unter Zuhilfenahme von Daten zu Populationsdynamiken parametrisiert, die über 18 Jahre im Mediterranen Buschland von Eneabba Westaustraliens gesammelt wurden. Anhand von 156 Arten sind sieben für meine Studie relevante Pflanzeneigenschaften identifiziert wurden: Regenerationsart, jährlich maximale Samenproduktion, Samengröße, maximaler Durchmesser, Trockentoleranz, Ausbreitungsart und Samenbanktyp. Kombinationen der Eigenschaften bilden funktionelle Pflanzentypen (PFTs), deren jährliche Dynamik über Lebenszyklusprozesse im Modell simuliert wird. Der erste Teil meiner Arbeit präsentiert die Studie zur Bedeutung von „trade-offs“ für den Erhalt der hohen Diversität in artenreichen Systemen. Die Simulationsergebnisse mit 288 virtuellen PFTs zeigen, dass das „trade-offs“-Konzept für die Identifizierung nicht-lebensfähiger Kombinationen von Pflanzeneigenschaften hilfreich sein kann. Allerdings kann der Shannon-Diversitäts-Index der modellierten Pflanzengesellschaft trotz der Anwesenheit von „Supertypen“ hoch sein. Ich schlussfolgere, dass „trade-off“ zwischen zwei Eigenschaften weniger wichtig für die Erklärung der Koexistenz von vielen Arten und hoher Diversität sind, als es durch konzeptionelle Modelle vorhergesagt wird. Viele Studien zeigen, dass Sameneintrag aus dem regionalen Samenpool essenziell für den Erhalt lokaler Artendiversität ist. Es gibt allerdings noch keine systematischen Studien zur Zusammensetzung des Samenregens artenreichen Systemen. Die Ergebnisse der Simulationsexperimente im zweiten Teil meiner Arbeit machen deutlich, dass ohne Sameneintrag die lokale Pflanzengesellschaft Eneabbas sich in eine Richtung entwickelt, in der nur wenige PFTs koexistieren. Mit steigender Samenimmigrationsrate erreicht die Anzahl an koexistierenden PFTs und die Shannon-Diversität schnell die Werte, die auch im Feld gefunden werden. Der regionale Sameneintrag kann also als Erklärung zur Struktur lokaler Pflanzengesellschaften dienen. Seine Zusammensetzung sollte jedoch in zukünftigen Studien berücksichtigt werden. Im dritten Teil meiner Doktorarbeit präsentiere ich Analysen zur Sensibilität der PFTs von Eneabba vorhergesagte Klimaszenarien und der Auswirkungen auf die Samenimmigration. Die Ergebnisse zeigen deutlich, dass Klimaänderungen das Potential haben, die Anzahl an ausgebreiteten Samen der meisten Eneabba PFTs zu verändern. Die Entscheidungsbaum-Analyse veranschaulicht, dass die Reaktion auf Klimaänderung PFT-spezifisch ist. In den Eneabba hängt die Sensitivität der PFTs gegenüber klimatischen Veränderungen von den PFT-spezifischen Eigenschaftskombinationen und vom Klimaszenarium ab, d.h. von der Entwicklung der Regenfallmenge und der Feuerfrequenz. Dieses Ergebnis betont, dass PFT-spezifische Reaktionen und die klimabedingten Änderungen in der Samenimmigration in Studien zum Einfluss von Klimaänderungen auf die zukünftige Artenverteilung berücksichtigt werden sollten. Die Ergebnisse aus den drei Kapiteln werden in der allgemeinen Diskussion zusammengeführt und analysiert. Das Modell wird diskutiert und Verbesserungen und Vorschläge für weitere Forschung aufgezeigt. Meine Arbeit führt zu folgenden Schlussfolgerungen: i) Es ist notwendig, empirische Arbeit und Modellierung zu kombinieren, um Koexistenz in artenreichen Systemen zu erklären. ii) Durch den gewählten Modellansatz kann die Komplexität von Koexistenz erfasst und das Verständnis vertieft werden. iii) Auf Felddaten basierende Annahmen bezüglich Umweltbedingungen und Lebenzyklus können zur Relativierung der Bedeutsamkeit von Mechanismen führen. So können Trade-offs eine geringere Rolle spielen, als konzeptionelle Modelle nahe legen. iv) Samenimmigration ist ein Schlüsselprozess für lokale Koexistenz. Deren Änderung aufgrund von Klimawandel sollte für Prognosen zu Artenvorkommen berücksichtigt werden. Feldstudien sollten durchgeführt werden, um die Datenlücken zur Samenregenzusammensetzung zu füllen. KW - Feuer KW - Artenreichtum KW - individuelle Modellierung KW - fire KW - plant functional types KW - species richness KW - individual based modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44632 ER - TY - THES A1 - Di Giacomo, Domenico T1 - Determination of the energy magnitude ME : application to rapid response purposes and insights to regional/local variabilities T1 - Bestimmung der Erdbeben-Magnitude ME : Anwendung für Echtzeitzwecke und regionale/lokale Variabilitäten N2 - Recent large earthquakes put in evidence the need of improving and developing robust and rapid procedures to properly calculate the magnitude of an earthquake in a short time after its occurrence. The most famous example is the 26 December 2004 Sumatra earthquake, when the limitations of the standard procedures adopted at that time by many agencies failed to provide accurate magnitude estimates of this exceptional event in time to launch early enough warnings and appropriate response. Being related to the radiated seismic energy ES, the energy magnitude ME is a good estimator of the high frequency content radiated by the source which goes into the seismic waves. However, a procedure to rapidly determine ME (that is to say, within 15 minutes after the earthquake occurrence) was required. Here it is presented a procedure able to provide in a rapid way the energy magnitude ME for shallow earthquakes by analyzing teleseismic P‑waves in the distance range 20-98. To account for the energy loss experienced by the seismic waves from the source to the receivers, spectral amplitude decay functions obtained from numerical simulations of Greens functions based on the average global model AK135Q are used. The proposed method has been tested using a large global dataset (~1000 earthquakes) and the obtained rapid ME estimations have been compared to other magnitude scales from different agencies. Special emphasis is given to the comparison with the moment magnitude MW, since the latter is very popular and extensively used in common seismological practice. However, it is shown that MW alone provide only limited information about the seismic source properties, and that disaster management organizations would benefit from a combined use of MW and ME in the prompt evaluation of an earthquake’s tsunami and shaking potential. In addition, since the proposed approach for ME is intended to work without knowledge of the fault plane geometry (often available only hours after an earthquake occurrence), the suitability of this method is discussed by grouping the analyzed earthquakes according to their type of mechanism (strike-slip, normal faulting, thrust faulting, etc.). No clear trend is found from the rapid ME estimates with the different fault plane solution groups. This is not the case for the ME routinely determined by the U.S. Geological Survey, which uses specific radiation pattern corrections. Further studies are needed to verify the effect of such corrections on ME estimates. Finally, exploiting the redundancy of the information provided by the analyzed dataset, the components of variance on the single station ME estimates are investigated. The largest component of variance is due to the intra-station (record-to-record) error, although the inter-station (station-to-station) error is not negligible and is of several magnitude units for some stations. Moreover, it is shown that the intra-station component of error is not random but depends on the travel path from a source area to a given station. Consequently, empirical corrections may be used to account for the heterogeneities of the real Earth not considered in the theoretical calculations of the spectral amplitude decay functions used to correct the recorded data for the propagation effects. N2 - Starke Erdbeben in letzter Zeit zeigten deutlich den steigenden Bedarf nach einer Verbesserung und Entwicklung von stabilen und schnellen Methoden, um die Magnitude eines Erdbebens korrekt innerhalb kürzester Zeit nach dessen Auftreten zu ermitteln. Das bisher bekannteste Fallbeispiel in diesem Zusammenhang stellt das Sumatra-Erdbeben vom 26 Dezember 2004 dar. Dieses außergewöhnliche Ereignis zeigte deutlich die Grenzen der bisher gängigen und von den meisten Behörden zu dieser Zeit verwendeten Methoden zur Ermittlung der Erdbebenmagnitude. So konnte für dieses Beben mit den gängigen Ansätzen zeitnah die Magnitude nicht korrekt bestimmt werden , um eine angemessene Frühwarnung und entsprechende Gegenmaßnahmen einzuleiten. Die Energiemagnitude ME steht in direkter Verbindung mit der abgestrahlten seismischen Energie ES und stellt somit eine guten Abschätzung für den Hochfrequenzanteil dar, der von der Quelle ausgestrahlt wird und in die seismischen Wellen einfließt. Eine Methode, welche eine schnelle Ermittlung von ME ermöglicht (d.h. innerhalb von maximal 15 Minuten nach dem Erdbeben) wäre in diesem Falle benötigt worden. Im Rahmen dieser Arbeit wird eine Methode vorgestellt, die eine solche schnelle Ermittlung der Energiemagnitude ME für oberflächennahe Erdbeben ermöglicht, indem teleseismische P-Wellen im Bereich von 20°-98° analysiert werden. Um den Energieverlust der seismischen Wellen von deren Quelle bis zu den Empfängern angemessen zu berücksichtigen, werden spektrale Amplituden-Abnahmefunktionen verwendet, welche aus numerischen Simulationen von Greenschen Funktionen basierend auf dem durchschnittlichen globalen Modell AK135Q abgeleitet werden. Die vorgestellte Methode wurde mit einem umfangreichen globalen Datensatz (ca. 1000 Erdbeben) getestet, und die zeitnah ermittelten ME-Abschätzungen wurden mit anderen Magnitudenskalen verschiedener Behörden verglichen. Ein Vergleich mit der Momentenmagnitude MW war hierbei von besonderem Interesse, da diese Skala heutzutage weitverbreitet ist und häufig zum Einsatz kommt. Es zeigt sich jedoch, dass MW alleine nur begrenzte Informationen über die seismischen Herdeigenschaften liefern kann, und dass Organisationen des Katastrophenmagements von einer kombinierten Nutzung von MW und ME gerade hinsichtlich der unmittelbaren Evaluierung des tsunamigenen Potentials und der Erschütterungswirkung eines Erdbebens profitieren könnten. Die verwendete Methode zur Ermittlung von ME kommt ohne Wissen über die geometrischen Eigenschaften der Verwerfungszone aus (diese sind meist erst Stunden nach einem Erbeben verfügbar). Entsprechend wird die Eignung dieser Methode durch Eingruppierungen der analysierten Erdbeben nach ihrem Wirkungsmechanismus (Scherbruch, Abschiebung, Aufschiebung, etc.) diskutiert. Für die schnelle Abschätzung von ME ist kein klarer Trend unter Verwendung der verschiedenen Herdflächenlösungen erkennbar. Für ME-Werte, welche standardmäßig vom U.S. Geological Survey mit speziellen Korrekturwerten für die Abstrahlungscharakteristika ermittelt werden, trifft dies jedoch nicht zu. Weitere Untersuchungen sind nötig, um die Auswirkungen solcher Korrekturen auf die ME-Abschätzungen zu verifizieren. Indem die Redundanz der Informationen des analysierten Datensatzes ausgenutzt wurde, konnte die Varianz bei den Einzelstations-ME-Abschätzungen untersucht werden. Die größte Abweichung zeigt sich aufgrund von Intra-Stations-Fehlern (record-to-record), wenngleich auch der Inter-Stations-Fehler (station-to-station) nicht vernachlässigbar ist; so nimmt er für einige Stationen mehrere Magnitudeneinheiten an. Des Weiteren konnte gezeigt werden, dass der Intra-Stations-Anteil des Gesamtfehlers nicht zufällig ist, sondern abhängig vom Wellenweg von einem Quellgebiet zu einer bestimmten Station. Folglich können empirische Korrekturen dazu benutzt werden, den Heterogenitäten der realen Erde gerecht zu werden, welche heutzutage nicht in den theoretischen Kalkulationen der spektralen Amplituden-Abnahmefunktionen zur Korrektur der aufgezeichneten Daten verwendet werden. KW - Erdbeben-Magnitude KW - Quellenparameter KW - Earthquake magnitude KW - source parameters KW - inter- and intra-station variability Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50768 ER - TY - THES A1 - Creutzfeldt, Noah Angelo Benjamin T1 - The effect of water storages on temporal gravity measurements and the benefits for hydrology T1 - Der Effekt von Wasserspeicher auf zeitabhängige Gravitationsmessungen und der Nutzen für die Hydrologie N2 - Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended. N2 - Zeitabhängigen Gravimetermessungen, die in der Geodäsie und der Geophysik eingesetzt werden, um Variationen des Erdschwerefelds zu messen, werden durch lokale Wasserspeicheränderungen beeinflusst und verursachen – aus dieser Perspektive – ein hydrologisches Störsignal in den Gravimetermessungen. Gleichzeitig bietet der Teil des Gravimetersignals, der durch Wasserspeicheränderungen hervorgerufen wird, das Potential wichtige Informationen über hydrologische Speicher zu gewinnen, da zwar Wasserspeicher eine grundlegende Zustandsgröße hydrologischer Systeme darstellt, jedoch ihre Quantifizierung mit einem hohen Maß an Unsicherheiten auf der Feldskala behaftet ist. Diese Studie untersucht die Beziehung zwischen zeitabhängigen Gravimetermessungen und Wasserspeicheränderungen, um die Gravimetermessungen von dem hydrologischen Störsignal zu bereinigen und um den Nutzen der Gravimetermessungen für die Hydrologie zu erkunden. Dies geschieht am Beispiel des Supraleitgravimeters (SG) des Geodätischen Observatoriums Wettzell in Deutschland. Ein 4D Vorwärtsmodel mit einer räumlich genesteten Diskretisierungsdomäne wurde entwickelt, um die lokalen hydrologischen Masseneffekte auf Gravimetermessungen zu simulieren. Des Weiteren wurde ein intensives Messsystem am Geodätischen Observatorium Wettzell installiert, um die Wasserspeicheränderungen in allen relevanten Speicherkomponenten, also im dem Grundwasser, in der ungesättigten Zone und im Schneespeicher zu messen. Das Monitoringsystem beinhaltete auch einen wägbaren, monolithischen Lysimeter mit Matrixpotentialübertragung, der es uns ermöglichte, zum ersten Mal einen Lysimeter direkt mit einem Gravimeter zu vergleichen. Die Lysimetermessungen wurden in Kombination mit komplementären hydrologischen Beobachtungen und einem 1D-Modell verwendet, um die Wasserspeicheränderungen auf der Feldskala zu bestimmen. Die Gesamtwasserspeicheränderungen wurden bestimmt, Unsicherheiten abgeschätzt und der hydrologische Masseneffekt auf Gravimetermessungen berechnet. Schlussendlich wurde ein einfaches, konzeptionelles, hydrologisches Modell mittels der Zeitreihen von dem SG, Bodenfeuchte- und Grundwassermessungen kalibriert und evaluiert. Das Modell wurde durch einen “Split-Sample-Test” evaluiert und basierend auf unabhängig bestimmten Wasserspeicheränderungen bestimmt auf Grundlage der Lysimetermessungen validiert. Die Simulation des hydrologischen Masseneffektes auf Gravimetermessungen zeigte, dass Wasserspeicheränderungen von einem Meter Höhe entlang der Topographie, einen Erdschwereeffekt von 52 µGal hervorriefen, während in der Geodäsie im Allgemeinen die gleiche Wassermassenvariation in flachem Terrain eine Erdschwereeffekt von nur 42 µGal (Bouguer-Platte) hervorruft. Der Einflussradius der lokalen Wasserspeicheränderungen kann auf 1000 m begrenzt werden, und 50 % bis 80 % des lokalen hydrologischen Erdschweresignals wird in einem Radius von 50 m um den Gravimeter generiert. Wasserspeichervariationen in der Schneedecke, im Oberboden, dem ungesättigten Saprolith und im gelüfteten Aquifer, sind allesamt wichtige Größen der lokalen Wasserbilanz. Mit der Ausnahme von Schnee beeinflussen alle Speicheränderungen die Gravimetermessungen in derselben Größenordnung und sind daher für die Gravimetermessungen von Bedeutung. Ein Vergleich des lokalen hydrologischen Gravitationseffektes mit den SG Residuen zeigte sowohl ereignisbezogene als auch saisonalen Übereinstimmungen. Weiterhin zeigten die Ergebnisse jedoch auch die Grenzen bei der Bestimmung der gesamten lokalen Wasserspeichervariationen mithilfe hydrologischer Punktmessungen auf. Die Ergebnisse des Lysimeter-basierten Ansatzes zeigten, dass SG Residuen mehr noch, als bisher aufgezeigt, durch lokale Wasserspeicheränderungen hervorgerufen werden. Ein Vergleich der Resultate mit anderen Methoden, die in der Vergangenheit zur Korrektur zeitabhängiger Erdschwerebeobachtungen durch Bestimmung des lokalen hydrologischen Masseneffekte verwendet wurden, zeigte, dass die unabhängige Berechnung von Wasserspeicheränderungen durch Lysimetermessungen erheblich verbessert werden kann und dass diese somit eine verbesserte Methode zur Bestimmung des lokalen hydrologischen Erdschwereeffekts darstellt. Die Installation eines Lysimeters ist somit im Zusammenhang mit einer Reduzierung des hydrologischen Störsignals und an Standorten, wo zeitabhängige Erdschwerebeobachtungen für geophysikalische Studien, die über die lokale Hydrologie hinausgehen verwendet werden, zu empfehlen. Aus hydrologischer Sicht zeigte diese Studie, dass die Verwendung von zeitabhängigen Gravimetermessungen als Kalibrierungsdaten die Modellergebnisse im Vergleich zu hydrologischen Punktmessungen verbesserten. Auf Grund ihrer Fähigkeit, über verschiedene Speicherkomponenten und ein größeres Gebiet zu integrieren, bieten Gravimeter verallgemeinerte Informationen über die Gesamtwasserspeicherveränderungen auf der Feldskala. Diese integrative Eigenschaft macht es notwendig, Erdschweredaten in hydrologischen Studien mit großer Vorsicht zu interpretieren. Dennoch können Gravimeter der Hydrologie als neuartiges Messinstrument dienen und die Nutzung von Gravimetern, die speziell für die Beantwortung noch offener Forschungsfragen der Hydrologie entwickelt wurden wird hier empfohlen. KW - Hydrogeopyhsik KW - zeitabhängige Gravitationsvariation KW - Wasserspeicheränderungen KW - Supraleitender Gravimeter (SG) KW - hydrologische Modellierung KW - Hydrogeophysics KW - temporal gravity variations KW - water storage changes KW - superconducting gravimeter (SG) KW - hydrological monitoring and modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48575 ER - TY - THES A1 - Chirvasa, Mihaela T1 - Finite difference methods for 1st Order in time, 2nd order in space, hyperbolic systems used in numerical relativity T1 - Finite Differenzen für hyperbolische Gleichungen erster Ordnung in der Zeit, zweiter Ordnung im Raum in der numerischen Relativitätstheorie N2 - This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations. N2 - Diese Doktorarbeit beschäftigt sich mit der Entwicklung numerischer Verfahren für die Diskretisierung des Anfangswertproblems und des Anfangs-Randwertproblems unter Einsatz von finite-Differenzen-Techniken für bestimmte hyperbolischer Systeme erster Ordnung in der Zeit und zweiter Ordnung im Raum. Diese Art von Systemen erscheinen in einigen Formulierungen der Einstein'schen-Feldgleichungen, wie zB. den ADM, BSSN oder NOR Formulierungen, oder der sogenanten verallgemeinerten harmonischen Darstellung. Im Hinblick auf das Anfangswertproblem untersuche ich zunächst tiefgehend die mathematischen Eigenschaften von finite-Differenzen-Operatoren (FDO) erster und zweiter Ordnung mit 2n-facher Genaugigkeit. Anschließend erweitere ich eine in der Literatur beschriebene Methode zur Stabilitätsanalyse für Systeme mit zentrierten FDOs in zweiter und vierter Genauigkeitsordung auf Systeme mit gemischten zentrierten und nicht zentrierten Ableitungsoperatoren 2n-facher Genauigkeit, eingeschlossen zusätzlicher Dämpfungsterme, wie sie bei numerischen Simulationen der allgemeinen Relativitätstheorie üblich sind. Bei der Untersuchung der einfachen Wellengleichung als Fallbeispiel wird besonderes Augenmerk auf die Analyse der Courant-Grenzen und numerischen Geschwindigkeiten gelegt. Obwohl unzentrierte, diskrete Ableitungsoperatoren größere Diskretisierungs-Fehler besitzen als zentrierte Ableitungsoperatoren, wird gezeigt, daß man in bestimmten Situationen eine Dezentrierung des numerischen Moleküls von nur einem Punkt bezüglich des zentrierten FDO eine höhere Genauigkeit des numerischen Systems erzielen kann. Die Wellen-Gleichung in einer Dimension wurde ebenfalls im Hinblick auf das Anfangswertproblem untersucht. In Abhängigkeit des Wertes des sogenannten Shift-Vektors, müssen entweder zwei (vollständig eingehende Welle), eine (eingehende Welle) oder keine Randbedingung (ausgehende Welle) definiert werden. In dieser Arbeit wurden alle drei Fälle mit Hilfe der 'Ghost-point-methode' numerisch simuliert und untersucht, und zwar auf eine Weise, daß alle diese Algorithmen stabil sind und eine 2n-Genauigkeit besitzen. In der 'ghost-point-methode' werden die Evolutionsgleichungen bis zum letzen Punkt im Gitter diskretisiert unter Verwendung von zentrierten FDOs und die zusätzlichen Punkte die am Rand benötigt werden ('Ghost-points') werden unter Benutzung von Randwertbedingungen und Extrapolationen abgeschätzt. Für den Zufluß-Randwert wurde zusätzlich noch eine andere Implementierung entwickelt, welche auf der sogenannten SBP-SAT (Summation by parts-simulatanous approximation term) basiert. In dieser Methode werden die diskreten Ableitungen durch Operatoren angenähert, welche die 'Summation-by-parts' Regeln erfüllen. Die Randwertbedingungen selber werden in zusätzlichen Termen integriert, welche zu den Evolutionsgleichnungen der Punkte nahe des Randes hinzuaddiert werden und zwar auf eine Weise, daß die 'summation-by-parts' Eigenschaften erhalten bleiben. Am Ende dieser Arbeit wurde noch eine eindimensionale (kugelsymmetrische) Version der BSSN Formulierung abgeleitet und einige physikalisch relevanten Anfangs-Randwertprobleme werden diskutiert. Die Randwert-Algorithmen, welche für diesen Fall ausgearbeitet wurden, basieren auf der 'Ghost-point-Methode' and erfüllen die innere 2n-Genauigkeit solange genügend Reibung in den Gleichungen zugefügt wird. KW - Finite Differenzen KW - Wellengleichung KW - numerischen Relativitätstheorie KW - finite differences KW - wave equation KW - numerical relativity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42135 ER - TY - THES A1 - Childs, Liam H. T1 - Bioinformatics approaches to analysing RNA mediated regulation of gene expression T1 - Bioinformatische Methoden zur Analyse von RNA vermittelter Regulation der Gen Expression N2 - The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries. N2 - Das Genom eines Organismus enthält alle Informationen für die Synthese aller strukturellen Komponenten und deren jeweiligen Funktionen. Lange Zeit wurde angenommen, dass Proteine, die auf definierten Abschnitten auf dem Genom – den Genen – kodiert werden, die alleinigen Träger der molekularen - und vor allem katalytischen - Funktionen sind. Im Prozess der Umsetzung der genetischen Information von Genen in die Funktion von Proteinen wurden RNA Moleküle als weitere zentrale Molekülklasse identifiziert. Sie fungieren dabei als Botenmoleküle (mRNA) und unterstützen als Trägermoleküle (in Form von tRNA) die Zusammenfügung der einzelnen Aminosäurebausteine zu nativen Proteine. Diese eher passiven Funktionen wurden lange als die einzigen Funktionen von RNA Molekülen angenommen. Jedoch führten neue Entdeckungen zu einer radikalen Neubewertung der Rolle von RNA. So wurden RNA-Moleküle mit katalytischen Eigenschaften entdeckt, sogenannte Ribozyme. Weiterhin wurde festgestellt, dass über proteinkodierende Abschnitte hinaus, weit mehr genomische Sequenzbereiche abgelesen und in RNA Moleküle transkribiert werden als angenommen. Darüber hinaus wurden sehr kleine und neuartige RNA Moleküle identifiziert, die entscheidend bei der Koordinierung der Genexpression beteiligt sind. Diese Entdeckungen rückten RNA als Molekülklasse in den Mittelpunkt moderner molekularbiologischen Forschung und führten zu einer Neubewertung ihrer funktionellen Rolle. Die vorliegende Promotionsarbeit versucht mit Hilfe bioinformatorischer Methoden einen Beitrag zum Verständnis RNA-bezogener Phänomene zu leisten. Zunächst wurde eine genomweite Suche nach Abschnitten im Genom der Modellpflanze Arabidopsis thaliana vorgenommen, deren veränderte chemische Struktur (dem Genotyp) die Ausprägung ausgewählter Merkmale (dem Phänotyp) entscheidend beeinflusst. Dabei wurden sogenannte Ganz-Genom Hybridisierungschips eingesetzt und eine bioinformatische Strategie entwickelt, Veränderungen der chemischen Struktur (Polymorphismen) anhand der veränderten Bindung von genomischer DNA aus verschiedenen Arabidopsis Kultivaren an definierte Proben auf dem Chip zu detektieren. In dieser Suche wurden nicht nur systematisch Genotyp-Phänotyp Assoziationen entdeckt, sondern dabei auch Bereiche identifiziert, die bisher nicht als proteinkodierende Abschnitte annotiert sind, aber dennoch die Ausprägung eines konkreten Merkmals zu bestimmen scheinen. Diese Bereiche wurden desweiteren auf mögliche neue RNA Moleküle untersucht, die in diesen Abschnitten kodiert sein könnten. Hierbei wurde ein neuer Algorithmus eingesetzt, der ebenfalls als Teil der vorliegenden Arbeit entwickelt wurde. Während es zum Standardrepertoire der Molekularbiologen gehört, die chemische Struktur (die Sequenz) eines RNA Moleküls zu bestimmen, ist die Aufklärung sowohl der Struktur als auch der konkreten Funktion des Moleküls weitaus schwieriger. Zu diesem Zweck wurde in dieser Arbeit ein neuer algorithmischer Ansatz entwickelt, der mittels Computermethoden eine Zuordnung von RNA Molekülen zu bestimmten Funktionsklassen gestattet. Hierbei wurde das Konzept der Beschreibung von RNA-Sekundärstrukturen als Graphen genutzt. Es konnte gezeigt werden, dass diese Abstraktion von der konkreten Struktur zu nützlichen Aussagen zur Funktion führt. Des weiteren konnte demonstriert werden, dass graphen-theoretisch abgeleitete Merkmale von RNA-Molekülen einen neuen Zugang zum Verständnis der Struktur-Funktionsbeziehungen ermöglichen. Die entwickelte Methode (Grapple) wurde als web-basierte Anwendung der wissenschaftlichen Welt zur Verfügung gestellt. RNA hat sich als ein zentraler Forschungsgegenstand der Molekularbiologie etabliert und neue Entdeckungen können erwartet werden, die die zentrale Rolle von RNA bei der Entstehung und Aufrechterhaltung des Lebens auf der Erde weiter untermauern. Bioinformatische Methoden werden dabei weiterhin eine essentielle Rolle spielen. KW - de novo ncRNA Vorhersage KW - Vereinigungs-Mapping KW - Support-Vektor-Maschine KW - RNA KW - Genotypisierung KW - de novo ncRNA prediction KW - association mapping KW - support vector machine KW - RNA KW - genotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41284 ER - TY - THES A1 - Böniger, Urs T1 - Attributes and their potential to analyze and interpret 3D GPR data T1 - Attribute und deren Potenzial zur Analyse und Interpretation von 3D Georadardaten N2 - Based on technological advances made within the past decades, ground-penetrating radar (GPR) has become a well-established, non-destructive subsurface imaging technique. Catalyzed by recent demands for high-resolution, near-surface imaging (e.g., the detection of unexploded ordnances and subsurface utilities, or hydrological investigations), the quality of today's GPR-based, near-surface images has significantly matured. At the same time, the analysis of oil and gas related reflection seismic data sets has experienced significant advances. Considering the sensitivity of attribute analysis with respect to data positioning in general, and multi-trace attributes in particular, trace positioning accuracy is of major importance for the success of attribute-based analysis flows. Therefore, to study the feasibility of GPR-based attribute analyses, I first developed and evaluated a real-time GPR surveying setup based on a modern tracking total station (TTS). The combination of current GPR systems capability of fusing global positioning system (GPS) and geophysical data in real-time, the ability of modern TTS systems to generate a GPS-like positional output and wireless data transmission using radio modems results in a flexible and robust surveying setup. To elaborate the feasibility of this setup, I studied the major limitations of such an approach: system cross-talk and data delays known as latencies. Experimental studies have shown that when a minimal distance of ~5 m between the GPR and the TTS system is considered, the signal-to-noise ratio of the acquired GPR data using radio communication equals the one without radio communication. To address the limitations imposed by system latencies, inherent to all real-time data fusion approaches, I developed a novel correction (calibration) strategy to assess the gross system latency and to correct for it. This resulted in the centimeter trace accuracy required by high-frequency and/or three-dimensional (3D) GPR surveys. Having introduced this flexible high-precision surveying setup, I successfully demonstrated the application of attribute-based processing to GPR specific problems, which may differ significantly from the geological ones typically addressed by the oil and gas industry using seismic data. In this thesis, I concentrated on archaeological and subsurface utility problems, as they represent typical near-surface geophysical targets. Enhancing 3D archaeological GPR data sets using a dip-steered filtering approach, followed by calculation of coherency and similarity, allowed me to conduct subsurface interpretations far beyond those obtained by classical time-slice analyses. I could show that the incorporation of additional data sets (magnetic and topographic) and attributes derived from these data sets can further improve the interpretation. In a case study, such an approach revealed the complementary nature of the individual data sets and, for example, allowed conclusions about the source location of magnetic anomalies by concurrently analyzing GPR time/depth slices to be made. In addition to archaeological targets, subsurface utility detection and characterization is a steadily growing field of application for GPR. I developed a novel attribute called depolarization. Incorporation of geometrical and physical feature characteristics into the depolarization attribute allowed me to display the observed polarization phenomena efficiently. Geometrical enhancement makes use of an improved symmetry extraction algorithm based on Laplacian high-boosting, followed by a phase-based symmetry calculation using a two-dimensional (2D) log-Gabor filterbank decomposition of the data volume. To extract the physical information from the dual-component data set, I employed a sliding-window principle component analysis. The combination of the geometrically derived feature angle and the physically derived polarization angle allowed me to enhance the polarization characteristics of subsurface features. Ground-truth information obtained by excavations confirmed this interpretation. In the future, inclusion of cross-polarized antennae configurations into the processing scheme may further improve the quality of the depolarization attribute. In addition to polarization phenomena, the time-dependent frequency evolution of GPR signals might hold further information on the subsurface architecture and/or material properties. High-resolution, sparsity promoting decomposition approaches have recently had a significant impact on the image and signal processing community. In this thesis, I introduced a modified tree-based matching pursuit approach. Based on different synthetic examples, I showed that the modified tree-based pursuit approach clearly outperforms other commonly used time-frequency decomposition approaches with respect to both time and frequency resolutions. Apart from the investigation of tuning effects in GPR data, I also demonstrated the potential of high-resolution sparse decompositions for advanced data processing. Frequency modulation of individual atoms themselves allows to efficiently correct frequency attenuation effects and improve resolution based on shifting the average frequency level. GPR-based attribute analysis is still in its infancy. Considering the growing widespread realization of 3D GPR studies there will certainly be an increasing demand towards improved subsurface interpretations in the future. Similar to the assessment of quantitative reservoir properties through the combination of 3D seismic attribute volumes with sparse well-log information, parameter estimation in a combined manner represents another step in emphasizing the potential of attribute-driven GPR data analyses. N2 - Geophysikalische Erkundungsmethoden haben in den vergangenen Jahrzehnten eine weite Verbreitung bei der zerstörungsfreien beziehungsweise zerstörungsarmen Erkundung des oberflächennahen Untergrundes gefunden. Im Vergleich zur Vielzahl anderer existierender Verfahrenstypen ermöglicht das Georadar (auch als Ground Penetrating Radar bezeichnet) unter günstigen Standortbedingungen Untersuchungen mit der höchsten räumlichen Auflösung. Georadar zählt zu den elektromagnetischen (EM) Verfahren und beruht als Wellenverfahren auf der Ausbreitung von hochfrequenten EM-Wellen, das heisst deren Reflektion, Refraktion und Transmission im Untergrund. Während zweidimensionale Messstrategien bereits weit verbreitet sind, steigt gegenwärtig das Interesse an hochauflösenden, flächenhaften Messstrategien, die es erlauben, Untergrundstrukturen dreidimensional abzubilden. Ein dem Georadar prinzipiell ähnliches Verfahren ist die Reflexionsseismik, deren Hauptanwendung in der Lagerstättenerkundung liegt. Im Laufe des letzten Jahrzehnts führte der zunehmende Bedarf an neuen Öl- und Gaslagerstätten sowie die Notwendigkeit zur optimalen Nutzung existierender Reservoirs zu einer verstärkten Anwendung und Entwicklung sogenannter seismischer Attribute. Attribute repräsentieren ein Datenmaß, welches zu einer verbesserten visuellen Darstellung oder Quantifizierung von Dateneigenschaften führt die von Relevanz für die jeweilige Fragestellung sind. Trotz des Erfolgs von Attributanalysen bei reservoirbezogenen Anwendungen und der grundlegenden Ähnlichkeit von reflexionsseismischen und durch Georadar erhobenen Datensätzen haben attributbasierte Ansätze bisher nur eine geringe Verbreitung in der Georadargemeinschaft gefunden. Das Ziel dieser Arbeit ist es, das Potential von Attributanalysen zur verbesserten Interpretation von Georadardaten zu untersuchen. Dabei liegt der Schwerpunkt auf Anwendungen aus der Archäologie und dem Ingenieurwesen. Der Erfolg von Attributen im Allgemeinen und von solchen mit Berücksichtigung von Nachbarschaftsbeziehungen im Speziellen steht in engem Zusammenhang mit der Genauigkeit, mit welcher die gemessenen Daten räumlich lokalisiert werden können. Vor der eigentlichen Attributuntersuchung wurden deshalb die Möglichkeiten zur kinematischen Positionierung in Echtzeit beim Georadarverfahren untersucht. Ich konnte zeigen, dass die Kombination von modernen selbstverfolgenden Totalstationen mit Georadarinstrumenten unter Verwendung von leistungsfähigen Funkmodems eine zentimetergenaue Positionierung ermöglicht. Experimentelle Studien haben gezeigt, dass die beiden potentiell limitierenden Faktoren - systeminduzierte Signalstöreffekte und Datenverzögerung (sogenannte Latenzzeiten) - vernachlässigt beziehungsweise korrigiert werden können. In der Archäologie ist die Untersuchung oberflächennaher Strukturen und deren räumlicher Gestalt wichtig zur Optimierung geplanter Grabungen. Das Georadar hat sich hierbei zu einem der wohl am meisten genutzten zerstörungsfreien geophysikalischen Verfahren entwickelt. Archäologische Georadardatensätze zeichnen sich jedoch oft durch eine hohe Komplexität aus, was mit der wiederholten anthropogenen Nutzung des oberflächennahen Untergrundes in Verbindung gebracht werden kann. In dieser Arbeit konnte gezeigt werden, dass die Verwendung zweier unterschiedlicher Attribute zur Beschreibung der Variabilität zwischen benachbarten Datenspuren eine deutlich verbesserte Interpretation in Bezug auf die Fragestellung ermöglicht. Des Weiteren konnte ich zeigen, dass eine integrative Auswertung von mehreren Datensätzen (methodisch sowie bearbeitungstechnisch) zu einer fundierteren Interpretation führen kann, zum Beispiel bei komplementären Informationen der Datensätze. Im Ingenieurwesen stellen Beschädigungen oder Zerstörungen von Versorgungsleitungen im Untergrund eine große finanzielle Schadensquelle dar. Polarisationseffekte, das heisst Änderungen der Signalamplitude in Abhängigkeit von Akquisitions- sowie physikalischen Parametern stellen ein bekanntes Phänomen dar, welches in der Anwendung bisher jedoch kaum genutzt wird. In dieser Arbeit wurde gezeigt, wie Polarisationseffekte zu einer verbesserten Interpretation verwendet werden können. Die Überführung von geometrischen und physikalischen Attributen in ein neues, so genanntes Depolarisationsattribut hat gezeigt, wie unterschiedliche Leitungstypen extrahiert und anhand ihrer Polarisationscharakteristika klassifiziert werden können. Weitere wichtige physikalische Charakteristika des Georadarwellenfeldes können mit dem Matching Pursuit-Verfahren untersucht werden. Dieses Verfahren hatte in den letzten Jahren einen großen Einfluss auf moderne Signal- und Bildverarbeitungsansätze. Matching Pursuit wurde in der Geophysik bis jetzt hauptsächlich zur hochauflösenden Zeit-Frequenzanalyse verwendet. Anhand eines modifizierten Tree-based Matching Pursuit Algorithmus habe ich demonstriert, welche weiterführenden Möglichkeiten solche Datenzerlegungen für die Bearbeitung und Interpretation von Georadardaten eröffnen. Insgesamt zeigt diese Arbeit, wie moderne Vermessungstechniken und attributbasierte Analysestrategien genutzt werden können um dreidimensionale Daten effektiv und genau zu akquirieren beziehungsweise die resultierenden Datensätze effizient und verlässlich zu interpretieren. KW - Attributanalyse KW - Georadar KW - Bildbearbeitung KW - attribute analysis KW - ground penetrating radar KW - image processing Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50124 ER - TY - THES A1 - Brauer, Falk T1 - Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search T1 - Extraction and identification of entities in text data in the field of enterprise search N2 - Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen. N2 - The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall. KW - Informationsextraktion KW - Enterprise Search KW - Parallele Datenverarbeitung KW - Grammatikalische Inferenz KW - Graph-basiertes Ranking KW - information extraction KW - enterprise search KW - multi core data processing KW - grammar inference KW - graph-based ranking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51409 ER - TY - THES A1 - Borković, Vladimir T1 - Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden T1 - Evaluation of community sports projects focusing on the social integration of adolescents N2 - Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein. N2 - The objective of the study is the evaluation of a community sports project. The thesis originated from the growing perception that it is not only about initiating and implementing a communal or social project but that the focus is increasingly also on the evaluation of the project work in order to measure its impact on communal, social and personal development and to optimise the implementation as a consequence. The different steps in the definition of the theoretical framework, the data analysis as well as the formulation of the evaluative recommendations were conducted with the pretension to set standards for future evaluation projects. The basic concept of the community sports project “Street Football for Tolerance” is innovative: boys and girls jointly conquer public spaces by playing football. They play without a referee and according to special rules. The project explicitly reaches out to socially disadvantaged adolescents, with the aim that boys and girls are equally involved. KW - Evaluation KW - Sozialisation KW - soziale Integration KW - Straßenfußball KW - evaluation KW - socialisation KW - social integration KW - street football Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48186 SN - 978-3-86956-051-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Borchert, Manuela T1 - Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements T1 - Wechselwirkungen zwischen wässrigen Fluiden und silikatischen Schmelzen : Verteilung von Spurenelementen N2 - The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr. N2 - Die Entstehung und Entwicklung von Graniten steht seit Jahrzehnten im Fokus vieler geologischer Studien, da sich die Erdkruste zu großen Teilen aus granitoiden Gesteinen zusammensetzt. Von besonderer Bedeutung für die Bildung von granitischen Schmelzen ist neben der Temperatur, der Wassergehalt der Schmelze, da dieser Parameter die chemische Zusammensetzung der Schmelze entscheidend verändern kann. Die Entmischung wässriger Fluide aus Schmelzen führt zur Neuverteilung von Elementen zwischen diesen Phasen. Bedingt durch die geringere Dichte des wässrigen Fluids im Vergleich zur Schmelze und dem Nebengestein, beginnt dieses aus tieferen Erdschichten aufzusteigen. Damit verknüpft ist nicht nur eine räumliche Trennung von Schmelze und Fluid, sondern auch die Alterierung des Nebengestein. Dieser Prozess ist insbesondere bei der Bildung von magmatisch-hydrothermalen Lagerstätten und in späten Entwicklungsstadien magmatischer Komplexe wichtig. Für ein detailliertes Verständnis dieser Prozesse ist es notwendig, das Elementverhalten in solchen Systemen in Abhängigkeit von Parametern wie Temperatur, Druck und chemischer Zusammensetzung des Systems experimentell zu untersuchen, und Elementverteilungskoeffizienten als Funktion dieser Variablen zu bestimmen. Für die Untersuchungen sind insbesondere Spurenelemente geeignet, da diese im Gegensatz zu Hauptelementen nicht essentiell für die Stabilität weiterer auftretender Phasen sind, aber sehr sensibel auf Änderungen intensiver Variablen reagieren können. Zudem werden bei geochemischen Mineral- und Gesteinsanalysen viele Spurenelemente, Spurenelementverhältnisse, und Spurenelementisotope als petrogenetische Indikatoren verwendet, d.h. diese Daten liefern Informationen darüber, wann und in welcher Tiefe und bei welchen chemischen Bedingungen ein Gestein gebildet worden ist, und welche weiteren Prozesse es auf dem Weg zur Erdoberfläche durchlaufen hat. Allerdings sind für vie- le Spurenelemente die Abhängigkeiten der Verteilung zwischen Fluiden und Schmelzen von intensiven Variablen nicht, oder nur unzureichend experimentell untersucht worden. Zusätzlich dazu basiert die Mehrheit der experimentell gewonnenen Verteilungskoeffizienten und deren Interpretation, insbesondere hinsichtlich der Elementkomplexierung im Fluid, auf der Analyse von schnell abgekühlten Phasen. Bisher ist nicht geklärt, ob solche Analysen repräsentativ sind für die Zusammensetzungen der Phasen bei hohen Drücken und Temperaturen. Das Ziel dieser Studie war die Erarbeitung eines experimentellen Datensatzes zur Spu- renelementverteilung zwischen granitischen Schmelzen und wässrigen Fluiden in Abhängigkeit von der Schmelzzusammensetzung, der Salinität des Fluids, des Drucks und der Temperatur. Ein Hauptanliegen der Arbeit bestand in der Weiterentwicklung einer experimentellen Methode bei welcher der Spurenelementgehalt im Fluid in-situ, d.h. unter hohen Drücken und Temperaturen, und im Gleichgewicht mit einer silikatischen Schmelze bestimmt wird. Die so gewonnenen Daten können anschließend mit den Resultaten von Abkühlexperimenten vergli- chen werden, um diese und auch Literaturdaten kritisch zu bewerten. Die Daten aller unter- suchten Spurenelemente dieser Arbeit (Rb, Sr, Ba, La, Y und Yb) zeigen: 1. unter den untersuchten Bedingungen eine Präferenz für die Schmelze unabhängig von der chemischen Zusammensetzung von Schmelze und Fluid, Druck oder Temperatur, 2. die Verwendung von chloridhaltigen Fluiden kann die Verteilungskoeffizienten um 1 bis 2 Größenordnungen anheben und 3. für die Verteilungskoeffizienten von Sr, Ba, La, Y und Yb eine starke Abhängigkeit von der Schmelzzusammensetzung im chloridischen System. Der Vergleich der Daten der verschiedenen Methoden zeigt, dass insbesondere für chloridfreie Fluide große Diskrepanzen zwischen den in-situ Daten und Analysen von abgeschreckten Proben bestehen. Dieses Ergebnis beweist eindeutig, dass beim Abschrecken der Proben Rückreaktionen stattfinden, und dass Daten, welche auf Analysen abgeschreckter Fluide basieren, nur eingeschränkt verwendet werden sollten. Die Variation der Verteilungskoeffizienten von Sr, Ba, La, Yb, und Y als Funktion der Schmelzzusammensetzung ist entweder auf eine Änderung der Komplexierung im Fluid und/oder einen anderen veränderten Einbau dieser Elemente in die Schmelze zurückzuführen. Daher wurde im Rahmen dieser Arbeit erstmals versucht, die Elementkomplexierung in silikatischen Fluiden direkt bei hohen Temperaturen und Drücken zu bestimmen. Die Daten für Sr zeigen, dass abhängig von der Schmelzzusammensetzung unterschiedliche Komplexe stabil sein müssen. KW - Spurenelement-Partitionierung KW - Fluid-Schmelze Wechselwirkung KW - HP-HT Experimente KW - In-Situ-Analyse KW - HDAC KW - trace element partitioning KW - fluid-melt interaction KW - HP-HT experiments KW - in-situ analysis KW - HDAC Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42088 ER - TY - THES A1 - Borchers, Andreas T1 - Glaciomarine sedimentation at the continental margin of Prydz Bay, East Antarctica : implications on palaeoenvironmental changes during the Quaternary T1 - Glaziomarine Sedimentation am Kontinentalrand der Prydz-Bucht, Ostantarktis : Schlussfolgerungen hinsichtlich Veränderungen der Paläoumweltbedingungen während des Quartärs N2 - The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research. N2 - Die Antarktis spielt im globalen Umweltsystem eine tragende Rolle. Mit ihrem mächtigen Eispanzer ist sie nicht nur der größte Süsswasserspeicher auf der Erde, in ihren Schelfregionen wird auch ein Großteil der globalen Bodenwassermassen gebildet, welche die globale thermohaline Zirkulation antreiben. Hauptziel dieser Arbeit, welche einen deutschen Beitrag zum Internationalen Polarjahr 2007/ 2008 liefert, war es, neue Erkenntnisse hinsichtlich der Stabilität des Ostantarktischen Eisschildes während des Quartärs zu liefern. Weiterhin sollten Aussagen über Variationen in der Bildung von Antarktischem Bodenwasser und deren Ursachen getroffen werden. Dazu wurde im Rahmen der ‚Polarstern‘ Expedition ANT-XXIII/9 eine Beprobung glaziomariner Sedimente zwischen Prydz Bucht und Kerguelen Plateau durchgeführt. Diese Region eignet sich zur Untersuchung der Ostantarktischen Eisdynamik besonders gut, da hier der Lambert Gletscher, etwa 16% des Ostantarktischen Eispanzers drainiert. Er transportiert dabei Sediment nach Norden, das schließlich die Prydz Bucht erreicht und durch direkten Transport über kalbende Eisberge oder durch Umlagerung und Verteilung mithilfe von Meeresströmungen weiter verfrachtet wird. Der wissenschaftliche Ansatz dieser Arbeit besteht darin, über die Verteilung dieser Sedimente in Raum und Zeit, d.h. über Variationen des glaziomarinen Paläoregimes, die Reaktion des Lambert Gletschers und des vorgelagerten Amery Schelfeises auf Klimaschwankungen während des Quartärs zu rekonstruieren. Dabei werden sowohl sedimentologische Methoden unter Einbeziehung neuer statistischer Möglichkeiten angewandt, um Sedimentationsprozesse zu charakterisieren, als auch mineralogische und (bio)geochemische Parameter verwendet, um Aussagen über die Herkunft der Sedimente und Änderungen in der Produktivität im Oberflächenwasser treffen zu können. Die Altersbestimmung der Sedimentkerne erfolgte mittels Paläomagnetik, Paläointensitäten, Biostratigraphie und Radiokarbondatierungen. Die Oberflächensedimente im Untersuchungsgebiet zeigen deutliche Unterschiede sowohl hinsichtlich ihrer Tonmineral- als auch Schwermineralzusammensetzung. Beide mineralogischen Parameter zeigen die größten Differerenzen auf dem Schelf. Dort lassen sich deutlich Sedimente der Prydz Bucht von Sedimenten des MacRobertson Shelfes differenzieren. Sie stellen daher ein gutes Hilfsmittel dar, um sowohl die Herkunft von eis- als auch strömungstransportiertem Material zu rekonstruieren. Die untersuchten Sedimentkerne decken den Zeitraum der letzten 1,4 Millionen Jahre (Kontinentalhang) bzw. der letzten 12,8 tausend kal. Jahre v. H. ab (MacRobertson Schelf). Die abgelagerten Sedimente wurden i. W. durch glaziale und ozeanographische Einflüsse geprägt, aber auch durch Bioproduktion (Schelf) bzw. durch Schmelzwassereinträge und möglicherweise gravitative Prozesse (Kontinentalhang). In den Sedimenten des Kontinentalhangs sind zwei starke Enteisungsereignisse überliefert: Das erste Ereignis steht mit dem mittelpleistozänen Klimaoptimum in Verbindung, das auch in anderen antarktischen Regionen nachgewiesen wurde. Es führte in der Prydz Bucht zu einem weitreichenden Rückzug des Lambert Gletscher-Amery Schelfeises (LAIS) und gleichzeitig zu einer hohen Primärproduktion. Danach herrschten bis etwa 400 - 500 tausend Jahre v. H. stabile glaziale Bedingungen. Kalbung von Eisbergen war wahrscheinlich auf den westlichen Teil des Lambert Gletschers begrenzt, wo eine tiefere Bathymetrie auch bei niedrigerem globalen Meeresspiegel noch Aufschwimmen des Gletschereises erlaubt. Zwischen 400 - 500 tausend Jahren v. H. und vermutlich dem letzten Interglazial wurde der Gletscher schließlich wieder dynamischer, um mit oder kurz nach dem letzten Interglazial (Meeresspiegel etwa 6 - 9 m höher) eine weitere Phase deutlichen Rückzuges zu durchlaufen. Beide Ereignisse lassen sich mit Phasen der Eisreduktion in den Prinz Charles Bergen korrelieren, d.h. der Rückzug des Lambert Gletschers hatte möglicherweise ein erhöhtes Nachfließen von Eismassen aus dem Hinterland zur Folge. An den Sedimenten des Schelfkernes wurde ein neu entwickeltes Verfahren der Endmember-Modellierung erfolgreich getestet. Der Eisrückzug auf dem MacRobertson Schelf begann etwa 12,8 tausend kal. Jahre v. H. und war gegen 5,5 tausend kal. Jahre v. H. abgeschlossen. Während des Holozäns kam es zu starken Schwankungen in der Bodenwasseraktivität, die höchst wahrscheinlich mit der Neubildungsrate von Meereis in der Kap Darnley Polynia in Zusammenhang stehen. Besonders auffallend war eine erhöhte Bodenwasseraktivität am Übergang von Warm- zu Kaltphasen bzw. ihr extremer Rückgang während des Mittel-Holozänen Klimaoptimums. Insgesamt zeigen die Ergebnisse der Arbeit, dass sich das LAIS während des Quartärs relativ stabil gegenüber Klimaveränderungen verhalten hat. Die Bodenwasserproduktion in Polynien dagegen reagierte sehr empfindlich auf relative geringe atmosphärische Veränderungen und bedarf in Zukunft verstärkter Aufmerksamkeit. KW - Eisdynamik KW - Bodenwasser KW - Ostantarktis KW - Polynia KW - ice dynamics KW - bottom water KW - East Antarctica KW - polynya Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52620 ER - TY - THES A1 - Blum, Niklas T1 - Formalization of a converged internet and telecommunications service environment T1 - Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung N2 - The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time. N2 - Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert. KW - Telekommunikation KW - konvergente Dienste KW - Next Generation Network KW - Dienstplattform KW - Dienstkomposition KW - Service Delivery Platform KW - Next Generation Network KW - Service Creation KW - Service convergence KW - Policy Enforcement Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51146 ER - TY - THES A1 - Bleßmann, Daniela T1 - Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter T1 - Dynamical influence on stratospheric ozone variability over the Arctic in early winter N2 - Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus. N2 - The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter. KW - Stratosphäre KW - Ozon KW - Variabilität KW - Dynamik KW - Chemie-Transport-Modell KW - stratosphere KW - ozone KW - variability KW - dynamics KW - chemistry-transport-model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51394 ER - TY - THES A1 - Berndorff, Lothar T1 - Die Prediger der Grafschaft Mansfeld T1 - The preachers of the County Mansfield BT - eine Untersuchung zum geistlichen Sonderbewusstsein in der zweiten Hälfte des 16. Jahrhunderts BT - an investigation into the „special clerical consciousness“ of the second half of the 16th century N2 - Am 22. Oktober 1565 beauftragte der Herzog Julius von Braunschweig-Wolfenbüttel seinen Prediger Martin Chemnitz, das literarische Oeuvre des Magisters Cyriacus Spangenberg auf dem Buchmarkt ausfindig zu machen, prunkvoll binden zu lassen und in den herzöglichen Bibliotheksbestand aufzunehmen. 64 Werke mit gut 6000 Seiten hatte der Mansfelder Generaldekan Spangenberg zu diesem Zeitpunkt bereits verfasst, seine Amtskollegen in der sächsischen Grafschaft hatten ihrerseits 64 Bücher veröffentlicht. Bis zum Abgang Spangenbergs aus Mansfeld 1574 verdoppelte sich die Anzahl geistlicher Veröffentlichungen Mansfelder Provenienz. Obwohl zu Lebzeiten breit rezipiert, hat die Publizistik der geistlichen "Druckmetropole" Mansfeld in der Geschichte und Kirchengeschichte wenig Beachtung gefunden. Die vorliegende Dissertation will diese Forschungslücke schließen. Die Mansfelder Prediger verfassten Lehrpredigten, Festpredigten, Trostpredigten, Katechismen, theologische Disputationen, historische Abhandlungen und geistliche Spiele in hoher Zahl und publizierten diese unter geschickter Ausnutzung der Mechanismen der frühneuzeitlichen Buchmarktes reichsweit. Ihre Veröffentlichungen richteten sich an Theologen, "Weltkinder" und "Einfältige". Sie generierten Verbindungen zu den Kirchen und Potentaten Nord- und Süddeutschlands, Frankreichs und der Niederlande und führten zu Kontroversen mit den großen Bildungszentren Mitteldeutschlands Wittenberg, Leipzig und Jena und deren Landesherren. Die Frage nach der Motivation für das Engagement der Mansfelder Prediger auf dem Buchmarkt steht im Zentrum der Untersuchung, die in einem synoptischen Verfahren den Wunsch nach Teilhaberschaft an der Ausbildung der kirchlichen, herrschaftlichen, sozialen und kommunikativen Strukturen als zentrales Motiv der schreibenden Theologen herausarbeitet, aber auch die Absicht der Autoren beweist, der Grafschaft Mansfeld über das Medium Buch als lutherischem Bildungszentrum in Europa Geltung zu verschaffen. N2 - On October 22nd, 1565 Count Julius von Braunschweig-Wolfenbüttel ordered the preacher Martin Chemnitz to locate the literary works of Magister Cyracus Spangenberg on the market, to have them bound luxuriously and to integrate them into the Countship's library. At this point in time, Spangenberg, superior Decan of Mansfield, had produced 64 books spanning approx. 6000 pages. His colleagues in the County of Saxony had also published 64 books. By the time Spangenberg left Mansfield in 1574, the number of publications with clerical contents stemming from Mansfeld had doubled. Although this opus was widely read during Spangenberg's lifetime, the products of the clerical „print metropolis“ Mansfeld have been later all but ignored in the contexts of both general history and church history. My dissertation aims to close this gap. The preachers of Mansfeld produced large amounts of sermons used for instructional purposes, for celebrations and for condolence as well as catechisms, theological disputations, historical essays and spiritual plays. They published their products in the entire “Reich” (the “Holy German Empire”), using the mechanisms of the book market of their times to their advantage. Their clients were theologians, “Weltkinder” (“children of the world”) and “Einfältige” (“simple persons”), and they established links to the churches and the powers of both northern and southern Germany, of France and of the Netherlands. This led to conflicts with the important centers of education in Central Germany – Wittenberg, Leipzig and Jena – and the potentates of the respective regions. The focal point of this dissertation is the question why the preachers of Mansfeld were so keen on participating in the book market of their time. Using synoptic methods, this dissertation ascertains that the wish to partake in the formulation of the clerical, feudal, social and medial structures of their time was a key motif for the work of those writing theologians, along with to the desire of establishing the County of Mansfeld as a European center of Lutheran education using the book. Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-33896 SN - 978-3-86956-008-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Berger, Anja T1 - Entwicklung und Validierung eines Inventars zur Erfassung positiver und negativer Attribute des Geschlechtsrollenselbstkonzepts T1 - Development and validation of a gender role inventory with positive and negative attributes N2 - Das Geschlechtsrollenselbstkonzept, das sich im Laufe der Sozialisation in Auseinandersetzung mit den vorherrschenden Vorstellungen der umgebenden Kultur entwickelt, steht in Beziehung zu Affekten, Kognitionen und Verhaltensweisen in einer Vielzahl von Bereichen. Bisherige GSK-Instrumente messen jedoch nahezu ausschließlich den positiven Aspekt von Maskulinität und Femininität. Die Definition des allgemeinen Selbstkonzepts gibt diese Limitierung auf positive Valenz nicht vor, und aus gesundheitspsychologischer Sicht sowie der Gruppenforschung ist die Bedeutung negativer Eigenschaften zur Selbstbeschreibung bekannt. Vor diesem Hintergrund wurden sieben aufeinander aufbauende Studien durchgeführt mit dem Ziel ein neues Instrument zu entwickeln, deren Items zum einen kulturell aktuellen Eigenschaften zur Selbstbeschreibung entsprechen und zum anderen die Valenzunterschiede dieser Merkmalsbeschreibungen berücksichtigen. Nach einer kritischen empirischen Überprüfung des deutschen BSRI, um Schwächen der Items ausschließlich positiver Valenz aufzudecken, wurde eine neue Skala entwickelt, die von Beginn an auch negative Selbstbeschreibungen berücksichtigte um der Komplexität des geschlechtlichen Selbst gerecht zu werden. Aufgrund der Einschätzungen zur Typizität und sozialen Erwünschtheit sowie mit ersten Resultaten aus der Selbstbeschreibung wurde die Auswahl der Items für die Teilskalen vorgenommen. In zwei weiteren Studien wurden schließlich die vier neu entwickelten Teilskalen des neuen GSK-Inventars einer Validierung unterzogen. Jeder der Teilskalen wurden theoriegeleitet spezifische Konstrukte zugeordnet und es konnte nachgewiesen werden, dass alle Teilskalen ihren eigenen Beitrag zur Vorhersage psychologischer Konzepte leisten können. So standen beispielsweise die negativen maskulinen Eigenschaften in engerer Beziehung zu Aggressivität und machtbezogenen Werten als die positiven Aspekte der Maskulinität. Als Ergebnis dieser Entwicklung stehen am Ende vier kurze, unabhängige, reliable Teilskalen, die positive als auch negative Aspekte von Maskulinität und Femininität abbilden und mittels sehr unterschiedlicher psychologischer Erlebens- und Verhaltenskonstrukte validiert wurden, die die Unabhängigkeit der Skalen belegen und diese für einen Einsatz in der Forschung empfehlen. Die Einführung einer individuellen Wertkomponente im Zuge der Selbstbeschreibung, angelehnt an das bekannte Erwartungs-mal-Wert Modell der Motivations- und Einstellungsforschung, und die daraus mögliche multiplikative Verknüpfung von Selbsteinschätzung und persönlicher Wichtigkeit der Eigenschaften konnten den Aufklärungswert in Bezug auf unterschiedliche Validierungskonstrukte dagegen nicht verbessern und wurden daher nicht ins das Instrument integriert. N2 - The gender role self concept - developed throughout one’s socialisation - has strong relations to a number of affects, cognitions and behaviours. Instruments to asses that part of the self have yet only relied on mostly positive aspects of masculinity and femininity. However, the definition of the self concept is not limited to that kind of merely positive valence, and from health psychology as well as group research the relevance of negative traits for self description is known and proven. Hence, in a series of seven studies, new items were developed that reflect actual cultural descriptions of masculinity and femininity including both, traits of positive and negative valence. Following a critical reflection of the German BSRI, to once more identify its weaknesses of positive scales only, four new scales are introduced, based on evaluations of typicality and social desirability. In two studies those four scales were allocated to specific psychological constructs of emotions and behaviours. It was shown that each single scale has its own relevance regarding the gendered self in prediction of validation constructs: negative masculine traits e.g. had a stronger relationship to aggression and power compared to positive aspects of masculinity. The result of that development and validation process are four short, independent, and reliable scales, that reflect positive as well as negative aspects of masculinity and femininity. The introduction of an individual importance measure as part of the self description - comparable to the expectation-value-model in motivation and attitude research - could not add any predictive power in the validation process and therefore will not be included in the final instrument. KW - Geschlechtsrollenselbstkonzept KW - Maskulinität KW - Femininität KW - PoNeGri KW - Selbstzuschreibung KW - Gender role stereotypes KW - masculinity KW - femininity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51215 ER - TY - THES A1 - Baas, Timo T1 - Unter welchen Bedingungen ist ein Beitritt zu einer Währungsunion optimal? : Eine Analyse stabilitätspolitischer Konsequenzen, statischer Effekte und wachstumstheoretischer Implikationen einer Osterweiterung der Europäischen Währungsunion T1 - The optimal strategy for monetary union accession countries N2 - Die Europäische Währungsunion (EWU) umfasst heute 16 Staaten mit insgesamt 321 Millionen Einwohnern, sie ist mit einem Bruttoinlandsprodukt von 22,9 Billionen Euro einer der größten Wirtschaftsräume der Erde. In den nächsten Jahren wird die EWU durch die Aufnahme der 2004 und 2007 beigetretenen neuen EU-Länder weiter wachsen. Da der Beitritt von der Erfüllung der Kriterien von Maastricht abhängt, erfolgt die Erweiterung im Gegensatz zur 5. Erweiterungsrunde der EU nicht als Block, sondern sequentiell. Nach den Beitritten von Slowenien am 1.1.2007 und der Slowakei zum 1.1.2009 steht der Beitritt eines ersten großen Landes in den nächsten Jahren bevor. Daher stößt die Frage der Effekte eines solchen Beitritts seit geraumer Zeit auf breites Interesse in der ökonomischen Literatur. Das Forschungsziel der Dissertation ist es, die theoretischen Wirkungsmechanismen eines Beitritts der neuen Mitgliedsländer zur Europäischen Währungsunion abzubilden. Hierzu werden mögliche stabilitätspolitische Konsequenzen sowie die Auswirkungen eines Beitritts auf die geografische Wirtschaftsstruktur und das Wachstum dieser Länder in theoretischen Modellen abgeleitet. Die direkten Effekte des Beitritts werden in einem angewandt-theoretischen Modell zudem quantifiziert. Insgesamt wird der Beitritt aus drei verschiedenen Perspektiven analysiert: Erstens werden die Konsequenzen der Währungsunion für die Stabilitätspolitik der neuen Mitgliedsländer im Rahmen eines neukeynesianischen Modells betrachtet. Zweitens werden die mit der Transaktionskostensenkung verbundenen Gewinne in einem angewandten Gleichgewichtsmodell quantifiziert. Drittens werden die wachstumstheoretischen Wirkungen der Finanzmarktintegration in einem dynamischen Gleichgewichtsmodell untersucht. Da die drei Aspekte der makroökonomischen Stabilität, der Transaktionskostensenkung und der dynamischen Wirkungen der Finanzmarktintegration weitgehend unabhängig voneinander auftreten, ist die Verwendung verschiedener Modelle mit geringen Kosten verbunden. In der Gesamtbeurteilung des EWU-Beitritts der neuen EU-Länder kommt diese Arbeit zu einer anderen Einschätzung als bisherige Studien. Die in Teil eins ermittelten stabilitätspolitischen Konsequenzen sind entweder neutral oder implizieren bei Beitritt zur Währungsunion eine größere Stabilität. Die in Teil zwei und drei ermittelten statischen und dynamischen Gewinne eines Beitritts sind zudem erheblich, so dass ein schneller Beitritt zur Währungsunion für die neuen EU-Mitgliedsländer vorteilhaft ist. Unter Berücksichtigung der Ziele der Europäischen Wirtschafts- und Währungsunion (EWWU) müssen hierzu jedoch zwei Bedingungen erfüllt sein. Einerseits sind hinreichend entwickelte Finanzmärkte notwendig, um das Ziel einer Konvergenz der neuen und alten EU-Mitgliedsländer zu erreichen. Andererseits wird der Gesamtraum von einer stärkeren Finanzmarktintegration und einer Senkung der Transaktionskosten profitieren, jedoch durch die Übertragung von Schocks der neuen Mitgliedsländer instabiler. Daher kann der Beitritt der neuen Mitgliedsländer zur EWU für den Gesamtraum negativ sein. Diese Kosten sind nur dann zu rechtfertigen, falls über die schnellere Entwicklung der neuen Mitgliedsstaaten eine höhere Stabilität des Währungsraumes erzielt wird. Das neukeynesianische Wachstumsmodell gibt Hinweise, dass eine solche Entwicklung eintreten könnte. N2 - The European Monetary Union consists of 16 member states, is inhabited by 321 million people and has a joint GDP of 22.9 trillion Euros. It is one of the largest economic areas in the world. In the next years the Eurozone will growth further, eight remaining new EU member states will join after their fulfillment of the Maastricht criteria. This makes accession rather sequential, Slovenia joined in 2007, Slovakia in 2009 and Estonia is about to join the Eurozone in 2010. However, these rules open the opportunity for a new EU-member state to postpone membership of EMU in violating the Maastricht criteria like Sweden. The contribution of my Ph.D. thesis is to derive channels of the impact of an EMU accession on the macro-economy. To this aim, I analyze the effects of accession on stability, growth and the geographical structure within theoretical models. The static effects of accession are quantified within a computable equilibrium model. In the conclusions I answer the question whether there are economic reasons for a new member state to avoid EMU membership. The thesis is organized in three parts reflecting three perspectives of accession. Within the first main chapter, the effects of accession on stability are analyzed within a dynamic general equilibrium framework (DSGE). After a short discussion of the effects of monetary arrangements on the stability of an economy, I analyze the well-known arguments of the theory of optimum currency areas. Thereafter the model is used to analyze the transmission of shocks within the monetary union. The second main chapter of the thesis is related to static effects of accession. I show that in five new member states gains from accession outpace costs. Nevertheless, the gain from accession varies among accession countries and economic activities. Overall, small open economies tend to benefit to a greater extent than medium-size, more closed economies. In the third main chapter of the thesis a multiregional growth model is developed. In this model further integration leads to more efficient financial markets which foster growth. Nevertheless, like in all new economic geography (NEG) models, there could be the outcome of a catastrophic agglomeration. Capital could move from poor accession countries to rich western Eurozone countries. To prevent such a catastrophic agglomeration, financial markets should show a minimum degree of development. The conclusion of the thesis supports the accession of new member states to the Eurozone. I argue that the consequences of EMU accession will be either neutral or positive for the accession countries. Since these countries tend to be more instable, they could gain from an equalization of shocks within the Eurozone. The static effects outpace the costs of accession. Within the last years we saw huge progress in the integration of new EU-member states into the international financial system. A catastrophic agglomeration should therefore be unlikely. However, market capitalization remains low and bank lending is less profitable than in western EU-countries so that a risk remains which could justify a postponement of accession. KW - Europäische Währungsunion KW - Erweiterung KW - DSGE KW - CGE KW - European Monetary Union KW - Enlargement KW - DSGE KW - CGE Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43446 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Audretsch, Andreas T1 - Zur Entstehung von Good Governance : Gründe, Muster und Bedingungen einer afrikanischen Entwicklung ; das Beispiel Ghana T1 - About the emergence of Good Governance : reasons, models and conditions of an african development ; the example Ghana N2 - Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen. N2 - Ghana is a prime example that a developing country can forge the path towards Good Governance. According to various studies Ghana, compared to other African countries, is a front-runner in this respect. This study asks the question “what are the reasons, models and conditions which lead to Good Governance?”. At the heart of this study is an empirical analysis of the emergence of Good Governance in Ghana and the process of transformation. This process is studied over a long period of time (more than fifty years), in order to be able to judge the long-term developments as well as those in the short-term. The survey is conducted using a “Mixed Methods Approach”, both quantitative and qualitative analyses methods are used. In hindsight this approach proved to be very effective. Initially the quality of Governance is measured over the entire period of time using six different indicators. The improvements and setbacks are then qualitatively analyzed looking for reasons for these developments. This approach uncovered certain consistent systems i.e. circular developments which, for many years, were an obstacle on the road to Good Governance until Ghana was able to break out of the cycle eventually. Democratic change took place, rule of law was improved just as the provision of the population with public goods and the economic development. Even if the various aspects of Good Governance are studied separately at first, it becomes clear that these aspects are inter-related and influence each other. For example it has been shown, that the rule of law influences the stability of the political as well as the economic system and vice-versa. The development of a country can therefore only be understood and explained using a complex Governance-System. The interactions within this system can either be constructive or destructive. The linkages of the various fields are illustrated first in a negative and then in positive scenario which summarize the findings of this survey. At the same time they contribute to the analytic understanding of the processes analyzed. The study clearly shows how Good Governance emerges from an interaction between different factors. It also shows that it is scientifically very rewarding to consider a complex Governance-System in transformation research. In the study many different, empirically compiled, results concerning the particular transformations are brought together in comprehensive scenarios. As there are no surveys analyzing comprehensive Good Governance-transformations, this study takes the first step in this direction. It is clear that transformation towards Good Governance can not be achieved in a short period of time by changing the general framework. Instead, cultural change, learning processes and long-term development are what is important and these have been analyzed in this study using Ghana as an example. In many earlier studies on transformation this temporal aspect was neglected. Ghana has taken many steps towards Good Governance and the future. The analysis of these steps is core aspect of this survey. The country, however, still has a long way to go. KW - Governance KW - Ghana KW - Afrika KW - Demokratisierung KW - Korruption KW - Governance KW - Ghana KW - Africa KW - Democratisation KW - Corruption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42310 ER - TY - THES A1 - Arvidsson, Samuel Janne T1 - Identification of growth-related tonoplast proteins in Arabidopsis thaliana T1 - Identifizierung von wachstumsrelevanten Tonoplast-Proteinen in Arabidopsis thaliana (Ackerschmalwand) N2 - In a very simplified view, the plant leaf growth can be reduced to two processes, cell division and cell expansion, accompanied by expansion of their surrounding cell walls. The vacuole, as being the largest compartment of the plant cell, plays a major role in controlling the water balance of the plant. This is achieved by regulating the osmotic pressure, through import and export of solutes over the vacuolar membrane (the tonoplast) and by controlling the water channels, the aquaporins. Together with the control of cell wall relaxation, vacuolar osmotic pressure regulation is thought to play an important role in cell expansion, directly by providing cell volume and indirectly by providing ion and pH homestasis for the cytosoplasm. In this thesis the role of tonoplast protein coding genes in cell expansion in the model plant Arabidopsis thaliana is studied and genes which play a putative role in growth are identified. Since there is, to date, no clearly identified protein localization signal for the tonoplast, there is no possibility to perform genome-wide prediction of proteins localized to this compartment. Thus, a series of recent proteomic studies of the tonoplast were used to compile a list of cross-membrane tonoplast protein coding genes (117 genes), and other growth-related genes from notably the growth regulating factor (GRF) and expansin families were included (26 genes). For these genes a platform for high-throughput reverse transcription quantitative real time polymerase chain reaction (RT-qPCR) was developed by selecting specific primer pairs. To this end, a software tool (called QuantPrime, see http://www.quantprime.de) was developed that automatically designs such primers and tests their specificity in silico against whole transcriptomes and genomes, to avoid cross-hybridizations causing unspecific amplification. The RT-qPCR platform was used in an expression study in order to identify candidate growth related genes. Here, a growth-associative spatio-temporal leaf sampling strategy was used, targeting growing regions at high expansion developmental stages and comparing them to samples taken from non-expanding regions or stages of low expansion. Candidate growth related genes were identified after applying a template-based scoring analysis on the expression data, ranking the genes according to their association with leaf expansion. To analyze the functional involvement of these genes in leaf growth on a macroscopic scale, knockout mutants of the candidate growth related genes were screened for growth phenotypes. To this end, a system for non-invasive automated leaf growth phenotyping was established, based on a commercially available image capture and analysis system. A software package was developed for detailed developmental stage annotation of the images captured with the system, and an analysis pipeline was constructed for automated data pre-processing and statistical testing, including modeling and graph generation, for various growth-related phenotypes. Using this system, 24 knockout mutant lines were analyzed, and significant growth phenotypes were found for five different genes. N2 - Sehr vereinfacht gesagt kann Blattwachstum auf zwei Prozesse reduziert werden, Zellteilung und Zellexpansion, gefolgt von Zellwandexpansion. Die Vakuole, das größte Organell der Zelle, übt durch die Kontrolle des Wasserhaushaltes der Pflanze eine wichtige Funktion im Zusammenhang mit der Zellexpansion aus. Dies geschieht durch die Regulierung des osmotischen Druckes, durch Import und Export von organischen und anorganischen Ionen über die Vakuolenmembran (den Tonoplast) und durch die Kontrolle ihrer Wasserkanäle (der Aquaporine). Es wird angenommen, dass die Regulierung des vakuolären osmotischen Druckes eine große Rolle bei der Zellexpansion spielt, da der osmotische Druck die Stärke der mechanischen Kraft des Tonoplast auf die Plasmamembran und die Zellwand bestimmt. In dieser Dissertation wird die Rolle von Tonoplastproteinen und ihrer Gene auf die Zellexpansion anhand der Modellpflanze Arabidopsis thaliana (Ackerschmalwand) untersucht, und Kandidaten für wachstumsrelevante Gene werden identifiziert. Da bisher noch kein Signal für die Lokalisierung von Proteinen im Tonoplast identifiziert wurde, gibt es keine Möglichkeit, genomweite Voraussagen über solche Proteinlokalisierungen zu machen. Daher haben wir eine Reihe von aktuellen Proteom-Studien genutzt, um eine Liste von 117 Genen, die für transmembrane tonoplastproteinkodierende Gene kodieren, zusammenzustellen. Zusätzlich wurden andere wachstumsrelevante Gene und Zellzyklus-Gene in die Liste aufgenommen (38 Gene). Die Expression der Gene während der Blattentwicklung sollte mittels einer sensitiven Technik, der quantitativen Polymerasekettenreaktion (qPCR), untersucht werden. Um rasch die für dieses Verfahren notwendigen Oligonukleotide zu entwerfen, wurde ein Computerprogramm („QuantPrime“) entwickelt. Das Programm entwirft automatisch solche Oligonukleotide und überprüft deren Spezifizität in silico auf Ebene der Transkriptome und Genome um Kreuz-Hybridisierungen zu vermeiden, die zu unspezifischen Amplifikationen führen würden. Die qPCR-Plattform wurde in einer Expressions-Studie eingesetzt, um wachstumsrelevante Gen-Kandidaten zu identifizieren. Um wachstumsaktive und nichtaktive Prozesse vergleichen zu können, wurden Proben von unterschiedlichen Bereichen des Blattes zu unterschiedlichen Wachstumsstadien beprobt. Eine musterbasierte Expressionsdatenanalyse wurde eingesetzt, um die Gene hinischtlich ihrer Assoziation mit der Blattexpansionen in eine Rangordnung zu bringen. Die Gene mit dem höchsten Rang wurden als Kandidaten für weitere Experimente ausgewählt. Um die funktionelle Beteiligung dieser Gene auf einer makroskopischen Ebene zu untersuchen, wurden Knockout-Mutanten für die Gen-Kandidaten hinsichtlich ihres Wachstums analysiert. Zu diesem Zweck wurde ein System für die automatisierte Phänotypisierung des Blattwachstums etabliert. Zum einen wurde ein Programm-Paket für detaillierte Annotation von Wachstumsstadien und zum anderen ein Analyse-Paket für automatisierte Datenvorbereitung und statistische Tests entwickelt. Das Analyse-Paket erlaubt die Modellierung und graphische Darstellung verschiedener wachstumsrelevanter Phänotypen. Mit Hilfe dieses Systems wurden 24 Knockout-Mutanten untersucht und signifikante Phänotypen wurden für fünf verschiedene Gene gefunden. KW - Ackerschmalwand KW - Wachstum KW - Tonoplast KW - qPCR KW - Phänotypisierung KW - Arabidopsis KW - Growth KW - Tonoplast KW - qPCR KW - Phenotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52408 ER - TY - THES A1 - Alff, Henryk T1 - Zwischen Geburtsort und Land der Vorväter : die sozialen Netzwerke von Kasachen aus der Mongolei und ihre Rolle im postsowjetischen Migrations- und Inkorporationsprozess T1 - Between place of birth and land of forefathers : the social networks of Kazakhs from Mongolia and their role in the post-soviet migration and incorporation process N2 - Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen. N2 - Since the collapse of the USSR new migration processes such as labour migration between the southern republics of CIS and Russia, and transborder mobility of ethnic groups to their „regions of historical provenance“ emerged on its territory. The dynamic migration processes of ethnic Kazakhs between Mongolia and Kazakhstan analyzed here shows features of the latter type of migration, but also some specific characters. The present dissertation is based on sustained fieldwork carried out in Kazakhstan and Mongolia from 2006 to 2009. Surveys and in-depth interviews were conducted among Mongolian-Kazakh migrants in the environs of Almaty and Kazakhs in Mongolia’s westernmost aymag Bayan-Ölgiy. Additional interviews were held among experts from public, scientific and political institutions to ensure a balanced view on the post-soviet migration and incorporation processes. In the last two decades dense social networks developed between Mongolian-Kazakh migrants in Kazakhstan and their relatives – still or again – living in Mongolia. These networks were perpetuated by the improvement of transportation and communication links connecting both states. Circular migration patterns, regular visits and phone calls as mechanisms of transborder socioeconomic support have intensified during the last years. This interaction has to be classified in the context of legal, political and economical conditions, and, especially, in interdependency with the migration and incorporation policies of the state. The insight of the present analysis can be summarized in short in the following way: (I) The transborder interaction of the Mongolian Kazakhs, which is organized in social networks, is characterized by features of, but in the same way differs from concepts of transnationalism theory. (II) The social relations among Mongolian-Kazakh relatives generate social capital and contribute to everyday support. (III) The local and transborder activities of the Mongolian Kazakhs are to be explained as strategies of socioeconomic incorporation. (IV) A significant part of Mongolian Kazakhs articulate hybrid identification patterns that differ from the majority population and that are yet insufficiently perceived by the political elites in Kazakhstan. KW - Mongolei KW - Kasachstan KW - transnationale Migration KW - Inkorporation KW - soziale Netzwerke KW - Mongolia KW - Kazakhstan KW - transnational migration KW - inkorporation KW - social networks Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49886 ER - TY - THES A1 - Ahnert, Karsten T1 - Compactons in strongly nonlinear lattices T1 - Kompaktonen in stark nichtlinearen Gittern N2 - In the present work, we study wave phenomena in strongly nonlinear lattices. Such lattices are characterized by the absence of classical linear waves. We demonstrate that compactons – strongly localized solitary waves with tails decaying faster than exponential – exist and that they play a major role in the dynamics of the system under consideration. We investigate compactons in different physical setups. One part deals with lattices of dispersively coupled limit cycle oscillators which find various applications in natural sciences such as Josephson junction arrays or coupled Ginzburg-Landau equations. Another part deals with Hamiltonian lattices. Here, a prominent example in which compactons can be found is the granular chain. In the third part, we study systems which are related to the discrete nonlinear Schrödinger equation describing, for example, coupled optical wave-guides or the dynamics of Bose-Einstein condensates in optical lattices. Our investigations are based on a numerical method to solve the traveling wave equation. This results in a quasi-exact solution (up to numerical errors) which is the compacton. Another ansatz which is employed throughout this work is the quasi-continuous approximation where the lattice is described by a continuous medium. Here, compactons are found analytically, but they are defined on a truly compact support. Remarkably, both ways give similar qualitative and quantitative results. Additionally, we study the dynamical properties of compactons by means of numerical simulation of the lattice equations. Especially, we concentrate on their emergence from physically realizable initial conditions as well as on their stability due to collisions. We show that the collisions are not exactly elastic but that a small part of the energy remains at the location of the collision. In finite lattices, this remaining part will then trigger a multiple scattering process resulting in a chaotic state. N2 - In der hier vorliegenden Arbeit werden Wellenphänomene in stark nichtlinearen Gittern untersucht. Diese Gitter zeichnen sich vor allem durch die Abwesenheit von klassischen linearen Wellen aus. Es wird gezeigt, dass Kompaktonen – stark lokalisierte solitäre Wellen, mit Ausläufern welche schneller als exponentiell abfallen – existieren, und dass sie eine entscheidende Rolle in der Dynamik dieser Gitter spielen. Kompaktonen treten in verschiedenen diskreten physikalischen Systemen auf. Ein Teil der Arbeit behandelt dabei Gitter von dispersiv gekoppelten Oszillatoren, welche beispielsweise Anwendung in gekoppelten Josephsonkontakten oder gekoppelten Ginzburg-Landau-Gleichungen finden. Ein weiterer Teil beschäftigt sich mit Hamiltongittern, wobei die granulare Kette das bekannteste Beispiel ist, in dem Kompaktonen beobachtet werden können. Im dritten Teil werden Systeme, welche im Zusammenhang mit der Diskreten Nichtlinearen Schrödingergleichung stehen, studiert. Diese Gleichung beschreibt beispielsweise Arrays von optischen Wellenleitern oder die Dynamik von Bose-Einstein-Kondensaten in optischen Gittern. Das Studium der Kompaktonen basiert hier hauptsächlich auf dem numerischen Lösen der dazugehörigen Wellengleichung. Dies mündet in einer quasi-exakten Lösung, dem Kompakton, welches bis auf numerische Fehler genau bestimmt werden kann. Ein anderer Ansatz, der in dieser Arbeit mehrfach verwendet wird, ist die Approximation des Gitters durch ein kontinuierliches Medium. Die daraus resultierenden Kompaktonen besitzen einen im mathematischen Sinne kompakten Definitionsbereich. Beide Methoden liefern qualitativ und quantitativ gut übereinstimmende Ergebnisse. Zusätzlich werden die dynamischen Eigenschaften von Kompaktonen mit Hilfe von direkten numerischen Simulationen der Gittergleichungen untersucht. Dabei wird ein Hauptaugenmerk auf die Entstehung von Kompaktonen unter physikalisch realisierbaren Anfangsbedingungen und ihre Kollisionen gelegt. Es wird gezeigt, dass die Wechselwirkung nicht exakt elastisch ist, sondern dass ein Teil ihrer Energie an der Position der Kollision verharrt. In endlichen Gittern führt dies zu einem multiplen Streuprozess, welcher in einem chaotischen Zustand endet. KW - Gitterdynamik KW - Hamilton KW - Compacton KW - Soliton KW - granulare Kette KW - Lattice dynamics KW - Hamiltonian KW - Compacton KW - Soliton KW - Granular chain Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48539 ER - TY - THES A1 - Abed, Jamil T1 - An iterative approach to operators on manifolds with singularities T1 - Ein iterativer Zugang zu Operatoren auf Mannigfaltigkeiten mit Singularitäten N2 - We establish elements of a new approach to ellipticity and parametrices within operator algebras on manifolds with higher singularities, only based on some general axiomatic requirements on parameter-dependent operators in suitable scales of spaes. The idea is to model an iterative process with new generations of parameter-dependent operator theories, together with new scales of spaces that satisfy analogous requirements as the original ones, now on a corresponding higher level. The "full" calculus involves two separate theories, one near the tip of the corner and another one at the conical exit to infinity. However, concerning the conical exit to infinity, we establish here a new concrete calculus of edge-degenerate operators which can be iterated to higher singularities. N2 - Wir führen einen neuen Zugang ein zu Elliptizität und Parametrices in Operatorenalgebren auf Mannigfaltigkeiten mit höheren Singularitäten, nur basierend auf allgemeinen axiomatischen Voraussetzungen über parameter-abhängige Operatoren in geeigneten Skalen von Räumen. Die Idee besteht darin, ein iteratives Verfahren zu modellieren mit neuen Generationen von parameter-abhängigen Operatortheorien, zusammen mit neuen Skalen von Räumen, die analoge Voraussetzungen erfüllen wie die ursprünglichen Objekte, jetzt auf dem entsprechenden höheren Niveau. Der „volle“ Kalkül besteht aus zwei separaten Theorien, eine nahe der Spitze der Ecke und eine andere am konischen Ausgang nach Unendlich. Allerdings, bezüglich des konischen Ausgangs nach Unendlich, bauen wir hier einen neuen konkreten Kalkül von kanten-entarteten Operatoren auf, der für höhere Singularitäten iteriert werden kann. KW - Pseudo-Differentialoperatoren KW - kanten- und ecken-entartete Symbole KW - Elliptizität KW - Parametrices KW - höhere Singularitäten KW - Pseudo-differential operators KW - edge- and corner-degenerate symbols KW - ellipticity KW - parametrices KW - higher singularities Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44757 ER -