TY - THES A1 - Lindblad Petersen, Oliver T1 - The Cauchy problem for the linearised Einstein equation and the Goursat problem for wave equations T1 - Das Cauchyproblem für die linearisierte Einsteingleichung und das Goursatproblem für Wellengleichungen N2 - In this thesis, we study two initial value problems arising in general relativity. The first is the Cauchy problem for the linearised Einstein equation on general globally hyperbolic spacetimes, with smooth and distributional initial data. We extend well-known results by showing that given a solution to the linearised constraint equations of arbitrary real Sobolev regularity, there is a globally defined solution, which is unique up to addition of gauge solutions. Two solutions are considered equivalent if they differ by a gauge solution. Our main result is that the equivalence class of solutions depends continuously on the corre- sponding equivalence class of initial data. We also solve the linearised constraint equations in certain cases and show that there exist arbitrarily irregular (non-gauge) solutions to the linearised Einstein equation on Minkowski spacetime and Kasner spacetime. In the second part, we study the Goursat problem (the characteristic Cauchy problem) for wave equations. We specify initial data on a smooth compact Cauchy horizon, which is a lightlike hypersurface. This problem has not been studied much, since it is an initial value problem on a non-globally hyperbolic spacetime. Our main result is that given a smooth function on a non-empty, smooth, compact, totally geodesic and non-degenerate Cauchy horizon and a so called admissible linear wave equation, there exists a unique solution that is defined on the globally hyperbolic region and restricts to the given function on the Cauchy horizon. Moreover, the solution depends continuously on the initial data. A linear wave equation is called admissible if the first order part satisfies a certain condition on the Cauchy horizon, for example if it vanishes. Interestingly, both existence of solution and uniqueness are false for general wave equations, as examples show. If we drop the non-degeneracy assumption, examples show that existence of solution fails even for the simplest wave equation. The proof requires precise energy estimates for the wave equation close to the Cauchy horizon. In case the Ricci curvature vanishes on the Cauchy horizon, we show that the energy estimates are strong enough to prove local existence and uniqueness for a class of non-linear wave equations. Our results apply in particular to the Taub-NUT spacetime and the Misner spacetime. It has recently been shown that compact Cauchy horizons in spacetimes satisfying the null energy condition are necessarily smooth and totally geodesic. Our results therefore apply if the spacetime satisfies the null energy condition and the Cauchy horizon is compact and non-degenerate. N2 - In der vorliegenden Arbeit werden zwei Anfangswertsprobleme aus der Allgemeinen Relativitätstheorie betrachtet. Das erste ist das Cauchyproblem für die linearisierte Einsteingleichung auf allgemeinen global hyperbolischen Raumzeiten mit glatten und distributionellen Anfangsdaten. Wir verallgemeinern bekannte Ergebnisse, indem wir zeigen, dass für jede gegebene Lösung der linearisierten Constraintgleichungen mit reeller Sobolevregularität eine global definierte Lösung existiert, die eindeutig ist bis auf Addition von Eichlösungen. Zwei Lösungen sind äquivalent falls sie sich durch eine Eichlösung unterscheiden. Unser Hauptergebnis ist, dass die äquivalenzklasse der Lösungen stetig von der zugehörigen Äquivalenzklasse der Anfangsdaten abhängt. Wir lösen auch die linearisierten Constraintgleichungen in Spezialfällen und zeigen, dass beliebig irreguläre (nicht Eich-) Lösungen der linearisierten Einsteingleichungen auf der Minkowski-Raumzeit und der Kasner-Raumzeit existieren. Im zweiten Teil betrachten wir das Goursatproblem (das charakteristische Cauchyproblem) für Wellengleichungen. Wir geben Anfangsdaten auf einem Cauchyhorizont vor, der eine lichtartige Hyperfläche ist. Dieses Problem wurde bisher noch nicht viel betrachtet, weil es ein Anfangswertproblem auf einer nicht global hyperbolischen Raumzeit ist. Unser Hauptergebnis ist: Gegeben eine glatte Funktion auf einem nicht-leeren glatten, kompakten, totalgeodätischen und nicht-degenerierten Cauchyhorizont und eine so genannte zulässige Wellengleichung, dann existiert eine eindeutige Lösung, die auf dem global hyperbolischen Gebiet definiert ist und deren Einschränkung auf dem Cauchyhorizont die gegebene Funktion ist. Die Lösung hängt stetig von den Anfangsdaten ab. Eine Wellengleichung heißt zulässig, falls der Teil erster Ordnung eine gewisse Bedingung am Cauchyhorizont erfüllt, zum Beispiel falls er gleich Null ist. Interessant ist, dass Existenz der Lösung und Eindeutigkeit falsch sind für allgemeine Wellengleichungen, wie Beispiele zeigen. Falls wir die Bedingung der Nichtdegeneriertheit weglassen, ist Existenz von Lösungen falsch sogar für die einfachste Wellengleichung. Der Beweis benötigt genaue Energieabschätzungen für die Wellengleichung nahe am Cauchyhorizont. Im Fall, dass die Ricci-Krümmung am Cauchyhorizont verschwindet, zeigen wir, dass die Energieabschätzungen stark genug sind, um lokale Existenz und Eindeutigkeit für eine Klasse von nicht-linearen Wellengleichungen zu zeigen. Unser Ergebnis ist zum Beispiel auf der Taub-NUT-Raumzeit oder der Misner-Raumzeit gültig. Es wurde vor kurzem gezeigt, dass kompakte Cauchyhorizonte in Raumzeiten, die die Nullenergiebedingung erfüllen, notwendigerweise glatt und totalgeodätisch sind. Unsere Ergebnisse sind deshalb auf Raumzeiten gültig, die die Nullenergiebedingung erfüllen, wenn der Cauchyhorizont kompakt und nicht-degeneriert ist. KW - Cauchy horizon KW - the Goursat problem KW - the characteristic Cauchy problem KW - wave equation KW - the Cauchy problem KW - gravitational wave KW - the linearised Einstein equation KW - Cauchyhorizont KW - das Goursatproblem KW - das charakteristische Cauchyproblem KW - Wellengleichung KW - das Cauchyproblem KW - Gravitationswelle KW - die linearisierte Einsteingleichung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410216 ER - TY - THES A1 - Lorente Sánchez, Alejandro Jose T1 - Synthesis of side-chain polystyrenes for all organic solution processed OLEDs T1 - Synthese von Seitenketten-Polystyrolen für lösungsgefertigte OLEDs N2 - In the present work side-chain polystyrenes were synthesized and characterized, in order to be applied in multilayer OLEDs fabricated by solution process techniques. Manufacture of optoelectronic devices by solution process techniques is meant to decrease significantly fabrication cost and allow large scale production of such devices. This dissertation focusses in three series, enveloped in two material classes. The two classes differ to each other in the type of charge transport exhibited, either ambipolar transport or electron transport. All materials were applied in all-organic solution processed green Ir-based devices. In the first part, a series of ambipolar host materials were developed to transport both charge types, holes and electrons, and be applied especially as matrix for green Ir-based emitters. It was possible to increase devices efficacy by modulating the predominant charge transport type. This was achieved by modification of molecules electron transport part with more electron-deficient heterocycles or by extending the delocalization of the LUMO. Efficiencies up to 28.9 cd/A were observed for all-organic solution-process three layer devices. In the second part, suitability of triarylboranes and tetraphenylsilanes as electron transport materials was studied. High triplet energies were obtained, up to 2.95 eV, by rational combination of both molecular structures. Although the combination of both elements had a low effect in materials electron transport properties, high efficiencies around 24 cd/A were obtained for the series in all-organic solution-processed two layer devices. In the last part, benzene and pyridine were chosen as the series electron-transport motif. By controlling the relative pyridine content (RPC) solubility into methanol was induced for polystyrenes with bulky side-chains. Materials with RPC ≥ 0.5 could be deposited orthogonally from solution without harming underlying layers. From the best of our knowledge, this is the first time such materials are applied in this architecture showing moderate efficiencies around 10 cd/A in all-organic solution processed OLEDs. Overall, the outcome of these studies will actively contribute to the current research on materials for all-solution processed OLEDs. N2 - Organische Licht emittierende Dioden (OLEDs) gelten als die nächste Technologie für Beleuchtungsanwendungen. In letzter Zeit wurden immer mehr kommerzielle Produkte herausgebracht, für die Anwendung in Displays und Beleuchtungssystemen. Doch diese Produkte werden hauptsächlich durch Vakuumabscheidung der organischen Moleküle hergestellt, was hohe Fertigungskosten zur Folge hat. Um die Kosten zu senken, sollten die Geräte über Lösungsverfahren hergestellt werden, was die Produktion durch Drucktechniken ermöglicht. Allerdings gibt es noch einige Herausforderungen bei den Lösungsprozessen, auch bei der Verarbeitung bekannter Materialien, die überwunden werden müssen, wie Rekristallisation oder schlechte Filmbildung. Deshalb sind weitere Materialmodifikationen erforderlich. Ein sehr verbreiteter Ansatz ist die Einarbeitung von Materialien, die im Vakuum verarbeitet werden können, wie Seitenkettenpolymer-Rückgräte. Wir haben in dieser Arbeit drei Reihen von Seitenketten-Polystyrolen synthetisiert und charakterisiert. Die Polymere der ersten Reihe sollten als Hostmaterialien für phosphoreszierende Emitter in der Emissionsschicht dienen. Die Polymere der zweiten und dritten Reihe fungierten als Elektron-Transport-Materialien. Die Polymereigenschaften wurden durch Änderungen der molekularen Struktur der Seitenketten modifiziert. Von allen Materialien wurden dünne Schichten aus Lösung abgeschieden und diese on grünen Ir-basierten OLEDs untersucht. Für alle organischen, aus Lösung gefertigten OLEDs wurden Effizienzen von bis zu 28,9 cd/A erreicht. KW - OLED KW - solution process KW - charge transport KW - polymers KW - OLED KW - Lösungsprozess KW - Ladung Transport KW - Polymere Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398006 ER - TY - THES A1 - Lubitz, Christin T1 - Investigating local surface displacements associated with anthropogenic activities by satellite radar interferometry T1 - Untersuchung lokaler Verschiebungen der Erdoberfläche im Zusammenhang mit anthropogenen Aktivitäten durch satellitengestützte Radarinterferometrie BT - application to Staufen im Breisgau and Ketzin BT - Anwendung für Staufen im Breisgau und Ketzin N2 - Direct anthropogenic influences on the Earth’s subsurface during drilling, extraction or injection activities, can affect land stability by causing subsidence, uplifts or lateral displacements. They can occur in localized as well as in uninhabited and inhabited regions. Thus the associated risks for humans, infrastructure, and environment must be minimized. To achieve this, appropriate surveillance methods must be found that can be used for simultaneous monitoring during such activities. Multi-temporal synthetic aperture radar interferometry (MT-InSAR) methods like the Persistent Scatterer Interferometry (PSI) and the Small BAseline Subsets (SBAS) have been developed as standard approaches for satellite-based surface displacement monitoring. With increasing spatial resolution and availability of SAR sensors in recent years, MT-InSAR can be valuable for the detection and mapping of even the smallest man-made displacements. This doctoral thesis aims at investigating the capacities of the mentioned standard methods for this purpose, and comprises three main objectives against the backdrop of a user-friendly surveillance service: (1) the spatial and temporal significance assessment against leveling, (2) the suitability evaluation of PSI and SBAS under different conditions, and (3) the analysis of the link between surface motion and subsurface processes. Two prominent case studies on anthropogenic induced subsurface processes in Germany serve as the basis for this goal. The first is the distinct urban uplift with severe damages at Staufen im Breisgau that has been associated since 2007 with a failure to implement a shallow geothermal energy supply for an individual building. The second case study considers the pilot project of geological carbon dioxide (CO2) storage at Ketzin, and comprises borehole drilling and fluid injection of more than 67 kt CO2 between 2008 and 2013. Leveling surveys at Staufen and comprehensive background knowledge of the underground processes gained from different kinds of in-situ measurements at both locations deliver a suitable basis for this comparative study and the above stated objectives. The differences in location setting, i.e. urban versus rural site character, were intended to investigate the limitations in the applicability of PSI and SBAS. For the MT-InSAR analysis, X-band images from the German TerraSAR-X and TanDEM-X satellites were acquired in the standard Stripmap mode with about 3 m spatial resolution in azimuth and range direction. Data acquisition lasted over a period of five years for Staufen (2008-2013), and four years for Ketzin (2009-2013). For the first approximation of the subsurface source, an inversion of the InSAR outcome in Staufen was applied. The modeled uplift based on complex hydromechanical simulations and a correlation analysis with bottomhole pressure data were used for comparison with MT-InSAR measurements at Ketzin. In response to the defined objectives of this thesis, a higher level of detail can be achieved in mapping surface displacements without in-situ effort by using MT-InSAR in comparison to leveling (1). A clear delineation of the elliptical shaped uplift border and its magnitudes at different parts was possible at Staufen, with the exception of a vegetated area in the northwest. Vegetation coverage and the associated temporal signal decorrelation are the main limitations of MT-InSAR as clearly demonstrated at the Ketzin test site. They result in insufficient measurement point density and unwrapping issues. Therefore, spatial resolutions of one meter or better are recommended to achieve an adequate point density for local displacement analysis and to apply signal noise reduction. Leveling measurements can provide a complementary data source here, but require much effort pertaining to personnel even at the local scale. Horizontal motions could be identified at Staufen by only comparing the temporal evolution of the 1D line of sight (LOS) InSAR measurements with the available leveling data. An exception was the independent LOS decomposition using ascending and descending data sets for the period 2012-2013. The full 3D displacement field representation failed due to insufficient orbit-related, north-south sensitivity of the satellite-based measurements. By using the dense temporal mapping capabilities of the TerraSAR-X/TanDEM-X satellites after every 11 days, the temporal displacement evolution could be captured as good as that with leveling. With respect to the tested methods and in the view of generality, SBAS should be preferred over PSI (2). SBAS delivered a higher point density, and was therefore less affected by phase unwrapping issues in both case studies. Linking surface motions with subsurface processes is possible when considering simplified geophysical models (3), but it still requires intensive research to gain a deep understanding. N2 - Die Stabilität der oberen Gesteinsschichten kann durch anthropogene Aktivitäten, wie Bohrungen, Gas- oder Fluidextraktionen, beziehungsweise –injektionen, so beeinflusst werden, dass Oberflächenhebungen, Senkungen und seitliche Lageverschiebungen auftreten können. Diese Bewegungen können lokal begrenzt sein, in bewohnten als auch unbewohnten Gebieten in Erscheinung treten und ein Risiko für Mensch, Umwelt und Infrastruktur darstellen. Die Einschätzung und Überwachung dieser Risiken kann lokal durch geophysikalische und geodätische Verfahren erfolgen, und mittels fernerkundlichen Analysen in einen räumlich zeitlichen Zusammenhang gebracht werden. Methoden der Synthetischen Apertur Radar Interferometrie (MT-InSAR) wie die Persistent Scatterer Interferometry (PSI) oder das Small BAseline Subsets (SBAS) Verfahren haben sich als Standardanwendung für die satellitengestützte Messung von Oberflächenverschiebungen etabliert. Immer hochauflösendere Systeme sowie die Zunahme an zur Verfügung stehenden Sensoren in den letzten Jahren erlauben das Aufspüren und Kartieren von kleinsten menschengemachten Bewegungen der oberen Gesteinsschichten mittels MT-InSAR. Ziel dieser Doktorarbeit ist die Untersuchung der oben genannten Standardmethoden hinsichtlich ihrer Eignung zur räumlich zeitlichen Analyse von lokalen Bewegungen. Vor dem Hintergrund einer nutzerfreundlichen Anwendung werden dabei drei Punkte eingehend betrachtet: (1) die Bewertung der raum-zeitlichen Signifikanz gegenüber dem Nivellement, (2) die Eignungsbeurteilung beider Methoden unter verschiedenen Bedingungen und (3) die Analyse der Verknüpfbarkeit von Oberflächenbewegungen und Untergrundprozessen. Als Grundlage für diese Untersuchung dienen zwei bekannte Bohrprojekte in Deutschland. Das erste ist ein fehlgeschlagenes Projekt zur geothermalen Energieversorgung eines einzelnen Gebäudes in Staufen im Breisgau im Jahr 2007. Damit in Verbindung steht eine ausgeprägte innerstädtische Hebung mit ernsten Schäden an der Wohnbebauung. Das zweite ist ein Pilotprojekt zur geologischen Speicherung von Kohlenstoffdioxid (CO2) in Ketzin, welches Bohrungen und Fluidinjektionen von mehr als 67 kt CO2 zwischen 2008 und 2013 umfasst. Die Nivellement-Messungen in Staufen sowie das umfangreiche Hintergrundwissen durch verschiedene in-situ Messungen zu den Untergrundprozessen an beiden Standorten bieten eine solide Grundlage für diese vergleichende Studie und ihre Ziele. Da beide Standorte sich stark unterscheiden, insbesondere hinsichtlich ihres städtischen beziehungsweise ländlichen Charakters, erlauben diese Fallstudien eine Untersuchungen der Grenzen in der Anwendbarkeit von den Methoden PSI und SBAS. Für die Untersuchung wurden Bilddaten im X-Band von den deutschen Satelliten TerraSAR-X und TanDEM-X im Standardmodus Stripmap mit etwa 3m Azimut- und Entfernungsauflösung aufgenommen. Die Datenakquise für Staufen umfasste fünf Jahre (2008-2013) und für Ketzin vier Jahre (2009-2013). In Staufen wurde durch eine Inversion der InSAR-Resultate eine erste Näherung zur Lokalisierung einer Volumenexpansion im Untergrund erzielt, welche ursächlich für die an der Oberfläche beobachteten Hebungen ist. Für das Ketzin-Projekt wurden komplexe hydromechanische Simulationen durchgeführt und darauf basierende modellierte Hebungen zum Vergleich mit den MT-InSAR-Messungen herangezogen. Zusätzlich erfolgte eine vergleichende Korrelationsanalyse mit den Druckdaten aus der Injektionsbohrung. In dieser Arbeit konnte gezeigt werden, dass Im Vergleich zu den gängigen Nivellement-Messungen ein deutlich höherer Detailgrad in der Kartierung der Oberflächenbewegungen durch das fernerkundliche MT-InSAR Verfahren erlangt werden konnte (1). Die klare Abgrenzung des elliptischen Hebungsfeldes in Staufen sowie seiner variierenden Magnituden an verschiedenen Positionen konnte deutlich gezeigt werden, mit Ausnahme einer Vegetationsfläche im nordwestlichen Abschnitt. Die Fallstudie zu Ketzin demonstriert ebenfalls die methodischen Einschränkungen bei MT-InSAR durch Vegetation und den damit einhergehenden Signalverlusten. Als Folge traten eine unzureichende Messpunktdichte und Probleme in der Phasenabwicklung auf. Eine räumliche Auflösungen von einem Meter oder besser würde die Wahrscheinlichkeit einer geeigneten Punktdichte erhöhen. Außerdem ermöglicht sie die Anwendung passender Methoden zur Rauschreduzierung des Signals unter geringen Verlusten in der räumlichen Auflösung. Dennoch zeigte sich, dass Nivellement-Kampagnen als ergänzende Datenquelle wertvolle Informationen liefern, auch wenn diese einen hohen Arbeitsaufwand selbst für lokale Ereignisse erfordern. Die Identifizierung von Horizontalbewegungen in Staufen war nur durch den Vergleich des zeitlichen Hebungsverlaufes von Nivellement- und den 1D InSAR-Resultaten festellbar. Eine Ausnahme bildete die davon unabhängige Verschneidung zweier Datensätze von je einem aufsteigenden und absteigenden Orbit für den Zeitraum 2012-2013. Die Darstellung eines kompletten, satellitengestützten 3D-Bewegungsfeldes scheitert an der ungenügenden, umlaufbahnbedingten Sensitivität in Nord-Süd-Richtung. Die zeitlich dichte Kartierung durch TerraSAR-X und TanDEM-X alle 11 Tage ermöglicht eine ebenso detaillierte zeitliche Erfassung der Entwicklung wie mittels Nivellement. Die Untersuchungen an beiden Standorten haben gezeigt, dass das SBAS-Verfahren im Allgemeinen nützlichere Ergebnisse liefert, als das PSI-Verfahren (2). Das SBAS-Verfahren lieferte die höhere Punktdichte und zeigte aufgrund dessen weniger Probleme bei der Phasenabwicklung. Die Verknüpfung von Bewegungen in den oberen Gesteinsschichten mit deren ursächlichen Untergrundprozessen ist unter Einbeziehung vereinfachter geophysikalischer Modelle möglich (3), verlangt aber noch weiterführende Analysen für ein tieferes Verständnis. KW - synthetic aperture radar interferometry KW - time series investigation KW - monitoring of anthropogenic activities KW - Staufen im Breisgau KW - Ketzin KW - Radarinterferometrie mit synthetischer Apertur KW - Zeitreihenuntersuchung KW - Beobachtung anthropogener Aktivitäten KW - Staufen im Breisgau KW - Ketzin Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416001 ER - TY - THES A1 - Lysyakova, Liudmila T1 - Interaction of azobenzene containing surfactants with plasmonic nanoparticles T1 - Wechselwirkung zwischen Azobenzol-haltigen Tensiden und plasmonischen Nanoteilchen N2 - The goal of this thesis is related to the question how to introduce and combine simultaneously plasmonic and photoswitching properties to different nano-objects. In this thesis I investigate the complexes between noble metal nanoparticles and cationic surfactants containing azobenzene units in their hydrophobic tail, employing absorption spectroscopy, surface zeta-potential, and electron microscopy. In the first part of the thesis, the formation of complexes between negatively charged laser ablated spherical gold nanoparticles and cationic azobenzene surfactants in trans- conformation is explored. It is shown that the constitution of the complexes strongly depends on a surfactant-to-gold molar ratio. At certain molar ratios, particle self-assembly into nanochains and their aggregation have been registered. At higher surfactant concentrations, the surface charge of nanoparticles turned positive, attributed to the formation of the stabilizing double layer of azobenzene surfactants on gold nanoparticle surfaces. These gold-surfactant complexes remained colloidally stable. UV light induced trans-cis isomerization of azobenzene surfactant molecules and thus perturbed the stabilizing surfactant shell, causing nanoparticle aggregation. The results obtained with silver and silicon nanoparticles mimick those for the comprehensively studied gold nanoparticles, corroborating the proposed model of complex formation. In the second part, the interaction between plasmonic metal nanoparticles (Au, Ag, Pd, alloy Au-Ag, Au-Pd), as well as silicon nanoparticles, and cis-isomers of azobenzene containing compounds is addressed. Cis-trans thermal isomerization of azobenzenes was enhanced in the presence of gold, palladium, and alloy gold-palladium nanoparticles. The influence of the surfactant structure and nanoparticle material on the azobenzene isomerization rate is expounded. Gold nanoparticles showed superior catalytic activity for thermal cis-trans isomerization of azobenzenes. In a joint project with theoretical chemists, we demonstrated that the possible physical origin of this phenomenon is the electron transfer between azobenzene moieties and nanoparticle surfaces. In the third part, complexes between gold nanorods and azobenzene surfactants with different tail length were exposed to UV and blue light, inducing trans-cis and cis-trans isomerization of surfactant, respectively. At the same time, the position of longitudinal plasmonic absorption maximum of gold nanorods experienced reversible shift responding to the changes in local dielectric environment. Surface plasmon resonance condition allowed the estimation of the refractive index of azobenzene containing surfactants in solution. N2 - Das Ziel dieser Arbeit ist mit der Fragestellung verwandt, wie plasmonische und photoschaltende Eigenschaften in Nano-Objekten simultan herbeigeführt und kombiniert werden können. Diese Arbeit untersucht Komplexe aus Edelmetall-Nanoteilchen und kationischen Tensiden, deren hydrophober Teil Azobenzol enthält, mithilfe von Absorptionsspektroskopie, Oberflächen-Zeta-Potentialen und Elektronenmikroskopie. Im Teil 1 wird die Bildung von Komplexen aus negativ geladenen, Laser ablatierten, sphärischen Goldnanopartikeln und kationischen Azobenzol-haltigen Tensiden in trans-Konfiguration untersucht. Es wird gezeigt, dass die Zusammensetzung des Komplexes stark vom Tensid-Gold Molverhältnis abhängt. Bei bestimmten Molverhältnissen wurde beobachtet, dass sich die Partikel selbst zu Nanoketten zusammensetzten und aggregieren. Bei höheren Tensid-Konzentrationen wurde die Oberflächen-Ladung der Nanopartikel positiv, erklärt durch das Formen einer stabilen Doppel-Schicht von azobenzolhaltigen Tensiden auf der Gold-Oberfläche. Diese Gold-Tensidkomplexe bleiben kolloidal stabil. UV-Licht induziert eine Trans-Cis Isomerisation von Azobenzoltensidmolekülen und stört somit die stabilisierenden Tensidhüllen, welche die Nanopartikelaggregation bewirken. Die Ergebnisse der Silber- und Silikonnanopartikel decken sich mit den Ergebnissen der ausführlich untersuchten Goldnanopartikel, was den vorgeschlagenen Mechanismus der Komplexbildung bekräftigt. Im Teil 2 wird die Wechselwirkung zwischen plasmonischen Metallnanopartikeln und Cis-Isomeren der Azobenzol beinhaltenden Verbindungen adressiert. Die Studie beinhaltet Gold, Silber, Palladium, Gold-Silber und Gold-Palladium Legierungen, und außerdem Silikonnanopartikel, und eine Serie von Azobenzol-Derivaten. Cis-Trans thermale Isomerisation von Azobenzolen wurde verbessert in der Gegenwart von Gold, Palladium und Gold-Palladium legierten Nanopartikeln. Der Einfluss der Tensidstruktur und Nanopartikelmaterialien auf die Isomerisationsrate wird erläutert. Goldnanopartikel zeigen eine hervorragende katalytische Aktivität für die thermale Cis-Trans Isomerisation von Azobenzolen. In einem gemeinsamen Projekt mit Theoretischen Chemikern haben wir demonstriert, dass ein möglicher Mechanismus der Elektronentransfer von der absorbierten Azobenzolhälfte zur Goldoberfläche ist. Im Teil 3 werden die Komplexe zwischen Goldnanostäbchen und Azobenzol-haltigen Timethylammoniumbromide mit verschiedenen Endlängen UV-Licht und blauem Licht ausgesetzt, was eine Trans-Cis und Cis-Trans Isomerisation von Tensiden induziert. Zur gleichen Zeit erfährt das longitudinale plasmonische Absorptionsmaximum von Goldnanostäbchen eine reversible Verschiebung als Reaktion auf die Änderungen in der lokalen dielektrischen Umgebung. Die Oberflächenplasmonenresonanzbedingung erlaubte die Bestimmung des Brechungsindex von Azobenzol-haltigen Tensiden in wässeriger Lösung. KW - azobenzene surfactant KW - Azobenzol-haltiges Tensid KW - plasmon nano-particles KW - plasmonische Nanopartikeln KW - catalytic azobenzene isomerization KW - katalytische Isomerisation von Azobenzolen KW - azobenzene refractive index KW - Brechungsindex von Azobenzol-haltigen Tensiden KW - азобензолсодержащие ПАВ KW - плазмонные наночастицы KW - каталитическая изомеризация азобензолов KW - показатель преломления азобензолов Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403359 ER - TY - THES A1 - Mahlstedt, Robert T1 - Essays on job search behavior and labor market policies T1 - Empirische Studien zum Arbeitssuchverhalten und aktiver Arbeitsmarktpolitik BT - the role of subjective beliefs, geographical mobility and gender differences BT - der Einfluss subjektiver Erwartungen, regionaler Mobilität und geschlechtsspezifischen Unterschieden N2 - Persistently high unemployment rates are a major threat to the social cohesion in many societies. To moderate the consequences of unemployment industrialized countries spend substantial shares of their GDP on labor market policies, while in recent years there has been a shift from passive measures, such as transfer payments, towards more activating elements which aim to promote the reintegration into the labor market. Although, there exists a wide range of evidence about the effects of traditional active labor market policies (ALMP) on participants’ subsequent labor market outcomes, a deeper understanding of the impact of these programs on the job search behavior and the interplay with long-term labor market outcomes is necessary. This allows policy makers to improve the design of labor market policies and the allocation of unemployed workers into specific programs. Moreover, previous studies have shown that many traditional ALMP programs, like public employment or training schemes, do not achieve the desired results. This underlines the importance of understanding the effect mechanisms, but also the need to develop innovative programs that are more effective. This thesis extends the existing literature with respect to several dimensions. First, it analyzes the impact of job seekers’ beliefs about upcoming ALMPs programs on the effectiveness of realized treatments later during the unemployment spell. This provides important insights with respect to the job search process and relates potential anticipation effects (on the job seekers behavior before entering a program) to the vast literature evaluating the impact of participating in an ALMP program on subsequent outcomes. The empirical results show that training programs are more effective if the participants expect participation ex ante, while expected treatment effects are unrelated to the actual labor market outcomes of participants. A subsequent analysis of the effect mechanisms shows that job seekers who expect to participate also receive more information by their caseworker and show a higher willingness to adjust their search behavior in association with an upcoming ALMP program. The findings suggest that the effectiveness of training programs can be improved by providing more detailed information about the possibility of a future treatment early during the unemployment spell. Second, the thesis investigates the effects of a relatively new class of programs that aim to improve the geographical mobility of unemployed workers with respect to the job search behavior, the subsequent job finding prospects and the returns to labor market mobility. To estimate the causal impact of these programs, it is exploited that local employment agencies have a degree of autonomy when deciding about the regional-specific policy mix. The findings show that the policy style of the employment agency indeed affects the job search behavior of unemployed workers. Job seekers who are assigned to agencies with higher preferences for mobility programs increase their search radius without affecting the total number of job applications. This shift of the search effort to distant regions leads to a higher probability to find a regular job and higher wages. Moreover, it is shown that participants in one of the subsidy programs who move to geographically distant region a earn significantly higher wages, end up in more stable jobs and face a higher long-run employment probability compared to non-participants. Third, the thesis offers an empirical assessment of the unconfoundedness assumption with respect to the relevance of variables that are usually unobserved in studies evaluating ALMP programs. A unique dataset that combines administrative records and survey data allows us to observe detailed information on typical covariates, as well as usually unobserved variables including personality traits, attitudes, expectations, intergenerational information, as well as indicators about social networks and labor market flexibility. The findings show that, although our set of usually unobserved variables indeed has a significant effect on the selection into ALMP programs, the overall impact when estimating treatment effects is rather small. Finally, the thesis also examines the importance of gender differences in reservation wages that allows assessing the importance of special ALMP programs targeting women. In particular, when including reservation wages in a wage decomposition exercise, the gender gap in realized wages becomes small and statistically insignificant. The strong connection between gender differences in reservation wages and realized wages raises the question how these differences in reservation wages are set in the first place. Since traditional covariates cannot sufficiently explain the gender gap in reservation wages, we perform subgroup analysis to better understand what the driving forces behind this gender gap are. N2 - Anhaltend hohe Arbeitslosigkeit stellt eine der zentralen Herausforderungen für den sozialen Zusammenhalt moderner Gesellschaften dar. Aus diesem Grund wenden viele Industrienationen einen beachtlichen Teil ihrer Staatsausgaben zur Bekämpfung der Arbeitslosigkeit und den damit verbundenen Konsequenzen auf. Obwohl sich bereits eine Vielzahl ökonomischer Studien mit den Effekten traditioneller Maßnahmen der aktiven Arbeitsmarktpolitik (AAMP) auf den nachfolgenden Erfolg am Arbeitsmarkt beschäftigt, ist ein besseres Verständnis des Einflusses auf das Arbeitssuchverhalten und das daraus resultierende Zusammenspiel mit dem Erfolg am Arbeitsmarkt notwendig um die Gestaltung und Zuweisung dieser Maßnahmen zu optimieren. Darüber hinaus zeigen die Ergebnisse vorheriger Studien, dass viele traditionelle Maßnahmen nicht den gewünschten Erfolg erzielen. Dies unterstreicht die Notwendigkeit, zum einen die Wirkungsmechanismen aktiver Arbeitsmarktpolitik besser zu verstehen, und zum anderen innovative wirkungsvollere Maßnahmen zu entwickeln. Die vorliegende Dissertation liefert hierbei neue Erkenntnisse hinsichtlich verschiedener Faktoren. Zunächst wird der Einfluss subjektiver Erwartungen auf die Effektivität von Trainingsmaßnahmen untersucht. Diese Erwartungen betreffen die Wahrscheinlichkeit einer zukünftigen Programmteilnahme, sowie den erwarteten Einfluss auf den Erfolg am Arbeitsmarkt, und erlauben eine Verknüpfung von sogenannten Antizipationseffekten –einer Anpassung des Suchverhaltens vor einer tatsächlichen Teilnahme– mit dem traditionellen Vergleich von Teilnehmern und Nicht-Teilnehmern bezüglich ihres nachfolgendem Erfolgs am Arbeitsmarkt. Die empirische Analyse zeigt, dass Trainingsmaßnahmen einen positiveren Einfluss auf Teilnehmer haben, welche die Teilnahmewahrscheinlichkeit zu Beginn der Arbeitslosigkeit als hoch einstufen, verglichen mit Personen die diese Wahrscheinlichkeit als gering einschätzen. Im Gegensatz dazu besteht kein Zusammenhang zwischen den subjektiven Erwartungen bezüglich des Effekts der Maßnahme und dem tatsächlichen Arbeitsmarkterfolg von Teilnehmern. Es lässt sich feststellen, dass hohe Erwartungen bezüglich der Teilnahmewahrscheinlichkeit mit einer intensiveren Beratung durch die Arbeitsagentur und einer höheren Flexibilität der Suchstrategie verbunden sind. Die Ergebnisse zeigen, dass Arbeitsagenturen die Effektivität von spezifischen Arbeitsmarktprogrammen direkt beeinflussen können, in dem potentielle Teilnehmer umfangreich über bevorstehende Maßnahmen und die allgemeine Arbeitsmarktlage informiert werden. Ein weiterer Teil der Dissertation analysiert Maßnahmen zur Förderung regionaler Mobilität von Arbeitssuchenden. Im Speziellen, werden Reisekosten zu Jobinterviews, Fahrtkosten zum Arbeitsplatz oder Umzugskosten finanziell gefördert. Ziel dieser Maßnahmen ist es bestehende finanzielle Hindernisse zu beseitigen, welche die regionale Mobilität von Arbeitssuchenden einschränken. Die empirische Analyse zeigt, dass die Verfügbarkeit des Programms Arbeitssuchende dazu anhält sich auf Stellen zu bewerben welche einen Umzug erfordern und ihre Suchaktivitäten vom lokalen Arbeitsmarkt hinzu geografisch entfernten Regionen zu verlagern, ohne jedoch die Anzahl der Stellenbewerbungen insgesamt zu beeinflussen. Darüber hinaus führt der erweiterte Suchradius zu einer höheren Wiederbeschäftigungswahrscheinlichkeit und höheren Löhnen. Darauf aufbauend wird der Einfluss der tatsächlichen Nutzung einer spezifischen Mobilitätshilfe, der sogenannten Umzugskostenbeihilfe, auf den langfristigen Erfolg am Arbeitsmarkt untersucht. Es zeigt sich, dass Arbeitssuchende die zur Aufnahme einer neuen Beschäftigung umziehen und hierfür eine Unterstützung der Arbeitsagentur erhalten signifikant höhere Löhne beziehen und stabileren Beschäftigungsverhältnisse aufweisen. Des Weiteren wird die Relevanz von typischerweise nicht beobachtbaren Variablen bezüglich Persönlichkeitsmerkmalen, subjektiven Erwartungen, sozialen Netzwerken und generationenübergreifenden Informationen, im Kontext der Evaluierung typischer AAMP Programme, wie Trainingsmaßnahmen und Lohnkostenzuschüssen untersucht. Basierend auf einer Kombination von administrativen Daten und individuellen Befragungsdaten zeigt sich, dass diese Variablen einen signifikanten Einfluss auf die Teilnahmewahrscheinlichkeit haben, ihre Nichtberücksichtigung aber zu keiner Verzerrung der geschätzten Effekte führt. Abschließend wird die Rolle von Reservationslöhnen bei der Entwicklung von geschlechtsspezifischen Lohnunterschieden untersucht. Die empirische Analyse zeigt, dass der realisierte Lohnunterschied zwischen Männern und Frauen mit einem geschlechtsspezifischen Unterschied in Reservationslöhnen einhergeht. Dieser kann nicht durch Faktoren wie Bildung, unterschiedliche Erwerbsbiografien, sozio-demographische Eigenschaften und Persönlichkeitsmerkmale erklärt werden. Eine umfassende Subgruppenanalyse deutet an, dass, unterschiedliche Tätigkeitsvorlieben, der Erwartung von Diskriminierung gegenüber Frauen und unbeobachtbaren Produktivitätsunterschiede sowohl Unterschiede im Reservationslohn als auch im realisierten Lohn zwischen Männern und Frauen hervorrufen. KW - Labor market policies KW - Job search behavior KW - Microeconometrics KW - Geographical mobility KW - Subjective beliefs KW - treatment effects KW - Arbeitsmarktpolitik KW - Arbeitssuchverhalten KW - Mikroökonometrie KW - Regionale Mobilität KW - Subjektive Erwartungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397081 ER - TY - THES A1 - Martin, Thorsten T1 - Advances in spatial econometrics and the political economy of local housing supply T1 - Anwendungen in der Regionalökonometrie und die politische Ökonomie der lokalen Wohnraumversorgung BT - essays in regional and political economics BT - Aufsätze der Regionalökonomie und der politischen Ökonomie N2 - This cumulative dissertation consists of five chapters. In terms of research content, my thesis can be divided into two parts. Part one examines local interactions and spillover effects between small regional governments using spatial econometric methods. The second part focuses on patterns within municipalities and inspects which institutions of citizen participation, elections and local petitions, influence local housing policies. N2 - Diese kumulative Dissertation besteht aus fünf Kapiteln und kann inhaltlich zweigeteilt betrachtet werden. Im ersten Teil werden lokale Interaktionen und Übertragungseffekte zwischen kleinen regionalen Verwaltungseinheiten unter Verwendung von regionalökonometrischer Methoden untersucht. Der zweite Teil untersucht Zusammenhänge innerhalb von Gemeinden und untersucht welche Instrumentarien lokaler Politikbeteiligung, Kommunalwahlen und lokale Bürgerbegehren, einen Einfluss auf die örtliche Wohnungspolitik haben. KW - spatial econometrics KW - political economics KW - regional economics KW - public economics KW - Regionalökonometrie KW - politische Ökonomie KW - Regionalökonomie KW - Finanzwissenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406836 ER - TY - THES A1 - Mbaya Mani, Christian T1 - Functional nanoporous carbon-based materials derived from oxocarbon-metal coordination complexes T1 - Funktionale nanoporöse Kohlenstoffmaterialien auf Basis von Oxokohlenstoff-Metal Koordinationskomplexe N2 - Nanoporous carbon based materials are of particular interest for both science and industry due to their exceptional properties such as a large surface area, high pore volume, high electroconductivity as well as high chemical and thermal stability. Benefiting from these advantageous properties, nanoporous carbons proved to be useful in various energy and environment related applications including energy storage and conversion, catalysis, gas sorption and separation technologies. The synthesis of nanoporous carbons classically involves thermal carbonization of the carbon precursors (e.g. phenolic resins, polyacrylonitrile, poly(vinyl alcohol) etc.) followed by an activation step and/or it makes use of classical hard or soft templates to obtain well-defined porous structures. However, these synthesis strategies are complicated and costly; and make use of hazardous chemicals, hindering their application for large-scale production. Furthermore, control over the carbon materials properties is challenging owing to the relatively unpredictable processes at the high carbonization temperatures. In the present thesis, nanoporous carbon based materials are prepared by the direct heat treatment of crystalline precursor materials with pre-defined properties. This synthesis strategy does not require any additional carbon sources or classical hard- or soft templates. The highly stable and porous crystalline precursors are based on coordination compounds of the squarate and croconate ions with various divalent metal ions including Zn2+, Cu2+, Ni2+, and Co2+, respectively. Here, the structural properties of the crystals can be controlled by the choice of appropriate synthesis conditions such as the crystal aging temperature, the ligand/metal molar ratio, the metal ion, and the organic ligand system. In this context, the coordination of the squarate ions to Zn2+ yields porous 3D cube crystalline particles. The morphology of the cubes can be tuned from densely packed cubes with a smooth surface to cubes with intriguing micrometer-sized openings and voids which evolve on the centers of the low index faces as the crystal aging temperature is raised. By varying the molar ratio, the particle shape can be changed from truncated cubes to perfect cubes with right-angled edges. These crystalline precursors can be easily transformed into the respective carbon based materials by heat treatment at elevated temperatures in a nitrogen atmosphere followed by a facile washing step. The resulting carbons are obtained in good yields and possess a hierarchical pore structure with well-organized and interconnected micro-, meso- and macropores. Moreover, high surface areas and large pore volumes of up to 1957 m2 g-1 and 2.31 cm3 g-1 are achieved, respectively, whereby the macroscopic structure of the precursors is preserved throughout the whole synthesis procedure. Owing to these advantageous properties, the resulting carbon based materials represent promising supercapacitor electrode materials for energy storage applications. This is exemplarily demonstrated by employing the 3D hierarchical porous carbon cubes derived from squarate-zinc coordination compounds as electrode material showing a specific capacitance of 133 F g-1 in H2SO4 at a scan rate of 5 mV s-1 and retaining 67% of this specific capacitance when the scan rate is increased to 200 mV s-1. In a further application, the porous carbon cubes derived from squarate-zinc coordination compounds are used as high surface area support material and decorated with nickel nanoparticles via an incipient wetness impregnation. The resulting composite material combines a high surface area, a hierarchical pore structure with high functionality and well-accessible pores. Moreover, owing to their regular micro-cube shape, they allow for a good packing of a fixed-bed flow reactor along with high column efficiency and a minimized pressure drop throughout the packed reactor. Therefore, the composite is employed as heterogeneous catalyst in the selective hydrogenation of 5-hydroxymethylfurfural to 2,5-dimethylfuran showing good catalytic performance and overcoming the conventional problem of column blocking. Thinking about the rational design of 3D carbon geometries, the functions and properties of the resulting carbon-based materials can be further expanded by the rational introduction of heteroatoms (e.g. N, B, S, P, etc.) into the carbon structures in order to alter properties such as wettability, surface polarity as well as the electrochemical landscape. In this context, the use of crystalline materials based on oxocarbon-metal ion complexes can open a platform of highly functional materials for all processes that involve surface processes. N2 - Nanoporöse Kohlenstoffmaterialien zeichnen sich u. a. durch ihre außergewöhnlichen Eigenschaften aus wie z. B. hohe Oberfläche, hohes Porenvolumen, hohe elektrische Leitfähigkeit und auch hohe chemische und thermische Stabilität. Aufgrund dessen finden sie Anwendung in den unterschiedlichsten Bereichen von der Speicherung elektrischer Energie bis hin zur Katalyse und Gasspeicherung. Die klassische Synthese von porösen Kohlenstoffmaterialien basiert u. a. auf der Nutzung von sogenannten anorganischen bzw. organischen Templaten und/oder chemischen Aktivierungsagenzien. Allerdings gelten diese Methoden eher als kompliziert, kostspielig und umweltschädlich. Außerdem wird eine gezielte Kontrolle der Produkteigenschaften durch die zahlreichen Prozesse erschwert, die sich bei den hohen Karbonisierungstemperaturen abspielen und folglich die Materialeigenschaften unvorhersehbar verändern können. In der vorliegenden Arbeit wird ein alternatives Konzept für die Synthese von nanoporösen Kohlenstoffmaterialien mit gezielt einstellbaren Eigenschaften vorgestellt. Diese basiert auf der Nutzung von kristallinen Vorläufermaterialien, die aus der Koordination von den Anionen der Quadratsäure bzw. der Krokonsäure mit verschiedenen Metallionen (Zn2+, Cu2+, Ni2+ und Co2+) resultieren. Diese haben den Vorteil, dass Eigenschaften wie z. B. die Partikelmorphologie und Porosität gezielt durch die Wahl geeigneter Syntheseparameter (z. B. Temperatur, molares Verhältnis, Metallion und Ligand) eingestellt werden können. Beispielsweise führen Koordinationskomplexe von der Quadratsäure mit Zn2+ in Wasser zu porösen 3D würfelförmigen Mikrokristallen, die durch einfache thermische Behandlung unter Schutzgasatmosphäre zu den entsprechenden Kompositen umgewandelt werden. Ein anschließender Waschschritt führt zu den entsprechenden Kohlenstoffmaterialien unter Erhalt der makroskopischen Struktur der kristallinen Vorläufermaterialien. In diesem Zusammenhang weisen die resultierenden Kohlenstoffe ebenfalls eine 3D Würfelform mit einer hierarchischen Porenstruktur bestehend aus vernetzten Mikro-, Meso- und Makroporen auf. Ferner besitzen die Kohlenstoffe hohe Oberflächen und Porenvolumen von bis zu 1.957 m2 g-1 bzw. 2,31 cm3 g-1. Um die Vorteile dieser Eigenschaften zu demonstrieren, werden sie als Elektrodenmaterial für Superkondensatoren getestet und zeigen dabei vielversprechende Kapazitäten. Außerdem, werden sie auch als Trägermaterial für die Immobilisierung von Nickel-Nanopartikel verwendet und als heterogene Katalysatoren in der selektiven Hydrierung von 5-hydroxymethylfurfural zu 2,5-dimethylfuran in einem Festbettreaktor eingesetzt. Dabei wird eine gute Katalysatorleistung (Produktivität) bei minimalem Druckabfall in der Reaktorsäule erreicht. KW - squaric acid KW - Quadratsäure KW - mesocrystals KW - Mesokristalle KW - nanoporöser Kohlenstoffpartikel KW - nanoporous carbon particles KW - Nanopartikel KW - nanoparticles KW - Koordinationskomplexe KW - coordination complexes KW - oxocarbon KW - Oxo-Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407866 ER - TY - THES A1 - Meier, Sebastian T1 - Personal Big Data T1 - Personal Big Data BT - a privacy-centred selective cloud computing approach to progressive user modelling on mobile devices BT - ein mit dem Schwerpunkt auf Privatsphäre entwickelter selektiver Cloud-Computing Ansatz zur fortschreitenden Modellierung von Nutzerverhalten auf mobilen Endgeräten N2 - Many users of cloud-based services are concerned about questions of data privacy. At the same time, they want to benefit from smart data-driven services, which require insight into a person’s individual behaviour. The modus operandi of user modelling is that data is sent to a remote server where the model is constructed and merged with other users’ data. This thesis proposes selective cloud computing, an alternative approach, in which the user model is constructed on the client-side and only an abstracted generalised version of the model is shared with the remote services. In order to demonstrate the applicability of this approach, the thesis builds an exemplary client-side user modelling technique. As this thesis is carried out in the area of Geoinformatics and spatio-temporal data is particularly sensitive, the application domain for this experiment is the analysis and prediction of a user’s spatio-temporal behaviour. The user modelling technique is grounded in an innovative conceptual model, which builds upon spatial network theory combined with time-geography. The spatio-temporal constraints of time-geography are applied to the network structure in order to create individual spatio-temporal action spaces. This concept is translated into a novel algorithmic user modelling approach which is solely driven by the user’s own spatio-temporal trajectory data that is generated by the user’s smartphone. While modern smartphones offer a rich variety of sensory data, this thesis only makes use of spatio-temporal trajectory data, enriched by activity classification, as the input and foundation for the algorithmic model. The algorithmic model consists of three basal components: locations (vertices), trips (edges), and clusters (neighbourhoods). After preprocessing the incoming trajectory data in order to identify locations, user feedback is used to train an artificial neural network to learn temporal patterns for certain location types (e.g. work, home, bus stop, etc.). This Artificial Neural Network (ANN) is used to automatically detect future location types by their spatio-temporal patterns. The same is done in order to predict the duration of stay at a certain location. Experiments revealed that neural nets were the most successful statistical and machine learning tool to detect those patterns. The location type identification algorithm reached an accuracy of 87.69%, the duration prediction on binned data was less successful and deviated by an average of 0.69 bins. A challenge for the location type classification, as well as for the subsequent components, was the imbalance of trips and connections as well as the low accuracy of the trajectory data. The imbalance is grounded in the fact that most users exhibit strong habitual patterns (e.g. home > work), while other patterns are rather rare by comparison. The accuracy problem derives from the energy-saving location sampling mode, which creates less accurate results. Those locations are then used to build a network that represents the user’s spatio-temporal behaviour. An initial untrained ANN to predict movement on the network only reached 46% average accuracy. Only lowering the number of included edges, focusing on more common trips, increased the performance. In order to further improve the algorithm, the spatial trajectories were introduced into the predictions. To overcome the accuracy problem, trips between locations were clustered into so-called spatial corridors, which were intersected with the user’s current trajectory. The resulting intersected trips were ranked through a k-nearest-neighbour algorithm. This increased the performance to 56%. In a final step, a combination of a network and spatial clustering algorithm was built in order to create clusters, therein reducing the variety of possible trips. By only predicting the destination cluster instead of the exact location, it is possible to increase the performance to 75% including all classes. A final set of components shows in two exemplary ways how to deduce additional inferences from the underlying spatio-temporal data. The first example presents a novel concept for predicting the ‘potential memorisation index’ for a certain location. The index is based on a cognitive model which derives the index from the user’s activity data in that area. The second example embeds each location in its urban fabric and thereby enriches its cluster’s metadata by further describing the temporal-semantic activity in an area (e.g. going to restaurants at noon). The success of the client-side classification and prediction approach, despite the challenges of inaccurate and imbalanced data, supports the claimed benefits of the client-side modelling concept. Since modern data-driven services at some point do need to receive user data, the thesis’ computational model concludes with a concept for applying generalisation to semantic, temporal, and spatial data before sharing it with the remote service in order to comply with the overall goal to improve data privacy. In this context, the potentials of ensemble training (in regards to ANNs) are discussed in order to highlight the potential of only sharing the trained ANN instead of the raw input data. While the results of our evaluation support the assets of the proposed framework, there are two important downsides of our approach compared to server-side modelling. First, both of these server-side advantages are rooted in the server’s access to multiple users’ data. This allows a remote service to predict spatio-in the user-specific data, which represents the second downside. While minor classes will likely be minor classes in a bigger dataset as well, for each class, there will still be more variety than in the user-specific dataset. The author emphasises that the approach presented in this work holds the potential to change the privacy paradigm in modern data-driven services. Finding combinations of client- and server-side modelling could prove a promising new path for data-driven innovation. Beyond the technological perspective, throughout the thesis the author also offers a critical view on the data- and technology-driven development of this work. By introducing the client-side modelling with user-specific artificial neural networks, users generate their own algorithm. Those user-specific algorithms are influenced less by generalised biases or developers’ prejudices. Therefore, the user develops a more diverse and individual perspective through his or her user model. This concept picks up the idea of critical cartography, which questions the status quo of how space is perceived and represented. N2 - Die Nutzung von modernen digitalen Diensten und Cloud-Services geht häufig einher mit einer Besorgtheit um die Sicherheit der eigenen Privatsphäre. Gleichzeitig zeigt sich, dass die Nutzung eben dieser Dienste nicht rückläufig ist. Dieses Phänomen wird in der Wissenschaft auch als Privacy-Paradox bezeichnet (Barnes, 2006). Viele digitale Dienste bauen einen Großteil ihrer Funktionalitäten auf NutzerInnendaten auf. Der Modus Operandi bei diesen Diensten ist bisher, die Daten der NutzerInnen an einen Server zu schicken, wo diese verarbeitet, analysiert und gespeichert werden. Die vorliegende Doktorarbeit schlägt ein alternatives Konzept vor: Selective Cloud Computing. Kern dieses Konzeptes ist die Verlagerung der NutzerInnen-Modellierung auf die privaten Endgeräte, wodurch für weitere Services nur ein abstrahiertes Daten- und NutzerInnenmodel mit den externen Diensten geteilt wird. Um dieses Konzept auf seine Machbarkeit und Performanz zu überprüfen wird im Rahmen dieser Arbeit ein beispielhafter Prozess für die nutzerInnenseitige Modellierung von raumzeitlichen Informationen entwickelt. Da raumzeitliche Informationen mit zu den sensibelsten persönlichen Daten gehören, bietet die Verortung der vorliegende Arbeit im Bereich der Geoinformatik für das Anwendungsfeld der NutzerInnen-Modellierung einen passenden disziplinären Rahmen. Die NutzerInnen-Modellierung fußt auf einem innovativen konzeptuellen Modell, welches Theorien zu räumlichen Netzwerken und Hägerstrands Theorie der Zeitgeographie miteinander kombiniert (Hägerstrand, 1970). Hierbei werden die von Hägerstrand entwickelten raumzeitlichen Einschränkungen (Constraints) auf das Netzwerkmodel übertragen, wodurch individuelle Aktionsräume konstituiert werden. Dieses Model wird schließlich in ein algorithmisches Computermodel übersetzt, dessen Operationen ausschließlich die Daten verarbeiten und nutzen, die auf den Smartphones der NutzerInnen generiert werden. Moderne Smartphones bieten für die Datengenerierung gute Voraussetzungen, da sie den Zugriff auf eine ganze Bandbreite an Sensoren und anderen Datenquellen ermöglich. Die vorliegende Arbeit beschränkt sich dabei jedoch auf die raumzeitlichen Informationen, welche über die Ortungsfunktionen des Geräts produziert werden (Trajectories). Die Trajektorien werden angereichert durch Aktivitätsklassifikationen (z.B. Laufen, Radfahren, etc.), welche von der App, die diese Daten aufzeichnet, zugeordnet werden. Das Computermodel basiert auf diesen Daten und gliedert diese in drei grundlegende Komponenten: 1) Orte (Knotenpunkte) 2) Trips (Kanten) und 3) Cluster (Nachbarschaften). Zu Beginn der algorithmischen Verarbeitung werden die eingehenden Daten optimiert und analysiert, um in einem ersten Schritt geographische Orte zu identifizieren. Um diese Orte nun mit semantischen Informationen anzureichern wird ein automatisierter Algorithmus über User-Feedback trainiert, welcher die Orts-Typen selbstständig erkennt (z.B. Zuhause, Arbeitsplatz, Haltestelle). Der Algorithmus basiert auf einem künstlichen neuronalen Netz, welches versucht, Muster in den Daten zu erkennen. Die Entscheidung, neuronale Netze in diesem Prozess einzusetzen, ergab sich aus einer Evaluation verschiedener Verfahren der statistischen Klassifizierung und des maschinellen Lernens. Das Verfahren zur Erkennung der Orts-Typen erreichte unter Zuhilfenahme eines künstlichen neuronalen Netz eine Genauigkeit von 87.69% und war damit das akkurateste. Eine weitere Einsatzmöglichkeit solcher neuronalen Netze ist bei der Vorhersage von Aufenthaltsdauern an bestimmten Orten, welche im Durschnitt 0.69 Klassen vom korrekten Ergebnis abwich. Eine große Herausforderung für alle Module war sowohl die Ungenauigkeit der Rohdaten, also auch die ungleichmäßige Verteilung der Daten. Die Ungenauigkeit ist ein Resultat der Generierung der Positionsinformationen, welche zugunsten eines geringeren Energieverbrauchs der mobilen Geräte Ungenauigkeiten in Kauf nehmen muss. Die ungleichmäßige Verteilung ergibt sich wiederum durch häufig wiederkehrende Muster (z.B. Fahrten zur Arbeit und nach Hause), welche im Vergleich zu anderen Aktivitäten vergleichsweise häufig auftreten und die Datensätze dominieren. Die Orte, die in der ersten Phase identifiziert und klassifiziert wurden, werden im nächsten Schritt für die Konstruktion des eigentlichen räumlichen Netzwerks genutzt. Basierend auf den über einen bestimmten Zeitraum gesammelten Daten der NutzerInnen und im Rückgriff auf Hägerstrands Einschränkungsprinzip werden Vorhersagen über mögliche raumzeitliche Verhaltensweisen im nutzerspezifischen Netzwerk gemacht. Hierzu werden Methoden des maschinellen Lernens, in diesem Fall künstliche neuronale Netze und Nächste-Nachbarn-Klassifikation (k-nearest-neighbour), mit Methoden der Trajektorien-Analyse kombiniert. Die zugrundeliegenden Orts- und Bewegungsinformationen werden unter Anwendung von Netzwerk-Nachbarschafts-Methoden und klassischen räumlichen Gruppierungsmethoden (Clustering) für die Optimierung der Algorithmen verfeinert. Die aus diesen Schritten resultierende Methodik erreichte eine Genauigkeit von 75% bei der Vorhersage über raumzeitliches Verhalten. Wenn man Vorhersagen mit einbezieht, bei denen der korrekte Treffer auf Rang 2 und 3 der Nächste-Nachbarn-Klassifikation liegt, erreichte die Methodik sogar eine Vorhersagen-Genauigkeit von 90%. Um zu erproben, welche weiteren Schlussfolgerungen über die NutzerInnen basierend auf den zugrundeliegenden Daten getroffen werden könnten, werden abschließend zwei beispielhafte Methoden entwickelt und getestet: zum einen werden die Trajektorien genutzt um vorherzusagen, wie gut eine NutzerIn ein bestimmtes Gebiet kennt (Potential Memorisation Index). Zum anderen werden zeitlich-semantische Muster für Orts-Cluster extrahiert und darauf basierend berechnet, wann welche Aktivitäten und spezifischen Orte innerhalb eines Clusters für die NutzerIn potenziell von Interesse sind. Trotz der Herausforderungen, die mit den unausgeglichenen Datensätzen und teilweise fehlerhaften Daten einhergehen, spricht die dennoch vergleichsweise hohe Präzision der nutzerseitigen Klassifizierungs- und Vorhersagemethoden für den in dieser Arbeit vorgestellten Ansatz der nutzerseitigen Modellierung. In einem letzten Schritt kontextualisiert die vorliegende Arbeit die erstellten Ansätze in einem realweltlichen Anwendungsfall und diskutiert den Austausch der generierten Daten mit einem datengestützten Dienst. Hierzu wird das Konzept der Generalisierung genutzt, um im Sinne des Schutzes der Privatsphäre abstrahierte Daten mit einem Dienst zu teilen. Obgleich der positiven Ergebnisse der Tests gibt es auch klare Nachteile im Vergleich zur klassischen serverseitigen Modellierung, die unter Einbezug mehrerer aggregierter NutzerInnenprofile stattfindet. Hierzu zählt zum einen, dass unterrepräsentierte Klassen in den Daten schlechter identifiziert werden können. Zum anderen ergibt sich der Nachteil, dass nur Verhaltensweisen erkannt werden können, die bereits zuvor von der NutzerIn selber ausgeübt wurden und somit in den Daten bereits enthalten sind. Im Vergleich dazu besteht bei serverseitiger Modellierung auf der Basis zahlreicher Personenprofile der Zugriff auf ein breiteres Spektrum an Verhaltensmustern und somit die Möglichkeit, diese Muster mit dem der NutzerIn abzugleichen, ohne dass dieses Verhalten bereits in ihren nutzerseitig generierten Daten abgelegt ist. Nichtsdestotrotz zeigt die Arbeit, welches Potential die nutzerseitige Modellierung bereithält - nicht nur in Bezug auf den größeren Schutz der Privatsphäre der NutzerInnen, sondern ebenso in Hinsicht auf den Einsatz von Methoden des verteilten Rechnens (distributed computing). Die Kombination von beidem, nutzerInnen- und serverseitiger Modellierung, könnte ein neuer und vielversprechender Pfad für datengetriebene Innovation darstellen. Neben der technologischen Perspektive werden die entwickelten Methoden einer kritischen Analyse unterzogen. Durch das Einbringen der nutzerseitigen Modellierung in Form von benutzerspezifischen künstlichen neuronalen Netzen trainieren die NutzerInnen ihre eigenen Algorithmen auf ihren mobilen Geräten. Diese spezifischen Algorithmen sind weniger stark von generalisierten Vorannahmen, Vorurteilen und möglichen Befangenheiten der EntwicklerInnen beeinflusst. Hierdurch haben NutzerInnen die Möglichkeit, vielfältigere und persönlichere Perspektiven auf ihre Daten und ihr Verhalten zu generieren. Dieses Konzept setzt Ideen der kritischen Kartographie fort, in welcher der Status Quo der Wahrnehmung und Repräsentation des Raumes hinterfragt werden. KW - Personal Data KW - mobile KW - machine learning KW - privacy KW - spatio-temporal KW - recommendation KW - behaviour KW - persönliche Informationen KW - Mobil KW - Machine Learning KW - Privatsphäre KW - raum-zeitlich KW - Empfehlungen KW - Verhalten Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406696 ER - TY - THES A1 - Meier, Tobias T1 - Borehole Breakouts in Transversely Isotropic Posidonia Shale T1 - Bohrlochrandausbrüche in transversal isotropen Posidonienschiefer N2 - Borehole instabilities are frequently encountered when drilling through finely laminated, organic rich shales (Økland and Cook, 1998; Ottesen, 2010; etc.); such instabilities should be avoided to assure a successful exploitation and safe production of the contained unconventional hydrocarbons. Borehole instabilities, such as borehole breakouts or drilling induced tensile fractures, may lead to poor cementing of the borehole annulus, difficulties with recording and interpretation of geophysical logs, low directional control and in the worst case the loss of the well. If these problems are not recognized and expertly remedied, pollution of the groundwater or the emission of gases into the atmosphere can occur since the migration paths of the hydrocarbons in the subsurface are not yet fully understood (e.g., Davies et al., 2014; Zoback et al., 2010). In addition, it is often mentioned that the drilling problems encountered and the resulting downtimes of the wellbore system in finely laminated shales significantly increase drilling costs (Fjaer et al., 2008; Aadnoy and Ong, 2003). In order to understand and reduce the borehole instabilities during drilling in unconventional shales, we investigate stress-induced irregular extensions of the borehole diameter, which are also referred to as borehole breakouts. For this purpose, experiments with different borehole diameters, bedding plane angles and stress boundary conditions were performed on finely laminated Posidonia shales. The Lower Jurassic Posidonia shale is one of the most productive source rocks for conventional reservoirs in Europe and has the greatest potential for unconventional oil and gas in Europe (Littke et al., 2011). In this work, Posidonia shale specimens from the North (PN) and South (PS) German basins were selected and characterized petrophysically and mechanically. The composition of the two shales is dominated by calcite (47-56%) followed by clays (23-28%) and quartz (16-17%). The remaining components are mainly pyrite and organic matter. The porosity of the shales varies considerably and is up to 10% for PS and 1% for PN, which is due to a larger deposition depth of PN. Both shales show marked elasticity and strength anisotropy, which can be attributed to a macroscopic distribution and orientation of soft and hard minerals. Under load the hard minerals form a load-bearing, supporting structure, while the soft minerals compensate the deformation. Therefore, if loaded parallel to the bedding, the Posidonia shale is more brittle than loaded normal to the bedding. The resulting elastic anisotropy, which can be defined by the ratio of the modulus of elasticity parallel and normal to the bedding, is about 50%, while the strength anisotropy (i.e., the ratio of uniaxial compressive strength normal and parallel to the bedding) is up to 66%. Based on the petrophysical characterization of the two rocks, a transverse isotropy (TVI) was derived. In general, PS is softer and weaker than PN, which is due to the stronger compaction of the material due to the higher burial depth. Conventional triaxial borehole breakout experiments on specimens with different borehole diameters showed that, when the diameter of the borehole is increased, the stress required to initiate borehole breakout decreases to a constant value. This value can be expressed as the ratio of the tangential stress and the uniaxial compressive strength of the rock. The ratio increases exponentially with decreasing borehole diameter from about 2.5 for a 10 mm diameter hole to ~ 7 for a 1 mm borehole (increase of initiation stress by 280%) and can be described by a fracture mechanic based criterion. The reduction in borehole diameter is therefore a considerable aspect in reducing the risk of breakouts. New drilling techniques with significantly reduced borehole diameters, such as "fish-bone" holes, are already underway and are currently being tested (e.g., Xing et al., 2012). The observed strength anisotropy and the TVI material behavior are also reflected in the observed breakout processes at the borehole wall. Drill holes normal to the bedding develop breakouts in a plane of isotropy and are not affected by the strength or elasticity anisotropy. The observed breakouts are point-symmetric and form compressive shear failure planes, which can be predicted by a Mohr-Coulomb failure approach. If the shear failure planes intersect, conjugate breakouts can be described as "dog-eared” breakouts. While the initiation of breakouts for wells oriented normal to the stratification has been triggered by random local defects, reduced strengths parallel to bedding planes are the starting point for breakouts for wells parallel to the bedding. In the case of a deflected borehole trajectory, therefore, the observed failure type changes from shear-induced failure surfaces to buckling failure of individual layer packages. In addition, the breakout depths and widths increased, resulting in a stress-induced enlargement of the borehole cross-section and an increased output of rock material into the borehole. With the transition from shear to buckling failure and changing bedding plane angle with respect to the borehole axis, the stress required for inducing wellbore breakouts drops by 65%. These observations under conventional triaxial stress boundary conditions could also be confirmed under true triaxial stress conditions. Here breakouts grew into the rock as a result of buckling failure, too. In this process, the broken layer packs rotate into the pressure-free drill hole and detach themselves from the surrounding rock by tensile cracking. The final breakout shape in Posidonia shale can be described as trapezoidal when the bedding planes are parallel to the greatest horizontal stress and to the borehole axis. In the event that the largest horizontal stress is normal to the stratification, breakouts were formed entirely by shear fractures between the stratification and required higher stresses to initiate similar to breakouts in conventional triaxial experiments with boreholes oriented normal to the bedding. In the content of this work, a fracture mechanics-based failure criterion for conventional triaxial loading conditions in isotropic rocks (Dresen et al., 2010) has been successfully extended to true triaxial loading conditions in the transverse isotropic rock to predict the initiation of borehole breakouts. The criterion was successfully verified on the experiments carried out. The extended failure criterion and the conclusions from the laboratory and numerical work may help to reduce the risk of borehole breakouts in unconventional shales. N2 - Bei Bohrungen in feinlaminierten, organikreichen Schiefern werden häufig Bohrlochinstabilitäten beobachtet (Økland und Cook, 1998; Ottesen, 2010 und weitere), welche für eine sichere und erfolgreiche Erschließung der darin gespeicherten unkonventionellen Kohlenwasserstoffe vermieden werden sollten. Bohrlochinstabilitäten, wie zum Beispiel Bohrlochrandausbrüche oder bohrungsbedingte Zugrisse, führen unter Umständen zu einer schlechten bzw. unzureichenden Zementierung des Ringraum, zu Schwierigkeiten bei der Aufnahme und späteren Interpretation bohrlochgeophysikalischer Messungen sowie zu einer verringerten Kontrolle über die Auslenkung der Bohrung und im schlimmsten Fall zum Verlust der Bohrung. Werden diese Probleme nicht erkannt und fachmännisch behoben, kann es zur Verschmutzung des Grundwassers oder zum Austritt von Gasen in die Atmosphäre kommen, da die Migrationspfade der Kohlenwasserstoffe im Untergrund noch nicht vollständig verstanden sind (z.B. Davies et al., 2014; Zoback et al., 2010). Darüber hinaus wird häufig erwähnt, dass die angetroffenen Bohrprobleme und die daraus entstehenden Ausfallzeiten der Bohrlochanlage in feinlaminierten Schiefern die Bohrkosten erheblich erhöhen (Fjaer et al., 2008; Aadnoy und Ong, 2003). Um die Bohrlochinstabilitäten während des Bohrens in unkonventionellen Speichergesteinen zu verstehen und zu reduzieren, untersuchen wir in dieser Arbeit spannungsbedingte unregelmäßige Erweiterungen des Bohrlochdurchmessers, die auch als Bohrlochrandausbrüche (borehole breakouts) bezeichnet werden. Dazu wurden Versuche mit unterschiedlichen Bohrlochdurchmessern, Schichteinfallswinkeln und Belastungsrandbedingungen an feinlaminierten Posidonienschiefern durchgeführt. Der aus dem Unteren Jura stammende Posidonienschiefer ist eines der produktivsten Muttergesteine für konventionelle Lagerstätten in Europa und besitzt zeitgleich das größte Potential für unkonventionelles Öl und Gas in Europa (Littke et al., 2011). Im Rahmen dieser Arbeit wurden Posidonienschieferproben aus dem Norddeutschen (PN) und Süddeutschen (PS) Becken ausgewählt und petrophysikalisch sowie mechanisch charakterisiert. Die Zusammensetzung der beiden Schiefer wird dominiert von Kalzit (47-56%) gefolgt von Tonen (23-28%) und Quarz (16-17%). Die verbleibenden Komponenten sind hauptsächlich Pyrit und organische Substanz. Die Porosität des Schiefers schwankt beträchtlich und beträgt bis zu 10% für PS und 1% für PN, was auf eine größere Versenkungstiefe von PN zurückzuführen ist. Beide Schiefer zeigen ausgeprägte Elastizitäts- und Festigkeitsanisotropie, welche einer makroskopischen Verteilung und Orientierung von weichen und harten Mineralen zugeschrieben werden kann. Unter Belastung bilden die harten Minerale eine tragende Struktur, während die weichen Minerale die Verformung kompensieren. Daher verhält sich der Posidonienschiefer bei Belastung parallel zur Schichtfläche spröder als bei einer Belastung normal zur Schichtfläche. Die resultierende elastische Anisotropie, die über das Verhältnis des Elastizitätsmoduls parallel und normal zu Schichtung definiert werden kann, beträgt circa 50%, während die Festigkeitsanisotropie (d.h. das Verhältnis der uniaxialen Druckfestigkeit normal und parallel zur Schichtung) bis zu 66% beträgt. Basierend auf der petrophysikalischen Charakterisierung der beiden Gesteine konnte eine transversale Isotropie (TVI) abgeleitet werden. Im Allgemeinen ist PS weicher und schwächer als PN, was auf der stärkeren Verdichtung des Materials aufgrund der höheren Versenkungstiefe beruht. Konventionelle triaxiale Experimente zur Entstehung von Bohrlochrandausbrüchen an Proben mit unterschiedlichen Bohrlochdurchmessern zeigten, dass bei Vergrößerung des Bohrlochdurchmessers die zum Auslösen des Randausbruches erforderliche Spannung gegen einen konstanten Wert absinkt. Dieser kann als Verhältnis der Tangentialspannung und der einachsialen Druckfestigkeit des Gesteins ausgedrückt werden. Das Verhältnis erhöht sich exponentiell mit kleiner werdendem Bohrlochdurchmesser von circa 2,5 für ein 10 mm großes Bohrloch auf ~7 für ein 1 mm großes Bohrloch (Zunahme der Initiierungsspannung um 280%) und kann durch ein bruchmechanisch basiertes Kriterium beschrieben werden. Die Verringerung des Bohrlochdurchmessers stellt daher einen beträchtlichen Aspekt bei der Verringerung des Risikos für Bohrlochausbrüche dar. Neue Bohrtechniken mit deutlich reduzierten Bohrlochdurchmessern wie zum Beispiel „fish-bone“ Bohrungen nehmen dieses Konzept bereits auf und werden derzeit getestet (z. B. Xing et al., 2012). Die beobachtete Festigkeitsanisotropie und das TVI Materialverhalten spiegeln sich auch in den beobachteten Ausbruchsprozessen am Bohrlochrand wider. Bohrlöcher normal zur Schichtung entwickeln Randausbrüche in einer Ebene der Isotropie und werden nicht durch die Festigkeitsoder Elastizitätsanisotropie beeinflusst. Die beobachteten Ausbrüche sind punktsymmetrisch und bilden kompressive Schubversagensebenen, die durch einen Mohr-Coulomb-Versagensansatz vorhergesagt werden können. Falls sich die Schubversagensebenen schneiden, bilden sich konjugierte Ausbrüche die als „hundeohrförmig“ (dog-eared breakout) beschrieben werden können. Während die Initiierung von Randausbrüchen für Bohrlöcher normal zur Schichtung durch zufällige lokale Defekte ausgelöst wurde, sind reduzierte Festigkeiten parallel zur Schichtung der Ausgangspunkt für Bohrlochrandausbrüche für Bohrlöcher parallel zur Schichtung. Im Falle einer abgelenkten Bohrlochtrajektorie ändert sich daher der beobachtete Versagenstyp von schubdominiertem Versagensflächen zu Knickversagen einzelner Schichtpakete. Darüber hinaus nahmen die Ausbruchtiefen und -breiten zu, was zu einer spannungsbedingten Vergrößerung des Bohrlochquerschnitts und einem vermehrten Ausstoß von Gesteinsmaterial in das Bohrloch führte. Zeitgleich sinkt beim Übergang von Schub- zu Knickversagen und sich ändernden Schichteinfallswinkel, die für das Induzieren von Bohrlochrandausbrüchen notwendige Spannung um 65%, deutlich ab. Diese Beobachtungen unter konventionellen triaxialen Belastungsrandbedingungen konnten auch unter echt-triaxialen Belastungsrandbedingungen bestätigt werden. Hier wuchsen die Randausbrüche ebenfalls normal zur Schichtfläche durch Knickfehler in das Gestein. Dabei rotierten die gebrochenen Schichtpakete in das druckfreie Bohrloch und lösten sich vom umgebenden Gestein durch Zugrisse ab. Die endgültige Ausbruchform im Posidonienschiefer kann als trapezförmig beschrieben werden, wenn die Schichtfläche parallel zur größten horizontalen Spannung liegt. In dem Fall, dass die größte horizontale Spannung normal zur Schichtung orientiert ist, wurden Ausbrüche vollständig durch Scherbrüche zwischen den Schichtflächen gebildet und benötigten höhere Spannungen zur Initiierung. Im Rahmen dieser Arbeit wurde ein bruchmechanisch-basiertes Versagenskriterium für konventionelle triaxiale Belastungsbedingungen in isotropen Gesteinen (Dresen et al., 2010) erfolgreich auf echte triaxiale Belastungsbedingungen im transversal isotropen Gestein erweitert, um die Initiierung von Bohrlochrandausbrüchen vorherzusagen. Das Kriterium konnte erfolgreich an den durchgeführten Versuchen verifiziert werden. Das erweiterte Versagenskriterium und die Schlussfolgerungen aus dem Labor und der numerischen Arbeit helfen, das Risiko von Bohrlochausbrüchen in unkonventionellen Schiefern zu reduzieren. KW - borehole breakouts KW - unconventional shale KW - Posidonia shale KW - hollow cylinder experiments KW - shale strength KW - Bohrlochrandausbrüche KW - unkonventionelle Schiefer KW - Posidonienschiefer KW - Hohlzylinderversuche KW - Festigkeit des Schiefer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400019 ER - TY - THES A1 - Meiling, Till Thomas T1 - Development of a reliable and environmentally friendly synthesis for fluorescence carbon nanodots T1 - Entwicklung einer zuverlässigen und umweltfreundlichen Synthese für fluoreszierende Kohlenstoff-Nanopunkte BT - preparation and characterisation of excellent and well-defined carbon nanodots by a fast, simple and cost-efficient synthesis method; with special focus on future exploration and large scale applications BT - Herstellung und Charakterisierung von hochwertigen und klar definierten Kohlenstoff-Nanopunkten mit Hilfe einer schnellen, einfachen, und kosteneffizienten Synthesemethode; mit speziellem Fokus auf ihre zukünftige Erforschung und breite Anwendung N2 - Carbon nanodots (CNDs) have generated considerable attention due to their promising properties, e.g. high water solubility, chemical inertness, resistance to photobleaching, high biocompatibility and ease of functionalization. These properties render them ideal for a wide range of functions, e.g. electrochemical applications, waste water treatment, (photo)catalysis, bio-imaging and bio-technology, as well as chemical sensing, and optoelectronic devices like LEDs. In particular, the ability to prepare CNDs from a wide range of accessible organic materials makes them a potential alternative for conventional organic dyes and semiconductor quantum dots (QDs) in various applications. However, current synthesis methods are typically expensive and depend on complex and time-consuming processes or severe synthesis conditions and toxic chemicals. One way to reduce overall preparation costs is the use of biological waste as starting material. Hence, natural carbon sources such as pomelo peal, egg white and egg yolk, orange juice, and even eggshells, to name a few; have been used for the preparation of CNDs. While the use of waste is desirable, especially to avoid competition with essential food production, most starting-materials lack the essential purity and structural homogeneity to obtain homogeneous carbon dots. Furthermore, most synthesis approaches reported to date require extensive purification steps and have resulted in carbon dots with heterogeneous photoluminescent properties and indefinite composition. For this reason, among others, the relationship between CND structure (e.g. size, edge shape, functional groups and overall composition) and photophysical properties is yet not fully understood. This is particularly true for carbon dots displaying selective luminescence (one of their most intriguing properties), i.e. their PL emission wavelength can be tuned by varying the excitation wavelength. In this work, a new reliable, economic, and environmentally-friendly one-step synthesis is established to obtain CNDs with well-defined and reproducible photoluminescence (PL) properties via the microwave-assisted hydrothermal treatment of starch, carboxylic acids and Tris-EDTA (TE) buffer as carbon- and nitrogen source, respectively. The presented microwave-assisted hydrothermal precursor carbonization (MW-hPC) is characterized by its cost-efficiency, simplicity, short reaction times, low environmental footprint, and high yields of approx. 80% (w/w). Furthermore, only a single synthesis step is necessary to obtain homogeneous water-soluble CNDs with no need for further purification. Depending on starting materials and reaction conditions different types of CNDs have been prepared. The as-prepared CNDs exhibit reproducible, highly homogeneous and favourable PL properties with narrow emission bands (approx. 70nm FWHM), are non-blinking, and are ready to use without need for further purification, modification or surface passivation agents. Furthermore, the CNDs are comparatively small (approx. 2.0nm to 2.4nm) with narrow size distributions; are stable over a long period of time (at least one year), either in solution or as a dried solid; and maintain their PL properties when re-dispersed in solution. Depending on CND type, the PL quantum yield (PLQY) can be adjusted from as low as 1% to as high as 90%; one of the highest reported PLQY values (for CNDs) so far. An essential part of this work was the utilization of a microwave synthesis reactor, allowing various batch sizes and precise control over reaction temperature and -time, pressure, and heating- and cooling rate, while also being safe to operate at elevated reaction conditions (e.g. 230 ±C and 30 bar). The hereby-achieved high sample throughput allowed, for the first time, the thorough investigation of a wide range of synthesis parameters, providing valuable insight into the CND formation. The influence of carbon- and nitrogen source, precursor concentration and -combination, reaction time and -temperature, batch size, and post-synthesis purification steps were carefully investigated regarding their influence on the optical properties of as-synthesized CNDs. In addition, the change in photophysical properties resulting from the conversion of CND solution into solid and back into the solution was investigated. Remarkably, upon freeze-drying the initial brown CND-solution turns into a non-fluorescent white/slightly yellow to brown solid which recovers PL in aqueous solution. Selected CND samples were also subject to EDX, FTIR, NMR, PL lifetime (TCSPC), particle size (TEM), TGA and XRD analysis. Besides structural characterization, the pH- and excitation dependent PL characteristics (i.e. selective luminescence) were examined; giving inside into the origin of photophysical properties and excitation dependent behaviour of CNDs. The obtained results support the notion that for CNDs the nature of the surface states determines the PL properties and that excitation dependent behaviour is caused by the “Giant Red-Edge Excitation Shift” (GREES). N2 - Kohlenstoff-Nanopunkte (CNDs, engl. carbon nanodots) haben im letzten Jahrzehnt insbesondere durch ihre vielversprechenden Eigenschaften immer mehr an Popularität gewonnen. CNDs zeichnen sich insbesondere durch ihre Wasserlöslichkeit, hohe chemische Stabilität, Biokompatibilität, hohe Resistenz gegen Photobleichen, und die Möglichkeit zur Oberflächenfunktionalisierung aus. Diese Eigenschaften machen sie somit ideal für eine breite Palette von Anwendungen: z.B. Abwasserbehandlung, (Foto-) Katalyse, Bioimaging und Biotechnologie, chemische Sensorik, sowie elektrochemische- und optoelektronische Anwendungen (z.B. LEDs). Insbesondere die Möglichkeit, CNDs aus einer Vielzahl organischer Materialien herzustellen, machen sie zu einer möglichen Alternative für herkömmliche organische Farbstoffe und Halbleiter-Quantenpunkte (QDs). Derzeitigen Synthesestrategien erweisen sich jedoch häufig als teuer, komplex und zeitaufwändig; bzw. benötigen toxischen Chemikalien und/oder drastische Reaktionsbedingungen. Eine Möglichkeit, die Herstellungskosten von CNDs zu reduzieren, ist die Verwendung von biologischem Abfall als Ausgangsmaterial. So wurden bereits eine Vielzahl an natürlichen Kohlenstoffquellen, z.B. Pomelo-Schale, Eiweiß und Eigelb, Orangensaft und sogar Eierschalen, für die Darstellung von CNDs verwendet. Während die Verwendung von biologischem Abfall wünschenswert ist, insbesondere um Wettbewerb mit der Nahrungsmittelproduktion zu vermeiden, fehlt den meisten Ausgangsmaterialien jedoch die notwendige Reinheit und strukturelle Homogenität um einheitliche CNDs zu erhalten. So führen bisherige Syntheseansätze oft zu CNDs mit heterogenen photophysikalischen Eigenschaften und unbestimmter Zusammensetzung. Für die Untersuchung des Zusammenhangs zwischen CND Struktur und photophysikalischen Eigenschaften werden aber möglichst homogene und vergleichbare Proben benötigt. In dieser Arbeit wird daher eine neue, zuverlässige, ökonomische und umweltfreundliche Einstufen-Synthese zur Darstellung von CNDs mit klar definierten und reproduzierbaren Photolumineszenz- (PL) -Eigenschaften vorgestellt. Die vorgestellte Methode basiert auf der mikrowellenunterstützten, hydrothermischen Behandlung (MW-hPC, engl. microwaveassisted hydrothermal precursor carbonization) wässriger Lösungen aus Stärke, Carbonsäuren (als Kohlenstoffquelle) und Tris-EDTA (TE) -Puffer (als Stickstoffquelle). Die MW-hPC zeichnet sich insbesondere durch die hohe Reproduzierbarkeit, einfache Handhabung, geringen Reaktionszeiten, geringe Umweltbelastung, Kosteneffizienz und die hohen Ausbeuten von ca. 80% (w/w) aus. Darüber hinaus wird nur ein einziger Syntheseschritt (ohne weitere Aufreinigung) benötigt um homogene, wasserlösliche CNDs zu erhalten. In Abhängig der gewählten Ausgangsmaterialen und Reaktionsbedingungen können verschiedene Typen an CNDs gewonnen werden. Die so gewonnen CNDs sind verhältnismäßig klein (ca. 2.0nm- 2.4nm); besitzen eine geringe Größenverteilung, hochgradig homogenen PL-Eigenschaften, und geringen Halbwertsbreiten (FWHM) von ca. 70nm. Darüber hinaus erwiesen sie sich als nicht blinkend; sind langzeitstabil (min. ein Jahr) sowohl in Lösung als auch als Feststoff; und sind direkt gebrauchsfertig, d.h. benötigen keine weitere Aufreinigung oder Oberflächenpassivierung. In Abhängigkeit vom CND-Typ kann die PL-Quantenausbeute zwischen 1% bis 90% betragen; einer der höchsten Werte der je (für CNDs) erreicht wurde. Ein wesentlicher Bestandteil dieser Arbeit war die Verwendung eines Mikrowellensynthese- Reaktors (MiWR) und die damit einhergehende präzise Kontrolle über die Reaktionstemperatur und -zeit, den Druck, und die Heiz- und Abkühlgeschwindigkeit. Des Weiteren ermöglichte der MiWR unterschiedliche Ansatzgrößen und das sichere Arbeiten bei erhöhten Reaktionsbedingungen (z.B. 230 ±C und 30 bar). Der hierdurch erreichte hohe Probendurchsatz ermöglichte somit erstmals die sorgfältige Untersuchung einer Vielzahl an Syntheseparametern hinsichtlich ihres Einflusses auf die photophysikalischen Eigenschaften der dargestellten CNDs. Die untersuchten Parameter reichen hierbei von der Reaktionstemperatur und -zeit über die Edukt-Konzentration und -Kombination (Kohlenstoff- und Stickstoffquelle) bis hin zur Ansatzgröße. Bemerkenswerterweise, und unabhängig vom CND-Typ, transformieren die ursprünglich braunen CND-Lösungen während der Trocknung zu einem nicht fluoreszierenden, weißen/leicht gelblich bis bräunlichen Feststoff; und regenerieren ihre photophysikalischen Eigenschaften verlustfrei in wässriger Lösung. Im Rahmen dieser Arbeit wurden ausgewählte CND-Proben der EDX-, FTIR-, NMR-, TCSPC-, Partikelgrößen (TEM)-, TGA- und XRD-Analyse unterzogen. Die hierbei gewonnenen Erkenntnisse stützen die Theorie, dass die photophysikalischen Eigenschaften der CNDs durch ihre Oberflächenzustände bestimmt werden und dass die s.g. ”Riesen-Rotkanten-Anregungsverschiebung” (GREES, engl. Giant Red Edge Excitation Shift) eine mögliche Ursache für die häufig beobachtete Anregungswellenlängenabhängigkeit der Emissionswellenlänge (bzw. selektive Lumineszenz) in CNDs ist. KW - carbon dots KW - carbon nanodots KW - fluorescence KW - high quantum yield KW - microwave synthesis KW - white carbon KW - Kohlenstoff-Punkte KW - Kohlenstoff-Nanopunkte KW - Fluoreszenz KW - hohe Quantenausbeute KW - mikrowellengestützte Synthese KW - weißer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410160 ER - TY - THES A1 - Meiser, Susanne T1 - Wie dysfunktional sind Dysfunktionale Einstellungen? T1 - How dysfunctional are dysfunctional attitudes? BT - dysfunktionale Kognitionen und Depression im Kindes- und Jugendalter BT - dysfunctional cognitions and depression in children and adolescents N2 - Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik. Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse. Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen. Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten. N2 - In A. T. Beck´s prominent vulnerability-stress-model of depression (Beck 1967, 1976), dysfunctional attitudes represent the key vulnerability factor of depression. This theory has stimulated etiological research on depression for decades. However, the significance of dysfunctional attitudes for the emergence of depression in children and adolescents remains somewhat elusive. This dissertation addresses some questions unanswered by past studies, e.g. the possibility of nonlinear effects of dysfunctional attitudes, the impact of subject selection procedures, developmental effects and the specificity of dysfunctional attitudes for depressive symptomatology. These questions were examined using data from two measurement points of the PIER study, a large longitudinal project on developmental risks in childhood and adolescence. Children and adolescents aged 9 – 18 years reported dysfunctional attitudes, symptoms from various domains and stressful life events twice with a mean interval between assessments of 20 months. Results suggest a threshold model of cognitive vulnerability, in which only dysfunctional attitudes exceeding a certain threshold conferred vulnerability to depressive symptoms, while dysfunctional attitudes below the threshold were unrelated to future depressive symptoms. These effects were invariant across gender and age. Moreover, vulnerability effects of dysfunctional attitudes were observable in initially non-symptomatic participants only. The threshold model of dysfunctional attitudes turned out to be specific for the depressive symptom domain. However, relationships of different shapes were detected between dysfunctional attitudes and the development of aggressive and eating disorder symptoms. Moreover, dysfunctional attitudes in 9 – 13-year old boys predicted non-interpersonal stress generation. Along with evidence from the PIER study reported by Sahyazici-Knaak (2015), results suggest that dysfunctional attitudes in children and adolescents may represent a cause, symptom and consequence of depression, depending on the sub-population in question. The nonlinear effects of dysfunctional attitudes detected in this study might, at least in part, offer an explanation for the inconsistent results of past studies. In sum, findings of this dissertation suggest complex – and not exclusively negative - effects of dysfunctional attitudes. Thus, a judgement of the actual “dysfunctionality” of the “dysfunctional attitudes” proposed by A. T. Beck seems to require a close consideration of the absolute level of attitudes as well as the sub-population and symptom domains in question. KW - Depression KW - Ätiologie KW - Kognition KW - dysfunktionale Einstellungen KW - Kinder KW - Jugendliche KW - kognitive Vulnerabilität KW - depression KW - etiology KW - cognition KW - dysfunctional attitudes KW - children KW - adolescents KW - cognitive vulnerability Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412483 ER - TY - THES A1 - Mera, Azal Jaafar Musa T1 - The Navier-Stokes equations for elliptic quasicomplexes T1 - Die Navier–Stokes–Gleichungen für elliptische Quasikomplexe N2 - The classical Navier-Stokes equations of hydrodynamics are usually written in terms of vector analysis. More promising is the formulation of these equations in the language of differential forms of degree one. In this way the study of Navier-Stokes equations includes the analysis of the de Rham complex. In particular, the Hodge theory for the de Rham complex enables one to eliminate the pressure from the equations. The Navier-Stokes equations constitute a parabolic system with a nonlinear term which makes sense only for one-forms. A simpler model of dynamics of incompressible viscous fluid is given by Burgers' equation. This work is aimed at the study of invariant structure of the Navier-Stokes equations which is closely related to the algebraic structure of the de Rham complex at step 1. To this end we introduce Navier-Stokes equations related to any elliptic quasicomplex of first order differential operators. These equations are quite similar to the classical Navier-Stokes equations including generalised velocity and pressure vectors. Elimination of the pressure from the generalised Navier-Stokes equations gives a good motivation for the study of the Neumann problem after Spencer for elliptic quasicomplexes. Such a study is also included in the work.We start this work by discussion of Lamé equations within the context of elliptic quasicomplexes on compact manifolds with boundary. The non-stationary Lamé equations form a hyperbolic system. However, the study of the first mixed problem for them gives a good experience to attack the linearised Navier-Stokes equations. On this base we describe a class of non-linear perturbations of the Navier-Stokes equations, for which the solvability results still hold. N2 - Die klassischen Navier–Stokes–Differentialgleichungen der Hydrodynamik werden in der Regel im Rahmen der Vektoranalysis formuliert. Mehr versprechend ist die Formulierung dieser Gleichungen in Termen von Differentialformen vom Grad 1. Auf diesem Weg beinhaltet die Untersuchung der Navier–Stokes–Gleichungen die Analyse des de Rhamschen Komplexes. Insbesondere ermöglicht die Hodge–Theorie für den de Rham–Komplex den Druck aus den Gleichungen zu eliminieren. Die Navier–Stokes–Gleichungen bilden ein parabolisches System mit einem nichtlinearen Term, welcher Sinn nur für die Pfaffschen Formen (d.h Formen vom Grad 1) hat. Ein einfacheres Modell für Dynamik der inkompressiblen viskosen Flüssigkeit wird von der Burgers–Gleichungen gegeben. Diese Arbeit richtet sich an das Studium der invarianten Struktur der Navier–Stokes–Gleichungen, die eng mit der algebraischen Struktur des de Rham–Komplexes im schritt 1 zusammen steht. Zu diesem Zweck stellen wir vor die Navier–Stokes–Gleichungen im Zusammenhang mit jedem elliptischen Quasikomplex von Differentialoperatoren der ersten Ordnung. So ähneln die Gleichungen den klassischen Navier–Stokes–Gleichungen, einschließlich allgemeiner Geschwindigkeit– und Druckvektoren. Elimination des Drucks aus den verallgemeinerten Navier–Stokes–Gleichungen gibt eine gute Motivation für die Untersuchung des Neumann–Problems nach Spencer für elliptische Quasikomplexe. Eine solche Untersuchung ist auch in der Arbeit mit der Erörterung der Lamé-Gleichungen im Kontext der elliptischen Quasikomplexe auf kompakten Mannigfaltigkeiten mit Rand. Die nichtstationären Lamé-Gleichungen bilden ein hyperbolisches System. Allerdings gibt die Studie des ersten gemischten Problems für sie eine gute Erfahrung, um die linearisierten Navier–Stokes–Gleichungen anzugreifen. Auf dieser Basis beschreiben wir eine Klasse von nichtlinearen Störungen der Navier–Stokes–Gleichungen, für welche die Lösungsresultate noch gelten. KW - Navier-Stokes-Gleichungen KW - elliptische Quasi-Komplexe KW - Navier-Stoks equations KW - elliptic quasicomplexes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398495 ER - TY - THES A1 - Mitzkus, Martin T1 - Spectroscopic surface brightness fluctuations T1 - Spektroskopische Flächenhelligkeitsfluktuationen BT - probing bright evolved stars in unresolved stellar populations BT - Untersuchung von hellen, entwickelten Sternen in unaufgelösten stellaren Populationen N2 - Galaxies evolve on cosmological timescales and to study this evolution we can either study the stellar populations, tracing the star formation and chemical enrichment, or the dynamics, tracing interactions and mergers of galaxies as well as accretion. In the last decades this field has become one of the most active research areas in modern astrophysics and especially the use of integral field spectrographs furthered our understanding. This work is based on data of NGC 5102 obtained with the panoramic integral field spectrograph MUSE. The data are analysed with two separate and complementary approaches: In the first part, standard methods are used to measure the kinematics and than model the gravitational potential using these exceptionally high-quality data. In the second part I develop the new method of surface brightness fluctuation spectroscopy and quantitatively explore its potential to investigate the bright evolved stellar population. Measuring the kinematics of NGC 5102 I discover that this low-luminosity S0 galaxy hosts two counter rotating discs. The more central stellar component co-rotates with the large amount of HI gas. Investigating the populations I find strong central age and metallicity gradients with a younger and more metal rich central population. The spectral resolution of MUSE does not allow to connect these population gradients with the two counter rotating discs. The kinematic measurements are modelled with Jeans anisotropic models to infer the gravitational potential of NGC 5102. Under the self-consistent mass-follows-light assumption none of the Jeans models is able to reproduce the observed kinematics. To my knowledge this is the strongest evidence evidence for a dark matter dominated system obtained with this approach so far. Including a Navarro, Frenk & White dark matter halo immediately solves the discrepancies. A very robust result is the logarithmic slope of the total matter density. For this low-mass galaxy I find a value of -1.75 +- 0.04, shallower than an isothermal halo and even shallower than published values for more massive galaxies. This confirms a tentative relation between total mass slope and stellar mass of galaxies. The Surface Brightness Fluctuation (SBF) method is a well established distance measure, but due to its sensitive to bright stars also used to study evolved stars in unresolved stellar populations. The wide-field spectrograph MUSE offers the possibility to apply this technique for the first time to spectroscopic data. In this thesis I develop the spectroscopic SBF technique and measure the first SBF spectrum of any galaxy. I discuss the challenges for measuring SBF spectra that rise due to the complexity of integral field spectrographs compared to imaging instruments. Since decades, stellar population models indicate that SBFs in intermediate-to-old stellar systems are dominated by red giant branch and asymptotic giant branch stars. Especially the later carry significant model uncertainties, making these stars a scientifically interesting target. Comparing the NGC 5102 SBF spectrum with stellar spectra I show for the first time that M-type giants cause the fluctuations. Stellar evolution models suggest that also carbon rich thermally pulsating asymptotic giant branch stars should leave a detectable signal in the SBF spectrum. I cannot detect a significant contribution from these stars in the NGC 5102 SBF spectrum. I have written a stellar population synthesis tool that predicts for the first time SBF spectra. I compute two sets of population models: based on observed and on theoretical stellar spectra. In comparing the two models I find that the models based on observed spectra predict weaker molecular features. The comparison with the NGC 5102 spectrum reveals that these models are in better agreement with the data. N2 - Galaxien entwickeln sich auf kosmischen Zeitskalen. Um diese Entwicklung zu untersuchen und zu verstehen benutzen wir zwei verschiedene Methoden: Die Analyse der stellaren Population in Galaxien gibt Auskunft über die Sternentstehungsgeschichte und die Erzeugung von schweren Elementen. Die Analyse der Bewegung der Sterne gibt Auskunft über die dynamische Entwicklung, Interaktionen und Kollisionen von Galaxien, sowie die Akkretion von Gas. Die Untersuchung der Galaxienentwicklung ist in den letzten Jahrzehnten zu einem der wichtigsten Bereiche in der modernen Astrophysik geworden und die Einführung der Integral-Feldspektroskopie hat viel zu unserem heutigen Verständnis beigetragen. Die Grundlage dieser Arbeit bilden Spektren von der Galaxie NGC 5102. Die Spektren wurden mit dem Integral-Feldspektrographen MUSE aufgenommen, welcher sich durch ein groß es Gesichtsfeld auszeichnet. Die Daten werden mit zwei unterschiedlichen und sich ergänzenden Methoden analysiert: Im ersten Teil der Arbeit benutze ich etablierte Methoden um die Bewegung der Sterne zu vermessen und daraus das Gravitationspotential der Galaxie abzuleiten. Dieser Teil der Arbeit profitiert insbesondere von der ausgezeichneten Datenqualität. Im zweiten Teil der Arbeit entwickle ich erstmalig eine Methode für die Datenanalyse zur Extraktion von spektroskopischen Flächenhelligkeitsfluktuationen und quantifiziere deren Potential für die Untersuchung der hellen und entwickelten Sterne in Galaxien. Durch die Analyse der Bewegung der Sterne in NGC 5102 habe ich entdeckt, dass diese S0 Galaxie aus zwei entgegengesetzt rotierenden Scheiben besteht. Durch die Kombination von meinen Ergebnissen mit publizierten Messungen der Rotation des HI Gases finde ich, dass dieses in die gleiche Richtung rotiert wie die innere Scheibe. Die Analyse der stellaren Population zeigt starke Gradienten im mittleren Alter und der mittleren Metallizität. Dabei ist die stellare Population im Zentrum jünger und hat eine höhere Metallizität. Die spektrale Auflösung von MUSE reicht nicht aus, um zu untersuchen, ob diese Gradienten in der Population mit den beiden entgegengesetzt rotierenden Scheiben verbunden sind. Um das Gravitationspotential von NGC 5102 zu untersuchen, modelliere ich die gemessene Kinematik mit anisotropen Jeans Modellen. Keines der Modelle in dem ich annehme, dass die Massenverteilung der Verteilung des Lichts folgt, ist in der Lage die gemessene Kinematik zu reproduzieren. Nach meinem Wissen ist dies der bislang stärkste Hinweis auf Dunkle Materie, der mit dieser Methode in einer einzelnen Galaxie bisher erzielt worden ist. Durch das Hinzufügen einer sphärischen Dunkle Materie Komponente in Form eines Navarro, Frenk & White Halos kann die Diskrepanz zwischen Beobachtung und Modell gelöst werden. Fast modelunabhängig lässt sich die Steigung des logarithmischen Dichteprofils der gesamten (sichtbare und dunkle) Materie messen. In dieser massearmen Galaxie finde ich einen Wert von -1.75 +- 0.04. Diese Steigung ist flacher als die eines isotermen Dichteprofils und noch flacher als die Steigungen die für massereiche Galaxien veröffentlicht wurden. Diese Ergebnisse bestätigen eine bisher nur angedeutete Korrelation zwischen der Steigung des Dichteprofils und der stellaren Masse. Flächenhelligkeitsfluktuationen (Surface Brightness Fluctuations, SBF) sind eine etablierte Methode zur Entfernungsbestimmung von Galaxien. SBF werden von den hellsten Sternen in einer Population verursacht und werden daher auch benutzt, um diese Sterne zu untersuchen. MUSE zeichnet sich durch die einmalige Kombination von einem groß en Gesichtsfeld, mit einem guten räumlichen Sampling, und einer spektroskopischen Zerlegung des Lichts über das gesamte Gesichtsfeld aus. Dadurch kann die SBF Methode erstmalig auf Spektren angewendet werden. In dieser Arbeit entwickle ich die Methode der spektroskopischen SBF und messe das erste SBF Spektrum von einer Galaxie. Dabei diskutiere ich insbesondere die Herausforderungen die sich durch die Komplexität von Integral-Feldspektrographen verglichen mit bildgebenden Instrumenten für die SBF Methode ergeben. Seit langem sagen stellare Populationsmodelle voraus, dass die SBF in stellaren Populationen, die älter als etwa 0.5 Gyr sind, von Sternen auf dem roten und dem asymptotischen Riesenast erzeugt werden. Dabei ist insbesondere die Modellierung von Sternen des asymptotischen Riesenastes schwierig, weshalb diese wissenschaftlich besonders interessant sind. Der Vergleich des gemessenen SBF Spektrums von NGC 5102 mit Spektren von Riesensternen zeigt, dass das SBF Spektrum von Sternen mit dem Spektraltyp M dominiert wird. Nach allen Standardmodellen der stellaren Entwicklung sollten auch kohlenstoffreiche Riesensterne vom Spektraltyp C im SBF Spektrum sichtbar sein. Zu dem gemessenen SBF Spektrum tragen diese Sterne aber nicht signifikant bei. Ich habe eine stellar population synthesis Software geschrieben, die zum ersten Mal auch SBF Spektrenmodelle berechnet. Mit dieser Software habe ich zwei verschiedene Versionen von Modellen berechnet: die eine basiert auf beobachteten Sternspektren, die andere auf theoretischen Modellen von Sternspektren. Die Version der SBF Modellspektren, die auf den beobachteten Sternspektren beruht, zeigt schwächere molekulare Absorptionsbanden. Der Vergleich mit dem SBF Spektrum von NGC 5102 zeigt, dass diese Modelle besser zu den Daten passen. KW - galaxy KW - kinematics KW - stellar population KW - Galaxien KW - Kinematik KW - stellare Population Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406327 ER - TY - THES A1 - Mondol López, Mijail T1 - Historiografía literaria y Sociedad T1 - Literary historiography and society T1 - Literarische Historiographie und Gesellschaft BT - Una interpretación socio-discursiva del pensamiento histórico literario centroamericano BT - a socio-discursive interpretation of the central american historical-literary thought BT - eine sozio-diskursive Interpretation des zentralamerikanischen historisch-literarischen Denkens N2 - Throughout all different socio-historical tensions undergone by the Latin American modernit(ies), the literary-historical production as well as the reflection on the topic - regional, national, supranational and/or continental – have been part of the critical and intellectual itinerary of very significant political and cultural projects, whose particular development allows the analysis of the socio-discursive dynamics fulfilled by the literary historiography in the search of a historical conscience and representation of the esthetic-literary processes. In present literary and cultural Central American literary studies, the academic thought on the development of the literary historiography has given place to some works whose main objects of study involve a significant corpus of national literature histories published mainly in the 20th century, between the forties and the eighties. Although these studies differ greatly from the vast academic production undertaken by the literary critics in the last two decades, the field of research of the literary historiography in Central America has made a theoretical-methodological effort, as of the eighties and until now, to analyze the local literary-historical productions. However, this effort was carried out more systematically in the last five years of the 20th century, within the Central American democratic transition and post-war context, when a national, supra national and transnational model of literary history was boosted. This gave place to the creation and launching of the project Hacia una Historia de las Literaturas Centroamericanas (HILCAS) at the beginning of the new millennium. Given the ideological relevance which the literary historiography has played in the process of the historical formation of the Hispano-American States, and whose philological tradition has also had an impact in the various Central American nation states, the emergence of this historiographic project marks an important rupture in relation with the national paradigms, and it is also manifested in a movement of transition and tension with regard to the new cultural, comparative and transareal dynamics, which seek to understand the geographical, transnational, medial and transdisciplinary movements within which the esthetic narrative processes and the idea and formation of a critical Central American subject gain shape. Taking this aspect into account, our study puts forward as its main hypothesis that the historiographic thought developed as a consequence of the project Hacia una Historia de las Literaturas Centroamericanas (HILCAS) constitutes a socio-discursive practice, which reflects the formation of a historic-literary conscience and of a critical intellectual subject, an emergence that takes place between the mid-nineties and the first decade of the 21st century. In this respect, and taking as a basis the general purpose of this investigation indicated before, the main justification for our object of study consists of making the Central American historiographic reflection visible as a part of the epistemological and cultural changes shown by the Latin American historiographic thought, and from which a new way of conceptualization of the space, the coexistence and the historic conscience emerge with regard to the esthetic-literary practices and processes. Based on the field and hypothesis stated before, the general purpose of this research is framed by the socio-discursive dimension fulfilled by the Latin American literary historiography, and it aims to analyze the Central American historical-literary thought developed between the second half of the nineties and the beginning of the first decade of the 21st century. N2 - Während der unterschiedlichen soziohistorischen Spannungen, die die lateinamerikanische(n) Moderne(n) durchquerten, waren sowohl die historisch-literarische Produktion als auch die Reflexion, seien sie regionaler, nationaler, supranationaler und/oder kontinentaler Art, ein Teil des kritischen und intellektuellen Weges bedeutender politischer und kultureller Projekte, deren besondere Entwicklung es gestattet, die sozio-diskursive Dynamik zu analysieren, die die literarische Historiographie bei der Suche eines historischen Bewusstseins und einer Repräsentation ästhetischliterarischer Prozesse erfüllt. In zeitgenössischen literaturgeschichtlichen und kulturwissenschaftlichen Forschungen in Zentralamerika führte das akademische Nachdenken über die Entwicklung der literarischen Historiographie zu einigen Forschungsprojekten, deren wichtigste Studienobjekte aus einem signifikanten Korpus nationaler Literaturgeschichten bestehen, die hauptsächlich zwischen den vierziger und achtziger Jahren publiziert wurden. Wenngleich die erwähnten Forschungsarbeiten in vielbedeutendem Kontrast zu der umfassenden akademischen Produktion stehen, die in die literarische Kritik während der letzten zwei Jahrzehnte eingedrungen ist, wurde im Forschungsbereich der literarischen Historiografie in Zentralamerika seit den achtziger Jahren bis zur Gegenwart ein theoretisch-methodischer Aufwand betrieben um die historisch-literarischen Produktionen lokaler Art zu analysieren. Trotzdem wurde erst ab Mitte der neunziger Jahre des 20. Jahrhunderts im Kontext des demokratischen Übergangs und der zentralamerikanischen Nachkriegszeit mit größerer Systematisierung der Entwurf eines historisch literarischen Modells supra- und transnationaler Art vorangetrieben, der dazu führte, dass gegen Anfang des neuen Jahrtausends das Projekt Hacia una Historia de las Literaturas Centroamericanas (HILCAS) erschaffen und initiiert wurde. Aufgrund der ideologischen Relevanz, die die literarische Historiographie im Prozess der hispanoamerikanischen Nationalstaatenbildung besaß und deren philologische Tradition der Entwicklung der unterschiedlichen zentralamerikanischen Nationalstaaten nicht fern stand, erscheint die Entstehung dieses historiographischen Projektes als wichtiges Zeichen für einen Bruch gegenüber den nationalen Paradigmen, wobei es sich gleichzeitig in einer Dynamik des Übergangs und der Spannung zeigt in Bezug auf die neuen kulturellen, komparativen und trans-arealen Dynamiken, die versuchen, die geographischen, transnationalen, medialen und transdisziplinären Verschiebungen zu verstehen, in denen sich die ästhetisch-narrativen Prozesse und die Bildung eines kritischen zentralamerikanischen Subjekts dynamisieren. In Anbetracht dieses letzten Aspektes behauptet die zentrale Hypothese der vorliegenden Forschungsarbeit, dass das historiographische Denken, das von dem Projekt Hacia una Historia de las Literaturas Centroamericanas (HILCAS) aus entwickelt wurde, eine soziodiskursive Praktik begründet, von der aus die Bildung eines historisch literarischen Bewusstseins und eines kritisch intellektuellen Subjekts bewiesen wird, das zwischen der Mitte der neunziger Jahre und den ersten Jahrzehnten des 21. Jahrhunderts eingeschrieben ist. In diesem Sinn und auf Grundlage des übergreifenden Vorhabens, das in dieser Forschungsarbeit geäußert wurde, besteht der wichtigste Nachweis, auf den unser Studienobjekt hinweist, in der Sichtbarmachung des Nachdenkens über die zentralamerikanische Historiografie als Teil der epistemologischen und kulturellen Veränderungen, die das lateinamerikanische historiografische Denken während der letzten zwei Jahrzehnte erfuhr und von dem aus eine neue Form der Konzeptualisierung des Raums, der Konvivenz und des historischen Bewusstseins in Bezug auf ästhetisch-literarische Praktiken und Prozesse errichtet wird. Auf Grundlage der vorher formulierten Bereiche und Hypothesen umfasst das allgemeine Ziel dieser Forschungsarbeit die sozio-diskursive Dimension, die die literarische Historiographie in Lateinamerika erfüllte mit der Absicht, das historische literarische Denken in Zentralamerika zu analysieren, das zwischen Mitte der neunziger Jahre und den Anfängen der ersten Jahrzehnte des 21. Jahrhunderts entwickelt wurde. KW - Central American literary historiography KW - literary criticism KW - historical conscience KW - historical subject KW - Central American literary studies KW - Central America KW - socio-discourse KW - zentralamerikanische literarische Historiographie KW - literarische Kritik KW - historisches Bewusstsein KW - historisches Subjekt KW - zentralamerika KW - soziodiskurs Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406409 ER - TY - THES A1 - Morling, Karoline T1 - Import and decomposition of dissolved organic carbon in pre-dams of drinking water reservoirs T1 - Eintrag und Abbau von gelösten Kohlenstoffen in Vorsperren von Trinkwassertalsperren N2 - Dissolved organic carbon (DOC) depicts a key component in the aquatic carbon cycle as well as for drinking water production from surface waters. DOC concentrations increased in water bodies of the northern hemisphere in the last decades, posing ecological consequences and water quality problems. Within the pelagic zone of lakes and reservoirs, the DOC pool is greatly affected by biological activity as DOC is simultaneously produced and decomposed. This thesis aimed for a conceptual understanding of organic carbon cycling and DOC quality changes under differing hydrological and trophic conditions. Further, the occurrence of aquatic priming was investigated, which has been proposed as a potential process facilitating the microbial decomposition of stable allochthonous DOC within the pelagic zone. To study organic carbon cycling under different hydrological conditions, quantitative and qualitative investigations were carried out in three pre-dams of drinking water reservoirs exhibiting a gradient in DOC concentrations and trophic states. All pre-dams were mainly autotrophic in their epilimnia. Discharge and temperature were identified as the key factors regulating net production and respiration in the upper water layers of the pre-dams. Considerable high autochthonous production was observed during the summer season under higher trophic status and base flow conditions. Up to 30% of the total gained organic carbon was produced within the epilimnia. Consequently, this affected the DOC quality within the pre-dams over the year and enhanced characteristics of algae-derived DOC were observed during base flow in summer. Allochthonous derived DOC dominated at high discharges and oligotrophic conditions when production and respiration were low. These results underline that also small impoundments with typically low water residence times are hotspots of carbon cycling, significantly altering water quality in dependence of discharge conditions, temperature and trophic status. Further, it highlights that these factors need to be considered in future water management as increasing temperatures and altered precipitation patterns are predicted in the context of climate change. Under base flow conditions, heterotrophic bacteria preferentially utilized older DOC components with a conventional radiocarbon age of 195-395 years before present (i.e. before 1950). In contrast, younger carbon components (modern, i.e. produced after 1950) were mineralized following a storm flow event. This highlights that age and recalcitrance of DOC are independent from each other. To assess the ages of the microbially consumed DOC, a simplified method was developed to recover the respired CO2 from heterotrophic bacterioplankton for carbon isotope analyses (13C, 14C). The advantages of the method comprise the operation of replicate incubations at in-situ temperatures using standard laboratory equipment and thus enabling an application in a broad range of conditions. Aquatic priming was investigated in laboratory experiments during the microbial decomposition of two terrestrial DOC substrates (peat water and soil leachate). Thereby, natural phytoplankton served as a source of labile organic matter and the total DOC pool increased throughout the experiments due to exudation and cell lysis of the growing phytoplankton. A priming effect for both terrestrial DOC substrates was revealed via carbon isotope analysis and mixing models. Thereby, priming was more pronounced for the peat water than for the soil leachate. This indicates that the DOC source and the amount of the added labile organic matter might influence the magnitude of a priming effect. Additional analysis via high-resolution mass spectrometry revealed that oxidized, unsaturated compounds were more strongly decomposed under priming (i.e. in phytoplankton presence). Given the observed increase in DOC concentrations during the experiments, it can be concluded that aquatic priming is not easily detectable via net concentration changes alone and could be considered as a qualitative effect. The knowledge gained from this thesis contributes to the understanding of aquatic carbon cycling and demonstrated how DOC dynamics in freshwaters vary with hydrological, seasonal and trophic conditions. It further demonstrated that aquatic priming contributes to the microbial transformation of organic carbon and the observed decay of allochthonous DOC during transport in inland waters. N2 - Gelöster organischer Kohlenstoff (dissolved organic carbon, DOC) bildet nicht nur eine zentrale Komponente des aquatischen Kohlenstoffkreislaufs, sondern auch für die Gewinnung von Trinkwasser aus Oberflächengewässern. In den letzten Jahrzehnten stiegen die DOC-Konzentrationen in Gewässern der nördlichen Hemisphäre an und führen sowohl zu ökologischen Konsequenzen als auch zu Wasserqualitätsproblemen. Die Zusammensetzung des DOC im Pelagial von Seen und Talsperren wird erheblich durch biologische Aktivität beeinflusst, da DOC-Verbindungen gleichzeitig produziert und abgebaut werden. Im Fokus meiner Dissertation standen ein konzeptionelles Verständnis des organischen Kohlenstoffkreislaufs und die damit verbundenen Änderungen in der DOC-Qualität unter verschiedenen hydrologischen und trophischen Bedingungen. Weiterhin wurde das Auftreten eines aquatischen Priming-Effektes untersucht, welcher den mikrobiellen Abbau von stabilem allochthonem DOC im Pelagial fördern könnte. Quantitative und qualitative Untersuchungen wurden unter verschiedenen hydrologischen Bedingungen in drei Vorsperren von Trinkwassertalsperren durchgeführt, die einen Gradienten an DOC-Konzentrationen und Trophie aufwiesen. Alle Vorsperren waren im Epilimnion überwiegend autotroph. Abfluss und Temperatur wurden als Schlüsselfaktoren identifiziert, die Produktion und Respiration in den oberen Wasserschichten der Vorsperren regulieren. Eine vergleichsweise hohe autotrophe Produktion wurde während der Sommer-monate bei hoher Trophie und Basisabfluss beobachtet. Bis zu 30% des gesamten eingetragenen organischen Kohlenstoffes wurde im Epilimnion produziert. Dies beeinflusste die DOC-Qualität in den Vorsperren erheblich und es traten vermehrt Charakteristiken von algenbürtigem DOC unter Basisabfluss in den Sommermonaten auf. Allochthoner DOC dominierte bei hohen Abflüssen und unter oligotrophen Bedingungen, wenn Produktion und Respiration gering waren. Diese Ergebnisse unterstreichen, dass auch kleine Speicherbecken mit typischerweise kurzen Wasser-aufenthaltszeiten „Hotspots“ für Kohlenstoffumsetzung sind und die Wasserqualität signifikant in Abhängigkeit von Abflussbedingungen, Temperatur und Trophie verändern. Diese Faktoren sind auch für zukünftiges Wassermanagement bedeutsam, da steigende Temperaturen und veränderte Niederschläge im Zuge des Klimawandels prognostiziert werden. Unter Basisabfluss verwerteten heterotrophe Bakterien vorrangig ältere DOC-Komponenten mit einem konventionellen Radiokarbonalter von 195-395 Jahren B.P. („before present“, d. h. vor 1950). Im Gegensatz dazu wurden jüngere DOC-Komponenten (modern, d. h. nach 1950 produziert) nach einem Regenwetterzufluss abgebaut. Daraus lässt sich schließen, dass Alter und mikrobielle Verwertbarkeit des DOC voneinander unabhängig sind. Um das Alter des genutzten DOC zu bestimmen, wurde eine vereinfachte Methode entwickelt, die das Auffangen des bakteriell respirierten CO2 und eine anschließende Analyse der Kohlenstoffisotope (13C, 14C) ermöglicht. Die Vorteile der Methode liegen vor allem in der Verwendung von Replikaten, die bei in-situ Temperaturen inkubiert werden können und in der Nutzung von gängiger Laborausstattung. Dies ermöglicht eine Anwendung der Methode unter einer weiten Bandbreite von Bedingungen. Der aquatische Priming-Effekt wurde in Laborexperimenten während des mikrobiellen Abbaus von zwei terrestrischen DOC-Substraten (Moorwasser und Bodeneluat) untersucht. Phytoplankton diente als Quelle für labile organische Substanz und die DOC-Konzentrationen nahmen durch Exudation und Zelllysis des wachsenden Phytoplanktons während des Experimentes zu. Ein Priming-Effekt wurde für beide terrestrischen DOC-Substrate mittels Analyse von Kohlenstoffisotopen und Mischungsmodellen nachgewiesen, wobei der Priming-Effekt für das Moorwasser stärker ausgeprägt war als für das Bodeneluat. Analysen mittels hochauflösender Massenspektrometrie zeigten, dass verstärkt oxidierte und ungesättigte Verbindungen während des Primings (d. h. in Anwesenheit von Phytoplankton) abgebaut wurden. Aus den angestiegenen DOC-Konzentrationen während des Experimentes kann geschlussfolgert werden, dass ein aquatischer Priming-Effekt nicht allein über Konzentrationsänderungen nachweisbar ist und vielmehr als ein qualitativer Effekt betrachtet werden kann. Diese Arbeit trägt zum Verständnis des aquatischen Kohlenstoffkreislaufs bei und zeigt wie DOC-Dynamiken in Süßgewässern mit hydrologischen, saisonalen und trophischen Bedingungen variieren. Weiterhin wurde gezeigt, dass der aquatische Priming-Effekt zu dem mikrobiellen Umsatz von organischem Kohlenstoff und dem beobachteten Abbau von terrestrischen DOC während des Transportes in Binnengewässern beiträgt. KW - organic carbon KW - water reservoir KW - freshwater ecosystems KW - carbon isotopes KW - degradation KW - radiocarbon KW - autotrophy KW - net production KW - organic matter quality KW - high resolution mass spectrometry KW - microbial decomposition KW - organischer Kohlenstoff KW - Talsperre KW - Kohlenstoffisotope KW - Radiokarbon KW - Autotrophie KW - Nettoproduktion KW - organisches Material KW - hochauflösende Massenspektrometrie KW - mikrobieller Abbau KW - gelöster organischer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-399110 ER - TY - THES A1 - Mosca, Michela T1 - Multilinguals' language control T1 - Sprachkontrolle bei Mehrsprachigen N2 - For several decades, researchers have tried to explain how speakers of more than one language (multilinguals) manage to keep their languages separate and to switch from one language to the other depending on the context. This ability of multilingual speakers to use the intended language, while avoiding interference from the other language(s) has recently been termed “language control”. A multitude of studies showed that when bilinguals process one language, the other language is also activated and might compete for selection. According to the most influential model of language control developed over the last two decades, competition from the non-intended language is solved via inhibition. In particular, the Inhibitory Control (IC) model proposed by Green (1998) puts forward that the amount of inhibition applied to the non-relevant language depends on its dominance, in that the stronger the language the greater the strength of inhibition applied to it. Within this account, the cost required to reactivate a previously inhibited language depends on the amount of inhibition previously exerted on it, that is, reactivation costs are greater for a stronger compared to a weaker language. In a nutshell, according to the IC model, language control is determined by language dominance. The goal of the present dissertation is to investigate the extent to which language control in multilinguals is affected by language dominance and whether and how other factors might influence this process. Three main factors are considered in this work: (i) the time speakers have to prepare for a certain language or PREPARATION TIME, (ii) the type of languages involved in the interactional context or LANGUAGE TYPOLOGY, and (iii) the PROCESSING MODALITY, that is, whether the way languages are controlled differs between reception and production. The results obtained in the four manuscripts, either published or in revision, indicate that language dominance alone does not suffice to explain language switching patterns. In particular, the present thesis shows that language control is profoundly affected by each of the three variables described above. More generally, the findings obtained in the present dissertation indicate that language control in multilingual speakers is a much more dynamic system than previously believed and is not exclusively determined by language dominance, as predicted by the IC model (Green, 1998). N2 - Viele Jahrzehnte lang haben Forscher versucht zu erklären, wie es Menschen, die mehr als eine Sprache sprechen (Mehrsprachige), gelingt, Sprachen zu unterscheiden und je nach Kontext zwischen den Sprachen zu wechseln. Diese Fähigkeit von Mehrsprachigen die geplante Sprache zu benutzen und die Interferenzen mit den anderen Sprachen zu vermeiden wird als „Sprachkontrolle“ bezeichnet. Eine Vielzahl von Studien haben gezeigt, dass wenn ein Zweisprachiger eine Sprache verarbeitet, wird die andere Sprache auch aktiviert, sodass sie Teil der Sprachplanung werden könnte. Nach dem beeinflussendesten Modell über Sprachkontrolle, entwickelt in den letzten zwei Jahrzehnten, ist Konkurrenz von der nicht beteiligten Sprache durch Inhibition dieser Sprache abgeschafft. Insbesondere schlägt das von Green (1998) aufgestellte Inhibitory Control (IC) Modell vor, dass die Inhibitionsmenge, die benötigt wird, um eine nicht beteiligte Sprache zu unterdrücken, von der Sprachdominanz abhängig ist, beziehungsweise je stärker die Sprache desto mehr Inhibition wird benötigt, um diese Sprache zu inhibieren. Innerhalb dieser Darstellung, sind die Reaktivierungskosten einer unterdrückten Sprache von der Inhibitionsmenge in dieser Sprache abhängig, das heißt, die Reaktivierungskosten sind größer für die stärkere als für die schwächere Sprache. Zusammengefasst nach dem IC Modell ist die Sprachkontrolle durch Sprachdominanz geregelt. Das Ziel dieser Dissertation ist zu untersuchen, inwiefern Sprachkontrolle bei Mehrsprachigen durch Sprachdominanz geregelt ist und ob und wie andere Faktoren diesen Prozess beeinflussen. Drei Hauptfaktoren sind in dieser Arbeit untersucht: (i) die Zeit über die Sprecher verfügen, um sich für eine bestimmte Sprache vorzubereiten oder VORBEREITUNGSZEIT, (ii) die Typologie der involvierten Sprachen oder SPRACHTYPOLOGIE und (iii) die VERARBEITUNGSMODALITÄT, das heißt, ob Sprachverarbeitung in Produktion und Erkennung anders oder gleich ist. Die Ergebnisse aus den vier Manuskripten, entweder veröffentlicht oder in Revision, zeigen, dass Sprachdominanz allein nicht die Sprachwechselergebnisse erklären kann. Insbesondere weist diese Doktorarbeit darauf hin, dass Sprachkontrolle stark von den drei obengenannten Faktoren beeinflusst ist. Im Allgemeinen zeigen die Ergebnisse dieser Dissertation, dass Sprachkontrolle bei Mehrsprachigen ein bedeutend dynamischeres System ist als vorher gedacht, und sie ist nicht ausschließlich durch Sprachdominanz geregelt, wie das IC Modell (Green, 1998) vorschlägt. KW - language switching KW - language inhibition KW - bilingualism KW - trilingualism KW - multilingualism KW - IC Model KW - language production KW - language recognition KW - Sprachwechsel KW - Sprachinhibition KW - Zweisprachigkeit KW - Dreisprachigkeit KW - Mehrsprachigkeit KW - IC Modell KW - Sprachproduktion KW - Spracherkennung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398912 ER - TY - THES A1 - Muldashev, Iskander T1 - Modeling of the great earthquake seismic cycles T1 - Modellierung der seismischen Zyklen von Mega-Erdbeben N2 - The timing and location of the two largest earthquakes of the 21st century (Sumatra, 2004 and Tohoku 2011, events) greatly surprised the scientific community, indicating that the deformation processes that precede and follow great megathrust earthquakes remain enigmatic. During these phases before and after the earthquake a combination of multi-scale complex processes are acting simultaneously: Stresses built up by long-term tectonic motions are modified by sudden jerky deformations during earthquakes, before being restored by multiple ensuing relaxation processes. This thesis details a cross-scale thermomechanical model developed with the aim of simulating the entire subduction process from earthquake (1 minute) to million years’ time scale, excluding only rupture propagation. The model employs elasticity, non-linear transient viscous rheology, and rate-and-state friction. It generates spontaneous earthquake sequences, and, by using an adaptive time-step algorithm, recreates the deformation process as observed naturally over single and multiple seismic cycles. The model is thoroughly tested by comparing results to those from known high- resolution solutions of generic modeling setups widely used in modeling of rupture propagation. It is demonstrated, that while not modeling rupture propagation explicitly, the modeling procedure correctly recognizes the appearance of instability (earthquake) and correctly simulates the cumulative slip at a fault during great earthquake by means of a quasi-dynamic approximation. A set of 2D models is used to study the effects of non-linear transient rheology on the postseismic processes following great earthquakes. Our models predict that the viscosity in the mantle wedge drops by 3 to 4 orders of magnitude during a great earthquake with magnitude above 9. This drop in viscosity results in spatial scales and timings of the relaxation processes following the earthquakes that are significantly different to previous estimates. These models replicate centuries long seismic cycles exhibited by the greatest earthquakes (like the Great Chile 1960 Earthquake) and are consistent with the major features of postseismic surface displacements recorded after the Great Tohoku Earthquake. The 2D models are also applied to study key factors controlling maximum magnitudes of earthquakes in subduction zones. Even though methods of instrumentally observing earthquakes at subduction zones have rapidly improved in recent decades, the characteristic recurrence interval of giant earthquakes (Mw>8.5) is much larger than the currently available observational record and therefore the necessary conditions for giant earthquakes are not clear. Statistical studies have recognized the importance of the slab shape and its surface roughness, state of the strain of the upper plate and thickness of sediments filling the trenches. In this thesis we attempt to explain these observations and to identify key controlling parameters. We test a set of 2D models representing great earthquake seismic cycles at known subduction zones with various known geometries, megathrust friction coefficients, and convergence rates implemented. We found that low-angle subduction (large effect) and thick sediments in the subduction channel (smaller effect) are the fundamental necessary conditions for generating giant earthquakes, while the change of subduction velocity from 10 to 3.5 cm/yr has a lower effect. Modeling results also suggest that having thick sediments in the subduction channel causes low static friction, resulting in neutral or slightly compressive deformation in the overriding plate for low-angle subduction zones. These modeling results agree well with observations for the largest earthquakes. The model predicts the largest possible earthquakes for subduction zones of given dipping angles. The predicted maximum magnitudes exactly threshold magnitudes of all known giant earthquakes of 20th and 21st centuries. The clear limitation of most of the models developed in the thesis is their 2D nature. Development of 3D models with comparable resolution and complexity will require significant advances in numerical techniques. Nevertheless, we conducted a series of low-resolution 3D models to study the interaction between two large asperities at a subduction interface separated by an aseismic gap of varying width. The novelty of the model is that it considers behavior of the asperities during multiple seismic cycles. As expected, models show that an aseismic gap with a narrow width could not prevent rupture propagation from one asperity to another, and that rupture always crosses the entire model. When the gap becomes too wide, asperities do not interact anymore and rupture independently. However, an interesting mode of interaction was observed in the model with an intermediate width of the aseismic gap: In this model the asperities began to stably rupture in anti-phase following multiple seismic cycles. These 3D modeling results, while insightful, must be considered preliminary because of the limitations in resolution. The technique developed in this thesis for cross-scale modeling of seismic cycles can be used to study the effects of multiple seismic cycles on the long-term deformation of the upper plate. The technique can be also extended to the case of continental transform faults and for the advanced 3D modeling of specific subduction zones. This will require further development of numerical techniques and adaptation of the existing advanced highly scalable parallel codes like LAMEM and ASPECT. N2 - Zeitpunkt und Ort der zwei größten Erdbeben des 21. Jahrhunderts (Sumatra 2004 und Tohoku 2011) überraschten die wissenschaftliche Gemeinschaft, da sie darauf hindeuten, dass die einem Megathrust-Erdbeben vorangehenden und folgenden Deformationsprozesse weiterhin rästelhaft bleiben. Ein Problem ist die komplexe Art der Subduktionsprozesse auf unterschiedlichen Skalen. Spannungen werden durch langzeitliche, tektonische Bewegungen aufgebaut, von plötzlicher, ruckartiger Deformation während Erdbeben modifiziert und anschließend durch verschiedene Entspannungsprozesse wiederhergestellt. In dieser Arbeit wird ein skalen-übergreifendes thermomechanisches Modell entwickelt mit dem Ziel den vollständigen Subduktionsprozess von kleiner Skala (Minuten, z.B. Erdbeben) bis zu Millionen Jahren zu simulieren. Dabei bleibt nur das dynamische Prozess der unberücksichtigt. Das Modell nutzt Elastizität, nicht-lineare transient viskose Rheologie und „rate-and-state“ Reibungsgesetz. Es erzeugt spontane Erdbeben-Sequenzen und stellt durch das Nutzen eines adaptiven Zeitschritt Algorithmus den Deformationsprozess nach, wie er in der Natur während einzelner und mehrerer seismischer Zyklen beobachtet wird. Anhand der 2D-Modell Reihe werden die Effekte der nicht-linearen transient (viskosen) Rheologie auf postseismische Prozesse nach großen Erdbeben untersucht. Die Modelle sagen eine Verringerung der Mantelkeil-Viskosität um 3 bis 4 Größenordnungen während der großen Erdbeben (Mw > 9) vorher. Im Gegensatz zur momentanen Meinung, ergeben sich andere räumliche und zeitliche Verteilungen des Entspannungsprozesses nach großen Erdbeben. Jahrhunderte lange seismische Zyklen, wie zum Beispiel das große Erdbeben in Chile 1960, werden reproduziert und stimmen mit den Hauptmerkmalen der postseismischen Oberflächenverschiebungen überein, die nach dem großen Tohoku Erdbeben aufgezeichnet wurden. Mithilfe der 2D-Modelle werden außerdem Schlüsselfaktoren untersucht, die die maximale Magnitude von Erdbeben bestimmen. Obwohl die instrumentellen Methoden zur Beobachtung von Erdbeben in Subduktionszonen in den letzten Jahrzehnten stetig verbessert wurden, kann das Auftreten der größten Erdbeben (Mw > 8.5) und die dafür vorrauszusetzenden Bedingungen nicht genau bestimmt werden, da die charackeristische Zeit für ein Wiederauftreten deutlich größer als der Beobachtungszeitraum ist. Wir versuchen in dieser Arbeit diese Beobachtungen zu erklären und die kontrollierenden Schlüsselfaktoren zu bestimmen. Eine 2D-Modell Reihe mit großen, seismischen Erdbebenzyklen untersucht unterschiedliche Geometrien von Subduktionszonen sowie Reibungskoeffizieten an der Subduktions Platten-Grenzoberfläche und Konvergenzraten. Subduktion mit geringem Winkel (großer Effekt) und mächtige Sedimente im Subduktionskanal (kleiner Effekt) sind grundlegend notwendige Bedingungen für riesige Erdbeben, während eine Änderung des Reibungsparameters nur geringe Auswirkungen hat. Die Modellierungsergebnisse sind in viiÜbereinstimmung mit den Beobachtungen von den größten Erdbeben. Die maximale vohergesagte Magnituden liegen an der oberen Grenze alle historische Beben der 20. und 21. Jahrhunderden. Die größte Einschränkung der entwickelten Modelle ist ihre 2-dimensionale Natur. Um die Interaktion zwischen zwei großen Unebenheiten („asperities“) auf der Subduktions Platten-Grenzoberfläche, die von einer aseismischen Lücke („gap“) voneinander getrennt sind, zu untersuchen, wurde eine 3D-Modell Reihe mit geringer Auflösung durchgeführt. Neu an diesem Modell ist, dass das Verhalten der Unebenheiten während mehrerer seismischer Zyklen berücksichtigt wird. Wie erwartet zeigt das Modell, dass eine schmale, aseismische Lücke ein Propagieren von Brüchen von einer Unebenheit zur nächsten nicht verhindern kann und diese Brüche das gesamte Modell durchkreuzen. Wird die Lücke zu groß interagieren die Unebenheiten nicht mehr miteinander und brechen unabhängig voneinander. Allerdings wurde in dem Modell mit mittlerer Breite der aseismischen Lücke eine interessante Art von Interaktion beobachtet: Nach einigen seismischen Zyklen beginnen die Unebenheiten kontinuerlich und zwar in Gegen-Phasen zu brechen. Diese Ergebnisse sind andeutend, aber können aufgrund der geringen Auflösung des Models nur als vorläufig angesehen werden und erfordern weitere Bestätigung mit hoch-auflösenden Modellen. KW - earthquake modeling KW - seismic cycle modeling KW - subduction KW - numerical modeling KW - Erdbeben Modellierung KW - Modellierung des seismischen Zyklus KW - Subduktion KW - numerische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398926 ER - TY - THES A1 - Munz, Matthias T1 - Water flow and heat transport modelling at the interface between river and aquifer T1 - Wasserfluss- und Wärmetransportmodellierung an der Schnittstelle zwischen Fluss und Grundwasserleiter N2 - The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns. The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions. The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches. N2 - Die Interaktion zwischen Oberflächenwasser und Grundwasser hat einen entscheidenden Einfluss auf die Wasserqualität und die ökologische Beschaffenheit von Seen, Flüssen und aquatischen Ökosystemen. Der Austausch von Wärme und gelösten Substanzen zwischen diesen beiden Kompartimenten ist maßgeblich durch die Austauschraten und die Strömungsrichtung des Wassers beeinflusst. Somit ist die Charakterisierung dieser beiden Größen in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser von besonderer Bedeutung. Diese Arbeit präsentiert die Entwicklung und Anwendung von Methoden zur Untersuchung der zeitlichen und räumlichen Dynamik des Wasser- und Wärmeflusses an der Schnittstelle zwischen Oberflächenwasser und Grundwasser. Die Arbeit besteht im Wesentlichen aus zwei Schwerpunkten. Der erste Schwerpunkt beinhaltet die Entwicklung und Bewertung von analytischen und numerischen Methoden zur Bestimmung der horizontalen Strömungsrichtung und Austauschraten unter Verwendung von kontinuierlich gemessenen Temperaturzeitreihen entlang vertikaler Profile im gesättigten Sediment. Flussbetttemperaturen können relativ einfach und kostengünstig entlang eines Flussabschnittes in verschiedenen Tiefen und unterschiedlichsten Flussbettsedimenten (organisch, sandig bis grob kiesig) gemessen werden. Die Hauptverwendung solcher Temperaturprofile ist bisher auf die analytische Quantifizierung vertikaler Austauschraten limitiert. Im Rahmen dieser Arbeit wurde ein Ansatz entwickelt, der eine punktuelle Ermittlung der horizontalen Strömungs-komponente, basierend auf der Veränderung der täglichen Temperaturamplitude mit zunehmender Tiefe, ermöglicht. Weiterhin wurde ein inverser, numerischer Ansatz entwickelt, der die ein-dimensionale Wärmetransportgleichung numerisch löst und mittels inverser Optimierungsalgorithmen die simulierten Temperaturen bestmöglich an die gemessenen Flussbetttemperaturen anpasst. Diese Methode ermöglicht die automatische, zeitlich variable Quantifizierung vertikaler Austauschraten an der Schnittstelle zwischen Oberflächenwasser und Grundwasser sowie eine einfache Unsicherheitsbetrachtung aufgrund der zugrunde liegenden Parameterunsicherheiten. Der zweite Schwerpunkt der Arbeit liegt auf der Anwendung der entwickelten Methoden und der Erstellung eines dreidimensionalen Simulationsmodelles entlang eines Flussabschnittes der Selke. Numerische Strömungs- und Stofftransportmodelle ermöglichen die gekoppelte Simulation von Fließprozessen im offenen Gerinne und im darunter liegenden porösen Medium. Die Parametrisierung des Modells erfolgte anhand empirischer Daten die im Untersuchungsgebiet detailliert erhoben wurden. Die Simulationsergebnisse zeigten zum einen gebietsspezifische Gegebenheiten auf, ermöglichten darüber hinaus jedoch auch die Beschreibung allgemeiner Muster und Zusammenhänge welche die Wasserfluss- und Wärmetransportprozesse an der Schnittstelle zwischen Oberflächenwasser und Grundwasser beeinflussen. So zeigten die Ergebnisse dieser Arbeit, dass maßgeblich die natürlich vorhandenen Flussbettstrukturen die Austauschraten und die Strömungsrichtung zwischen Oberflächenwasser und Grundwasser beeinflussen und somit den hyporheischen Austausch bestimmen. Wichtige Einflussfaktoren auf die untersuchten Austauschprozesse waren die Lage im Gerinne relativ zur Flussbettstruktur und der vorherrschende Wasserstand (Abfluss). Bedingt durch den Wasser- und Wärmeaustausch prägten sich im Untersuchungsgebiet Bereiche aus in denen die täglichen Temperaturschwingungen tief in das Sediment eindringen (Anstrombereich der Flussbettstrukturen), als auch Bereiche in denen relativ konstante Temperaturen, nahe der Grundwassertemperatur, vorherrschten. Die durchschnittliche Temperatur in der hyporheischen Zone wurde durch die saisonalen Temperaturschwankungen im Oberflächenwasser dominiert, wobei die Temperaturen entlang einzelner Fließpfade stark von der Verweilzeit des Oberflächen- oder Grundwassers im gesättigten Sediment und dem Temperaturgradienten zwischen Fluss und Grundwasser abhängig waren. Trotz der Komplexität dieser Zusammenhänge, ermöglichten die Simulationsergebnisse die Ableitung einer allgemeinen empirischen Beziehung zwischen den hyporheischen Verweilzeiten und Temperaturmustern. Sowohl die Verweilzeiten als auch die Temperatur im gesättigten Sediment haben einen entscheiden Einfluss auf biogeochemische Prozesse in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser und sind somit von besonderer Bedeutung für die Wasserqualität von Seen, Flüssen und aquatischen Ökosystemen. KW - surface water-groundwater interaction KW - Oberflächenwasser-Grundwasser Interaktion KW - hyporheic zone KW - hyporheische Zone KW - numerical modeling KW - numerische Modellierung KW - heat transport KW - Wärmetransport KW - temperature KW - Temperatur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404319 ER - TY - THES A1 - Murawski, Aline T1 - Trends in precipitation over Germany and the Rhine basin related to changes in weather patterns T1 - Zeitliche Veränderungen im Niederschlag über Deutschland und dem Rheineinzugsgebiet in Zusammenhang mit Wetterlagen N2 - Niederschlag als eine der wichtigsten meteorologischen Größen für Landwirtschaft, Wasserversorgung und menschliches Wohlbefinden hat schon immer erhöhte Aufmerksamkeit erfahren. Niederschlagsmangel kann verheerende Auswirkungen haben, wie z.B. Missernten und Wasserknappheit. Übermäßige Niederschläge andererseits bergen jedoch ebenfalls Gefahren in Form von Hochwasser oder Sturzfluten und wiederum Missernten. Daher wurde viel Arbeit in die Detektion von Niederschlagsänderungen und deren zugrundeliegende Prozesse gesteckt. Insbesondere angesichts von Klimawandel und unter Berücksichtigung des Zusammenhangs zwischen Temperatur und atmosphärischer Wasserhaltekapazität, ist großer Bedarf an Forschung zum Verständnis der Auswirkungen von Klimawandel auf Niederschlagsänderungen gegeben. Die vorliegende Arbeit hat das Ziel, vergangene Veränderungen in Niederschlag und anderen meteorologischen Variablen zu verstehen. Für verschiedene Zeiträume wurden Tendenzen gefunden und mit entsprechenden Veränderungen in der großskaligen atmosphärischen Zirkulation in Zusammenhang gebracht. Die Ergebnisse dieser Arbeit können als Grundlage für die Attributierung von Hochwasserveränderungen zu Klimawandel genutzt werden. Die Annahmen für die Maßstabsverkleinerung („Downscaling“) der Daten von großskaligen Zirkulationsmodellen auf die lokale Skala wurden hier getestet und verifziert. In einem ersten Schritt wurden Niederschlagsveränderungen in Deutschland analysiert. Dabei lag der Fokus nicht nur auf Niederschlagssummen, sondern auch auf Eigenschaften der statistischen Verteilung, Übergangswahrscheinlichkeiten als Maß für Trocken- und Niederschlagsperioden und Extremniederschlagsereignissen. Den räumlichen Fokus auf das Rheineinzugsgebiet, das größte Flusseinzugsgebiet Deutschlands und einer der Hauptwasserwege Europas, verlagernd, wurden nachgewiesene Veränderungen in Niederschlag und anderen meteorologischen Größen in Bezug zu einer „optimierten“ Wetterlagenklassifikation analysiert. Die Wetterlagenklassifikation wurde unter der Maßgabe entwickelt, die Varianz des lokalen Klimas bestmöglich zu erklären. Die letzte hier behandelte Frage dreht sich darum, ob die beobachteten Veränderungen im lokalen Klima eher Häufigkeitsänderungen der Wetterlagen zuzuordnen sind oder einer Veränderung der Wetterlagen selbst. Eine gebräuchliche Annahme für einen Downscaling-Ansatz mit Hilfe von Wetterlagen und einem stochastischen Wettergenerator ist, dass Klimawandel sich allein durch eine Veränderung der Häufigkeit von Wetterlagen ausdrückt, die Eigenschaften der Wetterlagen dabei jedoch konstant bleiben. Diese Annahme wurde überprüft und die Fähigkeit der neuesten Generation von Zirkulationsmodellen, diese Wetterlagen zu reproduzieren, getestet. Niederschlagsveränderungen in Deutschland im Zeitraum 1951–2006 lassen sich zusammenfassen als negativ im Sommer und positiv in allen anderen Jahreszeiten. Verschiedene Niederschlagscharakteristika bestätigen die Tendenz in den Niederschlagssummen: während mittlere und extreme Niederschlagstageswerte im Winter zugenommen haben, sind auch zusammenhängende Niederschlagsperioden länger geworden (ausgedrückt als eine gestiegene Wahrscheinlichkeit für einen Tag mit Niederschlag gefolgt von einem weiteren nassen Tag). Im Sommer wurde das Gegenteil beobachtet: gesunkene Niederschlagssummen, untermauert von verringerten Mittel- und Extremwerten und längeren Trockenperioden. Abseits dieser allgemeinen Zusammenfassung für das gesamte Gebiet Deutschlands, ist die räumliche Verteilung von Niederschlagsveränderungen deutlich heterogener. Vermehrter Niederschlag im Winter wurde hauptsächlich im Nordwesten und Südosten Deutschlands beobachtet, während im Frühling die stärksten Veränderungen im Westen und im Herbst im Süden aufgetreten sind. Das saisonale Bild wiederum löst sich für die zugehörigen Monate auf, z.B. setzt sich der Anstieg im Herbstniederschlag aus deutlich vermehrtem Niederschlag im Südwesten im Oktober und im Südosten im November zusammen. Diese Ergebnisse betonen die starken räumlichen Zusammenhänge der Niederschlagsänderungen. Der nächste Schritt hinsichtlich einer Zuordnung von Niederschlagsveränderungen zu Änderungen in großskaligen Zirkulationsmustern, war die Ableitung einer Wetterlagenklassifikation, die die betrachteten lokalen Klimavariablen hinreichend stratifizieren kann. Fokussierend auf Temperatur, Globalstrahlung und Luftfeuchte zusätzlich zu Niederschlag, wurde eine Klassifikation basierend auf Luftdruck, Temperatur und spezifischer Luftfeuchtigkeit als am besten geeignet erachtet, die Varianz der lokalen Variablen zu erklären. Eine vergleichsweise hohe Anzahl von 40 Wetterlagen wurde ausgewählt, die es erlaubt, typische Druckmuster durch die zusätzlich verwendete Temperaturinformation einzelnen Jahreszeiten zuzuordnen. Während die Fähigkeit, Varianz im Niederschlag zu erklären, relativ gering ist, ist diese deutlich besser für Globalstrahlung und natürlich Temperatur. Die meisten der aktuellen Zirkulationsmodelle des CMIP5-Ensembles sind in der Lage, die Wetterlagen hinsichtlich Häufigkeit, Saisonalität und Persistenz hinreichend gut zu reproduzieren. Schließlich wurden dieWetterlagen bezüglich Veränderungen in ihrer Häufigkeit, Saisonalität und Persistenz, sowie der Wetterlagen-spezifischen Niederschläge und Temperatur, untersucht. Um Unsicherheiten durch die Wahl eines bestimmten Analysezeitraums auszuschließen, wurden alle möglichen Zeiträume mit mindestens 31 Jahren im Zeitraum 1901–2010 untersucht. Dadurch konnte die Annahme eines konstanten Zusammenhangs zwischen Wetterlagen und lokalem Wetter gründlich überprüft werden. Es wurde herausgefunden, dass diese Annahme nur zum Teil haltbar ist. Während Veränderungen in der Temperatur hauptsächlich auf Veränderungen in der Wetterlagenhäufigkeit zurückzuführen sind, wurde für Niederschlag ein erheblicher Teil von Veränderungen innerhalb einzelner Wetterlagen gefunden. Das Ausmaß und sogar das Vorzeichen der Veränderungen hängt hochgradig vom untersuchten Zeitraum ab. Die Häufigkeit einiger Wetterlagen steht in direkter Beziehung zur langfristigen Variabilität großskaliger Zirkulationsmuster. Niederschlagsveränderungen variieren nicht nur räumlich, sondern auch zeitlich – Aussagen über Tendenzen sind nur in Bezug zum jeweils untersuchten Zeitraum gültig. Während ein Teil der Veränderungen auf Änderungen der großskaligen Zirkulation zurückzuführen ist, gibt es auch deutliche Veränderungen innerhalb einzelner Wetterlagen. Die Ergebnisse betonen die Notwendigkeit für einen sorgfältigen Nachweis von Veränderungen möglichst verschiedene Zeiträume zu untersuchen und mahnen zur Vorsicht bei der Anwendung von Downscaling-Ansätzen mit Hilfe von Wetterlagen, da diese die Auswirkungen von Klimaveränderungen durch das Vernachlässigen von Wetterlagen-internen Veränderungen falsch einschätzen könnten. N2 - Precipitation as the central meteorological feature for agriculture, water security, and human well-being amongst others, has gained special attention ever since. Lack of precipitation may have devastating effects such as crop failure and water scarcity. Abundance of precipitation, on the other hand, may as well result in hazardous events such as flooding and again crop failure. Thus, great effort has been spent on tracking changes in precipitation and relating them to underlying processes. Particularly in the face of global warming and given the link between temperature and atmospheric water holding capacity, research is needed to understand the effect of climate change on precipitation. The present work aims at understanding past changes in precipitation and other meteorological variables. Trends were detected for various time periods and related to associated changes in large-scale atmospheric circulation. The results derived in this thesis may be used as the foundation for attributing changes in floods to climate change. Assumptions needed for the downscaling of large-scale circulation model output to local climate stations are tested and verified here. In a first step, changes in precipitation over Germany were detected, focussing not only on precipitation totals, but also on properties of the statistical distribution, transition probabilities as a measure for wet/dry spells, and extreme precipitation events. Shifting the spatial focus to the Rhine catchment as one of the major water lifelines of Europe and the largest river basin in Germany, detected trends in precipitation and other meteorological variables were analysed in relation to states of an ``optimal'' weather pattern classification. The weather pattern classification was developed seeking the best skill in explaining the variance of local climate variables. The last question addressed whether observed changes in local climate variables are attributable to changes in the frequency of weather patterns or rather to changes within the patterns itself. A common assumption for a downscaling approach using weather patterns and a stochastic weather generator is that climate change is expressed only as a changed occurrence of patterns with the pattern properties remaining constant. This assumption was validated and the ability of the latest generation of general circulation models to reproduce the weather patterns was evaluated. % Paper 1 Precipitation changes in Germany in the period 1951-2006 can be summarised briefly as negative in summer and positive in all other seasons. Different precipitation characteristics confirm the trends in total precipitation: while winter mean and extreme precipitation have increased, wet spells tend to be longer as well (expressed as increased probability for a wet day followed by another wet day). For summer the opposite was observed: reduced total precipitation, supported by decreasing mean and extreme precipitation and reflected in an increasing length of dry spells. Apart from this general summary for the whole of Germany, the spatial distribution within the country is much more differentiated. Increases in winter precipitation are most pronounced in the north-west and south-east of Germany, while precipitation increases are highest in the west for spring and in the south for autumn. Decreasing summer precipitation was observed in most regions of Germany, with particular focus on the south and west. The seasonal picture, however, was again differently represented in the contributing months, e.g.\ increasing autumn precipitation in the south of Germany is formed by strong trends in the south-west in October and in the south-east in November. These results emphasise the high spatial and temporal organisation of precipitation changes. % Paper 2 The next step towards attributing precipitation trends to changes in large-scale atmospheric patterns was the derivation of a weather pattern classification that sufficiently stratifies the local climate variables under investigation. Focussing on temperature, radiation, and humidity in addition to precipitation, a classification based on mean sea level pressure, near-surface temperature, and specific humidity was found to have the best skill in explaining the variance of the local variables. A rather high number of 40 patterns was selected, allowing typical pressure patterns being assigned to specific seasons by the associated temperature patterns. While the skill in explaining precipitation variance is rather low, better skill was achieved for radiation and, of course, temperature. Most of the recent GCMs from the CMIP5 ensemble were found to reproduce these weather patterns sufficiently well in terms of frequency, seasonality, and persistence. % Paper 3 Finally, the weather patterns were analysed for trends in pattern frequency, seasonality, persistence, and trends in pattern-specific precipitation and temperature. To overcome uncertainties in trend detection resulting from the selected time period, all possible periods in 1901-2010 with a minimum length of 31 years were considered. Thus, the assumption of a constant link between patterns and local weather was tested rigorously. This assumption was found to hold true only partly. While changes in temperature are mainly attributable to changes in pattern frequency, for precipitation a substantial amount of change was detected within individual patterns. Magnitude and even sign of trends depend highly on the selected time period. The frequency of certain patterns is related to the long-term variability of large-scale circulation modes. Changes in precipitation were found to be heterogeneous not only in space, but also in time - statements on trends are only valid for the specific time period under investigation. While some part of the trends can be attributed to changes in the large-scale circulation, distinct changes were found within single weather patterns as well. The results emphasise the need to analyse multiple periods for thorough trend detection wherever possible and add some note of caution to the application of downscaling approaches based on weather patterns, as they might misinterpret the effect of climate change due to neglecting within-type trends. KW - precipitation KW - weather pattern KW - trend analyses KW - Niederschlag KW - Wetterlagen KW - Trendanalysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412725 ER - TY - THES A1 - Muriu, Abraham Rugo T1 - Performance management in Kenya's public service T1 - Leistungsmanagement in Kenias öffentlichem Dienst BT - a study on performance information use BT - eine Studie über Leistungsinformationen N2 - This study was inspired by the desire to contribute to literature on performance management from the context of a developing country. The guiding research questions were: How do managers use performance information in decision making? Why do managers use performance information the way they do? The study was based on theoretical strands of neo-patrimonialism and new institutionalism. The nature of the inquiry informed the choice of a qualitative case study research design. Data was assembled through face-to-face interviews, some observations, and collection of documents from managers at the levels of the directorate, division, and section/units. The managers who were the focus of this study are current or former staff members of the state departments in Kenya’s national Ministry of Agriculture, Livestock, and Fisheries as well as from departments responsible for coordination of performance related reforms. The findings of this study show that performance information is regularly produced but its use by managers varies. Examples of use include preparing reports to external bodies, making decisions for resource re-allocation, making recommendations for rewards and sanctions, and policy advisory. On categorizing the forms of use as passive, purposeful, political or perverse, evidence shows that they overlap and that some of the forms are so closely related that it is difficult to separate them empirically. On what can explain the forms of use established, four factors namely; political will and leadership; organizational capacity; administrative culture; and managers’ interests and attitudes, were investigated. While acknowledging the interrelatedness and even overlapping of the factors, the study demonstrates that there is explanatory power to each though with varying depth and scope. The study thus concludes that: Inconsistent political will and leadership for performance management reforms explain forms of use that are passive, political and perverse. Low organizational capacity could best explain passive and some limited aspects of purposeful use. Informal, personal and competitive administrative culture is associated with purposeful use and mostly with political and perverse use. Limited interest and apprehensive attitude are best associated with passive use. The study contributes to the literature particularly in how institutions in a context of neo-patrimonialism shape performance information use. It recommends that further research is necessary to establish how neo-patrimonialism positively affects performance oriented reforms. This is interesting in particular given the emerging thinking on pockets of effectiveness and developmental patrimonialism. This is important since it is expected that performance related reforms will continue to be advocated in developing countries in the foreseeable future. N2 - Diese Studie wurde von dem Wunsch inspiriert einen Beitrag zu der Performance Management Literatur zu leisten und zwar aus dem Kontext eines Entwicklungslandes. Die Fragen, die diese Forschung geleitet haben waren: Wie nutzen Manager Performance Information in der Entscheidungsfindung? Warum nutzen Manager Performance Informationen auf eine bestimmte Weise? Die Studie basiert auf theoretischen Strömungen des Neo-Patrimonialismus und des Neo-Institutionalismus. Die Art der Untersuchung und Fragestellung verlangten nach einem qualitativen Forschungsdesign und einer Fallstudie. Die Datenerhebung stützte sich auf Interviews, Beobachtungen und Dokumente von 50 Managern auf Direktoratsebene, Abteilungsebene und Referatsebene. Die Manager, die im Fokus dieser Untersuchung standen, sind derzeitige und ehemalige Mitarbeiter in Kenias Ministerium für Landwirtschaft, Viehzucht und Fischerei, sowie der Abteilung zuständig für die Koordination von Performancebezogenen Reformen. Die Ergebnisse dieser Studie zeigen, dass Performanceinformationen regelmäßig produziert, jedoch unterschiedlich genutzt werden. Die Erstellung von Berichten für externe Stellen, Entscheidungen zur Ressourcenverteilung, Empfehlungen für Belohnungen und Sanktionen, sowie für Richtlinien sind Beispiele für die Nutzung von Performanceinformationen. Eine Kategorisierung dieser Nutzungsarten in passiv, intendiert, politisch oder pervertiert, zeigt dass diese überlappen und zum Teil so sehr miteinander verbunden sind, dass sie nur sehr schwer empirisch zu trennen sind. Hinsichtlich der Einflussfaktoren auf die Nutzung hat diese Studie vier Faktoren untersucht: Politischer Wille und Führungsverhalten; Kapazität der Organisation; administrative Kultur; Interessen und Einstellungen der Führungskräfte. Obwohl diese Faktoren zusammenhängen und sogar überlappen zeigt diese Studie, dass jeder einzelne Faktor Erklärungskraft besitzt, wenn auch zu unterschiedlichem Grad. Aus dieser Studie lässt sich folgern, dass inkonsistenter politischer Wille und Führungsverhalten in Bezug auf Reformen des Performance Managements passive, politische und pervertierte Formen der Nutzung erklären. Niedrige Kapazität der Organisation erklärt passive Nutzung sowie Teilaspekte von intendierter Nutzung. Eine informale, persönliche und kompetitive Administrationskultur ist verknüpft mit intendierter Nutzung, hauptsächlich aber mit politischer und pervertierter Nutzung. Eingeschränktes Interesse und ablehnende Einstellung wird mit passiver Nutzung in Verbindung gebracht. Diese Studie trägt zu Literatur bei, die sich damit befasst, inwieweit Institutionen in einem von Neo-Patrimonialismus geprägten Kontext die Nutzung von Performanceinformation beeinflusst. Weitere Forschung ist notwendig, um zu untersuchen wie Neo-Patrimonialismus performanceorientierte Reformen positiv beeinflusst. Dies ist besonders in Anbetracht von Nischen der Effektivität und Entwicklungspatrimonialismus bedeutsam. Dies ist besonders relevant, da davon ausgegangen werden kann, dass Performance-bezogene Reformen auch in Zukunft weiter in Entwicklungsländern verbreitet werden. KW - performance management KW - performance information use KW - Kenya public service KW - Leistungsmanagement KW - Leistungsinformationen verwenden KW - Kenias öffentlicher Dienst Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403281 ER -