TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - THES A1 - Fucik, Markus T1 - Bayesian risk management : "Frequency does not make you smarter" T1 - Bayesianisches Risko-Management : "Frequency does not make you smarter" N2 - Within our research group Bayesian Risk Solutions we have coined the idea of a Bayesian Risk Management (BRM). It claims (1) a more transparent and diligent data analysis as well as (2)an open-minded incorporation of human expertise in risk management. In this dissertation we formulize a framework for BRM based on the two pillars Hardcore-Bayesianism (HCB) and Softcore-Bayesianism (SCB) providing solutions for the claims above. For data analysis we favor Bayesian statistics with its Markov Chain Monte Carlo (MCMC) simulation algorithm. It provides a full illustration of data-induced uncertainty beyond classical point-estimates. We calibrate twelve different stochastic processes to four years of CO2 price data. Besides, we calculate derived risk measures (ex ante/ post value-at-risks, capital charges, option prices) and compare them to their classical counterparts. When statistics fails because of a lack of reliable data we propose our integrated Bayesian Risk Analysis (iBRA) concept. It is a basic guideline for an expertise-driven quantification of critical risks. We additionally review elicitation techniques and tools supporting experts to express their uncertainty. Unfortunately, Bayesian thinking is often blamed for its arbitrariness. Therefore, we introduce the idea of a Bayesian due diligence judging expert assessments according to their information content and their inter-subjectivity. N2 - Die vorliegende Arbeit befasst sich mit den Ansätzen eines Bayes’schen Risikomanagements zur Messung von Risiken. Dabei konzentriert sich die Arbeit auf folgende zentrale Fragestellungen: (1) Wie ist es möglich, transparent Risiken zu quantifizieren, falls nur eine begrenzte Anzahl an geeigneten historischen Beobachtungen zur Datenanalyse zur Verfügung steht? (2) Wie ist es möglich, transparent Risiken zu quantifizieren, falls mangels geeigneter historischer Beobachtungen keine Datenanalyse möglich ist? (3) Inwieweit ist es möglich, Willkür und Beliebigkeit bei der Risikoquantifizierung zu begrenzen? Zur Beantwortung der ersten Frage schlägt diese Arbeit die Anwendung der Bayes’schen Statistik vor. Im Gegensatz zu klassischen Kleinste-Quadrate bzw. Maximum-Likelihood Punktschätzern können Bayes’sche A-Posteriori Verteilungen die dateninduzierte Parameter- und Modellunsicherheit explizit messen. Als Anwendungsbeispiel werden in der Arbeit zwölf verschiedene stochastische Prozesse an CO2-Preiszeitreihen mittels des effizienten Bayes’schen Markov Chain Monte Carlo (MCMC) Simulationsalgorithmus kalibriert. Da die Bayes’sche Statistik die Berechnung von Modellwahrscheinlichkeiten zur kardinalen Modellgütemessung erlaubt, konnten Log-Varianz Prozesse als mit Abstand beste Modellklasse identifiziert werden. Für ausgewählte Prozesse wurden zusätzlich die Auswirkung von Parameterunsicherheit auf abgeleitete Risikomaße (ex-ante/ ex-post Value-at-Risks, regulatorische Kapitalrücklagen, Optionspreise) untersucht. Generell sind die Unterschiede zwischen Bayes’schen und klassischen Risikomaßen umso größer, je komplexer die Modellannahmen für den CO2-Preis sind. Überdies sind Bayes’sche Value-at-Risks und Kapitalrücklagen konservativer als ihre klassischen Pendants (Risikoprämie für Parameterunsicherheit). Bezüglich der zweiten Frage ist die in dieser Arbeit vertretene Position, dass eine Risikoquantifizierung ohne (ausreichend) verlässliche Daten nur durch die Berücksichtigung von Expertenwissen erfolgen kann. Dies erfordert ein strukturiertes Vorgehen. Daher wird das integrated Bayesian Risk Analysis (iBRA) Konzept vorgestellt, welches Konzepte, Techniken und Werkzeuge zur expertenbasierten Identifizierung und Quantifizierung von Risikofaktoren und deren Abhängigkeiten vereint. Darüber hinaus bietet es Ansätze für den Umgang mit konkurrierenden Expertenmeinungen. Da gerade ressourceneffiziente Werkzeuge zur Quantifizierung von Expertenwissen von besonderem Interesse für die Praxis sind, wurden im Rahmen dieser Arbeit der Onlinemarkt PCXtrade und die Onlinebefragungsplattform PCXquest konzipiert und mehrfach erfolgreich getestet. In zwei empirischen Studien wurde zudem untersucht, inwieweit Menschen überhaupt in der Lage sind, ihre Unsicherheiten zu quantifizieren und inwieweit sie Selbsteinschätzungen von Experten bewerten. Die Ergebnisse deuten an, dass Menschen zu einer Selbstüberschätzung ihrer Prognosefähigkeiten neigen und tendenziell hohes Vertrauen in solche Experteneinschätzungen zeigen, zu denen der jeweilige Experte selbst hohes Zutrauen geäußert hat. Zu letzterer Feststellung ist jedoch zu bemerken, dass ein nicht unbeträchtlicher Teil der Befragten sehr hohe Selbsteinschätzung des Experten als negativ ansehen. Da der Bayesianismus Wahrscheinlichkeiten als Maß für die persönliche Unsicherheit propagiert, bietet er keinerlei Rahmen für die Verifizierung bzw. Falsifizierung von Einschätzungen. Dies wird mitunter mit Beliebigkeit gleichgesetzt und könnte einer der Gründe sein, dass offen praktizierter Bayesianismus in Deutschland ein Schattendasein fristet. Die vorliegende Arbeit stellt daher das Konzept des Bayesian Due Diligence zur Diskussion. Es schlägt eine kriterienbasierte Bewertung von Experteneinschätzungen vor, welche insbesondere die Intersubjektivität und den Informationsgehalt von Einschätzungen beleuchtet. KW - MCMC Simulation KW - Modelgewichtung KW - Bayesianischer Value-at-Risk KW - Expertenbefragung KW - Zukunftsmärkte KW - MCMC Simulation KW - Model Weighting KW - Bayesian Value-at-Risk KW - Expert Elicitation KW - Prediction Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53089 ER - TY - THES A1 - Strollo, Angelo T1 - Development of techniques for earthquake microzonation studies in different urban environment T1 - Entwicklung von Techniken für Mikrozonierungsstudien von Erdbeben in verschiedenen städtischen Umgebungen N2 - The proliferation of megacities in many developing countries, and their location in areas where they are exposed to a high risk from large earthquakes, coupled with a lack of preparation, demonstrates the requirement for improved capabilities in hazard assessment, as well as the rapid adjustment and development of land-use planning. In particular, within the context of seismic hazard assessment, the evaluation of local site effects and their influence on the spatial distribution of ground shaking generated by an earthquake plays an important role. It follows that the carrying out of earthquake microzonation studies, which aim at identify areas within the urban environment that are expected to respond in a similar way to a seismic event, are essential to the reliable risk assessment of large urban areas. Considering the rate at which many large towns in developing countries that are prone to large earthquakes are growing, their seismic microzonation has become mandatory. Such activities are challenging and techniques suitable for identifying site effects within such contexts are needed. In this dissertation, I develop techniques for investigating large-scale urban environments that aim at being non-invasive, cost-effective and quickly deployable. These peculiarities allow one to investigate large areas over a relative short time frame, with a spatial sampling resolution sufficient to provide reliable microzonation. Although there is a negative trade-off between the completeness of available information and extent of the investigated area, I attempt to mitigate this limitation by combining two, what I term layers, of information: in the first layer, the site effects at a few calibration points are well constrained by analyzing earthquake data or using other geophysical information (e.g., shear-wave velocity profiles); in the second layer, the site effects over a larger areal coverage are estimated by means of single-station noise measurements. The microzonation is performed in terms of problem-dependent quantities, by considering a proxy suitable to link information from the first layer to the second one. In order to define the microzonation approach proposed in this work, different methods for estimating site effects have been combined and tested in Potenza (Italy), where a considerable amount of data was available. In particular, the horizontal-to-vertical spectral ratio computed for seismic noise recorded at different sites has been used as a proxy to combine the two levels of information together and to create a microzonation map in terms of spectral intensity ratio (SIR). In the next step, I applied this two-layer approach to Istanbul (Turkey) and Bishkek (Kyrgyzstan). A similar hybrid approach, i.e., combining earthquake and noise data, has been used for the microzonation of these two different urban environments. For both cities, after having calibrated the fundamental frequencies of resonance estimated from seismic noise with those obtained by analysing earthquakes (first layer), a fundamental frequency map has been computed using the noise measurements carried out within the town (second layer). By applying this new approach, maps of the fundamental frequency of resonance for Istanbul and Bishkek have been published for the first time. In parallel, a microzonation map in terms of SIR has been incorporated into a risk scenario for the Potenza test site by means of a dedicated regression between spectral intensity (SI) and macroseismic intensity (EMS). The scenario study confirms the importance of site effects within the risk chain. In fact, their introduction into the scenario led to an increase of about 50% in estimates of the number of buildings that would be partially or totally collapsed. Last, but not least, considering that the approach developed and applied in this work is based on measurements of seismic noise, their reliability has been assessed. A theoretical model describing the self-noise curves of different instruments usually adopted in microzonation studies (e.g., those used in Potenza, Istanbul and Bishkek) have been considered and compared with empirical data recorded in Cologne (Germany) and Gubbio (Italy). The results show that, depending on the geological and environmental conditions, the instrumental noise could severely bias the results obtained by recording and analysing ambient noise. Therefore, in this work I also provide some guidelines for measuring seismic noise. N2 - Aufgrund des enormen Wachstums neuer Megastädte und deren Vordringen in gefährdete Gebiete auf der einen Seite sowie der mangelnden Erdbebenvorsorge in vielen Entwicklungsländern auf der anderen Seite sind verbesserte Verfahren für die Beurteilung der Gefährdung sowie eine rasche Umsetzung bei der Raumplanung erforderlich. Im Rahmen der seismischen Gefährdungsabschätzung spielt insbesondere die Beurteilung lokaler Standorteffekte und deren Einfluss auf die durch ein Erdbeben verursachte räumliche Verteilung der Bodenerschütterung eine wichtige Rolle. Es ist daher unabdingbar, mittels seismischer Mikrozonierungsstudien diejenigen Bereiche innerhalb dicht besiedelter Gebiete zu ermitteln, in denen ein ähnliches Verhalten im Falle seismischer Anregung erwartet wird, um daraus eine zuverlässige Basis bei der Risikoabschätzung großer städtischer Gebiete zu erhalten. Aufgrund des schnellen Wachstums vieler Großstädte in Entwicklungsländern ist eine seismische Mikrozonierung zwingend erforderlich, stellt aber auch eine große Herausforderung dar; insbesondere müssen Verfahren verfügbar sein, mit deren Hilfe rasch eine Abschätzung der Standorteffekte durchgeführt werden kann. In der vorliegenden Arbeit entwickle ich daher Verfahren für die Untersuchung in Großstädten, die darauf abzielen, nicht-invasiv, kostengünstig und schnell durchführbar zu sein. Damit lassen sich innerhalb eines relativ kurzen Zeitraums große Gebiete untersuchen, falls der räumlichen Abstand zwischen den Messpunkten klein genug ist, um eine zuverlässige Mikrozonierung zu gewährleisten. Obwohl es eine gegenläufige Tendenz zwischen der Vollständigkeit aller Informationen und der Größe des untersuchten Gebiets gibt, versuche ich, diese Einschränkung durch Verknüpfung zweier Informationsebenen zu umgehen: In der ersten Ebene werden die Standorteffekte für einige Kalibrierungspunkte durch die Analyse von Erdbeben oder mittels anderer geophysikalischer Datensätze (z.B. Scherwellengeschwindigkeitsprofile) bestmöglich abgeschätzt, in der zweiten Ebene werden die Standorteffekte durch Einzelstationsmessungen des seismischen Rauschens für ein größeres Gebiet bestimmt. Die Mikrozonierung erfolgt hierbei mittels spezifischer, fallabhängiger Parameter unter Berücksichtigung eines geeigneten Anknüpfungspunktes zwischen den beiden Informationensebenen. Um diesen Ansatz der Mikrozonierung, der in dieser Arbeit verfolgt wurde, zu präzisieren, wurden in Potenza (Italien), wo eine beträchtliche Menge an Daten verfügbar war, verschiedene Verfahren untersucht. Insbesondere kann das Spektralverhältnis zwischen den horizontalen und vertikalen Seismometerkomponenten, welche für das seismische Rauschen an mehreren Orten aufgenommen wurde, als eine erste Näherung für die relative Verstärkung der Bodenbewegung verwendet werden, um darauf aufbauend die beiden Informationsebenen zu verknüpfen und eine Mikrozonierung hinsichtlich des Verhältnisses der spektralen Intensität durchzuführen. Anschließend führte ich diesen Zwei-Ebenen-Ansatz auch für Istanbul (Türkei) und Bischkek (Kirgisistan) durch. Für die Mikrozonierung dieser beiden Städte habe ich denselben Hybridansatz, der Daten von Erdbeben und von seismischem Rauschen verbindet, verwendet. Für beide Städte wurde nach Gegenüberstellung der Resonanzfrequenz des Untergrunds, die zum einen mit Hilfe des seismischen Rauschens, zum anderen durch Analyse von Erdbebendaten bestimmt worden ist (erste Ebene), eine Karte der Resonanzfrequenz unter Verwendung weiterer Messungen des seismischen Rauschens innerhalb des Stadtgebiets erstellt (zweite Ebene). Durch die Anwendung dieses neuen Ansatzes sind vor kurzem zum ersten Mal auch Karten für die Resonanzfrequenz des Untergrunds für Istanbul und Bischkek veröffentlicht worden. Parallel dazu wurde für das Testgebiet in Potenza eine auf dem spektralen Intensitätsverhältnis (SIR) basierende Mikrozonierungskarte in ein Risikoszenario mittels der Regression zwischen SIR und makroseismischer Intensität (EMS) integriert. Diese Szenariostudie bestätigt die Bedeutung von Standorteffekten innerhalb der Risikokette; insbesondere führt deren Einbeziehung in das Szenario zu einem Anstieg von etwa 50% bei der Zahl der Gebäude, für die ein teilweiser oder gar vollständiger Zusammenbruch erwartet werden kann. Abschließend wurde der im Rahmen dieser Arbeit entwickelte und angewandte Ansatz auf seine Zuverlässigkeit geprüft. Ein theoretisches Modell, das zur Beschreibung des Eigenrauschens verschiedener Instrumente, die in der Regel in Mikrozonierungsstudien (z. B. in Potenza, Istanbul und Bischkek) zum Einsatz kommen, wurde untersucht, und die Ergebnisse wurden mit Daten verglichen, die vorher bereits in Köln (Deutschland) und Gubbio (Italien) aufgenommen worden waren. Die Ergebnisse zeigen, dass abhängig von den geologischen und umgebenden Bedingungen das Eigenrauschen der Geräte die Ergebnisse bei der Analyse des seismischen Rauschens stark verzerren kann. Deshalb liefere ich in dieser Arbeit auch einige Leitlinien für die Durchführung von Messungen des seismischen Rauschens. KW - instrumentelle Seismologie KW - Standorteffekte KW - Korrelation KW - seismische Rauschen KW - instrumental seismology KW - site effects KW - correlation KW - seismic noise Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53807 ER - TY - THES A1 - Höchner, Andreas T1 - GPS based analysis of earthquake induced phenomena at the Sunda Arc T1 - GPS-basierte Analyse erdbebeninduzierter Phänomene am Sundabogen N2 - Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties. N2 - Indonesien ist eines der am stärksten von Naturkatastrophen bedrohten Länder der Erde. Die komplexe Interaktion mehrer tektonischer Platten, die sich mit hohen Relativgeschwindigkeiten zueinander bewegen, führt im Mittel zu ungefähr zwei Erdbeben mit Magnitude Mw>7 pro Jahr, was mehr als 15% der Ereignisse weltweit entspricht. Beben mit Magnitude über 9 sind weitaus seltener, haben aber katastrophale Folgen. Die schwerwiegendsten Konsequenzen hierbei werden durch Tsunamis verursacht, welche durch diese Subduktionsbeben ausgelöst werden, wie das Sumatra-Andamanen Ereignis von 2004 gezeigt hat. Um eine wirksame Tsunami-Frühwarnung zu ermöglichen, welche die Abschätzung der Wellenhöhen und Ankunftszeiten beinhaltet, ist es erforderlich, verschieden Arten von Echtzeit-Sensordaten mit numerischen Modellen für die Erdbebenquelle und Tsunamiausbreitung zu kombinieren. Diese Doktorarbeit wurde im Rahmen des GITEWS-Projektes (German Indonesian Tsunami Early Warning System) erstellt und umfasst fünf Fachpublikationen und Manuskripte. Projektbezogene Hauptaufgabe war die Erstellung einer Datenbank mit realistischen Bebenszenarien für den Sundabogen. Die Datenbank beinhaltet Anfangsbedingungen für die Tsunami-Ausbreitungsmodellierung und ist Teil des Simulationssystems im Frühwarnzentrum. Eine sorgfältige Diskretisierung der Subduktionsgeometrie, bestehend aus 25x150 subfaults, wurde basierend auf seismischen Daten erstellt. Greensfunktionen, welche die Deformation, hervorgerufen durch Verschiebung an den subfaults ausmachen, wurden mittels eines semianalytischen Verfahrens für den geschichteten Halbraum berechnet. Verschiedene Skalierungsrelationen für Erdbebendimension und slip-Verteilung wurden implementiert. Eine weitere projektbezogene Aufgabe war die Weiterentwicklung des ‚GPS-Schild’-Konzeptes. Dieses besteht aus einer Konstellation von GPS-Empfängern im Nahfeldbereich, welche sich als sehr wertvoll für die Tsunami-Frühwarnung erweisen. Der größere Teil dieser Doktorarbeit beschäftigt sich mit der geophysikalischen Interpretation von GPS-Daten. Coseismische Verschiebungen an der Erdoberfläche, ausgelöst durch das Erdbeben von 2004, werden nach slip an der Verwerfung invertiert. Die Wirkung verschiedener Erdschichtungsmodelle wird getestet und resultiert in der Bevorzugung einer kontinentalen Struktur. Die Möglichkeit von splay-faulting wird untersucht und erweist sich als zweitrangiger Effekt bezüglich der Tsunamiwirkung für dieses Ereignis. Die auf der Quelleninversion basierenden Tsunamimodelle werden mit satellitengestützen Radaraltimetriedaten verglichen. Postseismische GPS-Daten werden verwendet, um einen weiten Parameterbereich uni- und bi-viskoser Modelle der Asthenosphäre zu testen. Dabei stellt sich stationäre Maxwell-Rheologie als inkompatibel mit Nahfeld-GPS-Zeitreihen heraus, es sei denn, eine große Quantität an afterslip, entsprechend etwa 10% des coseismischen Momentes, wird angenommen. Im Gegensatz dazu ist die transiente Burgers-Rheologie ohne große Mengen an afterslip kompatibel zu den Beobachtungen. Der Vergleich mit postseismischen Geoidbeobachtungen durch die GRACE-Satelliten zeigt, dass das Modell basierend auf Maxwell-Rheologie, auch mit afterslip, zu kleine Amplituden liefert, und bekräftigt die Annahme einer biviskosen Rheologie der Asthenosphäre. Ein einfacher Ansatz, der auf einer quasi-statischen Deformationsausbreitung beruht, wird eingeführt und zur Inversion coseismischer Nahfeld-GPS-Zeitreihen vorgeschlagen. Die Anwendung dieses Ansatzes auf Beobachtungen vom Sumatra-Beben von 2004 ermöglicht nicht die quantitative Rekonstruktion der Ausbreitung des Bruches, da die notwendigen Bedingungen in diesem Fall nicht erfüllt sind. Jedoch zeigen Experimente an synthetischen Daten die Gültigkeit eines solchen Ansatzes zur raschen Abschätzung der Bruchausbreitungseigenschaften. KW - GPS KW - Erdbeben KW - Tsunami KW - Rheologie KW - GITEWS KW - GPS KW - Earthquake KW - Tsunami KW - Rheology KW - GITEWS Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53166 ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Borchers, Andreas T1 - Glaciomarine sedimentation at the continental margin of Prydz Bay, East Antarctica : implications on palaeoenvironmental changes during the Quaternary T1 - Glaziomarine Sedimentation am Kontinentalrand der Prydz-Bucht, Ostantarktis : Schlussfolgerungen hinsichtlich Veränderungen der Paläoumweltbedingungen während des Quartärs N2 - The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research. N2 - Die Antarktis spielt im globalen Umweltsystem eine tragende Rolle. Mit ihrem mächtigen Eispanzer ist sie nicht nur der größte Süsswasserspeicher auf der Erde, in ihren Schelfregionen wird auch ein Großteil der globalen Bodenwassermassen gebildet, welche die globale thermohaline Zirkulation antreiben. Hauptziel dieser Arbeit, welche einen deutschen Beitrag zum Internationalen Polarjahr 2007/ 2008 liefert, war es, neue Erkenntnisse hinsichtlich der Stabilität des Ostantarktischen Eisschildes während des Quartärs zu liefern. Weiterhin sollten Aussagen über Variationen in der Bildung von Antarktischem Bodenwasser und deren Ursachen getroffen werden. Dazu wurde im Rahmen der ‚Polarstern‘ Expedition ANT-XXIII/9 eine Beprobung glaziomariner Sedimente zwischen Prydz Bucht und Kerguelen Plateau durchgeführt. Diese Region eignet sich zur Untersuchung der Ostantarktischen Eisdynamik besonders gut, da hier der Lambert Gletscher, etwa 16% des Ostantarktischen Eispanzers drainiert. Er transportiert dabei Sediment nach Norden, das schließlich die Prydz Bucht erreicht und durch direkten Transport über kalbende Eisberge oder durch Umlagerung und Verteilung mithilfe von Meeresströmungen weiter verfrachtet wird. Der wissenschaftliche Ansatz dieser Arbeit besteht darin, über die Verteilung dieser Sedimente in Raum und Zeit, d.h. über Variationen des glaziomarinen Paläoregimes, die Reaktion des Lambert Gletschers und des vorgelagerten Amery Schelfeises auf Klimaschwankungen während des Quartärs zu rekonstruieren. Dabei werden sowohl sedimentologische Methoden unter Einbeziehung neuer statistischer Möglichkeiten angewandt, um Sedimentationsprozesse zu charakterisieren, als auch mineralogische und (bio)geochemische Parameter verwendet, um Aussagen über die Herkunft der Sedimente und Änderungen in der Produktivität im Oberflächenwasser treffen zu können. Die Altersbestimmung der Sedimentkerne erfolgte mittels Paläomagnetik, Paläointensitäten, Biostratigraphie und Radiokarbondatierungen. Die Oberflächensedimente im Untersuchungsgebiet zeigen deutliche Unterschiede sowohl hinsichtlich ihrer Tonmineral- als auch Schwermineralzusammensetzung. Beide mineralogischen Parameter zeigen die größten Differerenzen auf dem Schelf. Dort lassen sich deutlich Sedimente der Prydz Bucht von Sedimenten des MacRobertson Shelfes differenzieren. Sie stellen daher ein gutes Hilfsmittel dar, um sowohl die Herkunft von eis- als auch strömungstransportiertem Material zu rekonstruieren. Die untersuchten Sedimentkerne decken den Zeitraum der letzten 1,4 Millionen Jahre (Kontinentalhang) bzw. der letzten 12,8 tausend kal. Jahre v. H. ab (MacRobertson Schelf). Die abgelagerten Sedimente wurden i. W. durch glaziale und ozeanographische Einflüsse geprägt, aber auch durch Bioproduktion (Schelf) bzw. durch Schmelzwassereinträge und möglicherweise gravitative Prozesse (Kontinentalhang). In den Sedimenten des Kontinentalhangs sind zwei starke Enteisungsereignisse überliefert: Das erste Ereignis steht mit dem mittelpleistozänen Klimaoptimum in Verbindung, das auch in anderen antarktischen Regionen nachgewiesen wurde. Es führte in der Prydz Bucht zu einem weitreichenden Rückzug des Lambert Gletscher-Amery Schelfeises (LAIS) und gleichzeitig zu einer hohen Primärproduktion. Danach herrschten bis etwa 400 - 500 tausend Jahre v. H. stabile glaziale Bedingungen. Kalbung von Eisbergen war wahrscheinlich auf den westlichen Teil des Lambert Gletschers begrenzt, wo eine tiefere Bathymetrie auch bei niedrigerem globalen Meeresspiegel noch Aufschwimmen des Gletschereises erlaubt. Zwischen 400 - 500 tausend Jahren v. H. und vermutlich dem letzten Interglazial wurde der Gletscher schließlich wieder dynamischer, um mit oder kurz nach dem letzten Interglazial (Meeresspiegel etwa 6 - 9 m höher) eine weitere Phase deutlichen Rückzuges zu durchlaufen. Beide Ereignisse lassen sich mit Phasen der Eisreduktion in den Prinz Charles Bergen korrelieren, d.h. der Rückzug des Lambert Gletschers hatte möglicherweise ein erhöhtes Nachfließen von Eismassen aus dem Hinterland zur Folge. An den Sedimenten des Schelfkernes wurde ein neu entwickeltes Verfahren der Endmember-Modellierung erfolgreich getestet. Der Eisrückzug auf dem MacRobertson Schelf begann etwa 12,8 tausend kal. Jahre v. H. und war gegen 5,5 tausend kal. Jahre v. H. abgeschlossen. Während des Holozäns kam es zu starken Schwankungen in der Bodenwasseraktivität, die höchst wahrscheinlich mit der Neubildungsrate von Meereis in der Kap Darnley Polynia in Zusammenhang stehen. Besonders auffallend war eine erhöhte Bodenwasseraktivität am Übergang von Warm- zu Kaltphasen bzw. ihr extremer Rückgang während des Mittel-Holozänen Klimaoptimums. Insgesamt zeigen die Ergebnisse der Arbeit, dass sich das LAIS während des Quartärs relativ stabil gegenüber Klimaveränderungen verhalten hat. Die Bodenwasserproduktion in Polynien dagegen reagierte sehr empfindlich auf relative geringe atmosphärische Veränderungen und bedarf in Zukunft verstärkter Aufmerksamkeit. KW - Eisdynamik KW - Bodenwasser KW - Ostantarktis KW - Polynia KW - ice dynamics KW - bottom water KW - East Antarctica KW - polynya Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52620 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Schattauer, Sylvia T1 - Hybride Dünnschicht-Solarzellen aus mesoporösem Titandioxid und konjugierten Polymeren T1 - Hybrid thin solar cells comprising mesoporous titanium dioxide and conjugated polymers N2 - Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt. N2 - The main objective of this thesis is to study the active components and their interactions in so called organic hybrid solar cells. These consist of a thin inorganic titanium dioxide layer, combined with a polymer layer. In general, the efficiency of these hybrid solar cells is determined by the light absorption in the donor polymer, the dissociation of excitons at the heterojunction between TiO2 and polymer, as well as the generation and extraction of free charge carriers. To optimize the solar cells, the physical interactions between the materials are modified and the influences of various preparation parameters are systematically investigated. Among others, important findings regarding the optimal use of materials and preparation conditions as well as detailed investigations of fundamental factors such as film morphology and polymer infiltration are presented in more detail. First, a variety of titanium dioxide layer were produced, from which a selection for use in hybrid solar cells was made. The obtained films show differences in surface structure, film morphology and crystallinity, depending on the way how the TiO2 layer has been prepared. All these properties of the TiO2 films may strongly affect the performance of the hybrid solar cells, by influencing e.g. the exciton diffusion length, the efficiency of exciton dissociation at the hybrid interface, and the carrier transport properties. Detailed investigations were made for mesoporous TiO2 layer following a new nanoparticle synthesis route, which allows to produce crystalline particles during the synthesis. As donor component, conjugated polymers, either derivatives of cyclohexylamino-poly(p-phenylene vinylene) (PPV) or a thiophene are used. The preparation routine also includes a thermal treatment of the TiO2 layers, revealing a temperature-dependent change in morphology, but not of the crystal structure. The effects on the solar cell properties have been documented and discussed. To take advantage of the nanoparticle synthesis, the formation of crystalline TiO2 particles by UV crosslinking and first solar cell measurements are presented. In addition to the nature of the TiO2 layer, the influence of polymer morphology is investigated. Different morphologies are realized by solvent variation and thermal annealing. It is shown that, among other factors, the viscosity of the polymer solution and the infiltration into the TiO2 layer mainly affects the efficiency of the solar cell. Another approach to increase the efficiency is the development of new hole-conducting polymers that absorb over a wide spectral range and which are adjusted to the energy levels of TiO2. Also new concepts, for example, the combination of thiophene- and phenyl-units into a copolymer are investigated in more detail. In summary, important parameters influencing the properties of hybrid solar cells are identified and discussed in more detail. For some limiting factors concepts to overcome these limitations are presented. KW - hybride Solarzellen KW - Titandioxid KW - Sintern KW - Polymer KW - hybrid thin solar cells KW - titanium dioxide KW - thermal treatment KW - polymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52619 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Paffhausen, Peter T1 - Entscheidung über eine Öffentlich Private Partnerschaft : Empfehlungen für kommunale Entscheidungsträger beim Eingehen einer institutionellen Öffentlich Privaten Partnerschaft T1 - Decision on a Public-Private Partnership : advice for municipal decision-makers when entering into an institutional Public-Private Partnership N2 - Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen. N2 - In the past ten to fifteen years, Public-Private Partnerships (PPPs) have become considerably important. It is also due to the financial crisis, that even in future a further growth is expected in the municipalities. To ensure that the PPPs, which add such desired advantages like reduction of costs for the public budget or increasing the efficiency of the public entity, they should be actively and carefully guided prior to its formation as well as during the day-to-day business. This dissertation is based on this context while considering that up to date there have not been any well-founded and systematic researches connecting the existing practical experience with applicable theory and from which advice can be derived for the decision-makers in the public sector. Because of the several formats that are possible, the subject has been limited with a focus on institutional PPPs at municipal level. The research begins with the explanation of the basics of PPPs, offering a general understanding of this subject. The explanation of the concept and the elaboration of the characteristics of PPPs, are then followed by the definition of contractual and institutional PPPs. The possible motives for entering such a partnership on both sides, public and private, are shown on a list as well as an outline of the possible prospects and risks. Subsequently, an in-depth analysis on institutional PPPs is presented, which is based on scientific theory on new institutionalism. For this purpose, the dissertation is linked up with the economical, (organisational) sociological and political scientific classification by Mayntz and Scharpf. The new economic institutionalism was researched with the help of the three part-theories: transaction cost theory, principal agent theory and property rights theory. To begin with, the theoretical perception of each individual theory is developed and first deductions for institutional PPPs are reached. Based on this, the development of research criteria follows, depicted as questions that may arise for comparing future case studies. The conclusion of the theoretical part is followed by a contemplation of institutional PPPs, from an empirical point of view. For this purpose, case studies are presented and reflected onto the research criteria, which had been derived from each individual theory. To begin with, the researched case studies are analysed, starting with the partial privatisation of the Stadtentwässerung Dresden GmbH (Dresden’s municipal water drainage company) and the Stadtwerke Görlitz AG (public utility company of Görlitz), where the collaboration is actually developing in a positive manner. A negative example is depicted in the privatisation of the waterworks of Grenoble and its subsequent reversion to a fully municipal service. In the following step, case studies from the authors’ actual experience are discussed. In this case, the focus is placed on the partial privatisation and the subsequent reversion to its municipal status of the waterworks of Potsdam. This is complemented by the portrayal of the positive collaboration between the private partner and Energie und Wasser Potsdam GmbH (Potsdam’s energy and water company). Subsequently, the initial problems that arose during the partial privatisation STEP Stadtentsorgung Potsdam (municipal waste management of Potsdam) between the municipality and the private sector are researched, depicting the positive changes in the partnership, which evolved in favour of the public sector. Founded conclusions for the institutional PPPs were arrived at based on the comparison between theory and practice, and scientific and positive factors for the success of such a co-operation were derived. The knowledge thus gained is summarised in the form of theses, and serve as a basis for the derivation of advice for course of action for municipal decision-makers when entering into an institutional PPP. At the beginning, a portrayal of the advice that is derived from the individual theories is given. This observation is broadened by taking a closer look at the substantial phases of the decision-making process, and by condensing such phases by applying the decision-making advice that has been derived. In this manner the municipal decision-makers are given sound practical advice. Considering the dissertation as a whole, it offers a complete, founded and sound practical guideline, which includes important criteria for entering into institutional PPPs in the municipal sector. From the reflection between theory and practice valuable hints are derived, through which it becomes especially clear which points the public side should secure. Furthermore, the municipal decision-makers can become sensitised by the knowledge gained and sharpen their senses for each individual case. Finally, important conditions are created to ensure the success of such a project. KW - Öffentlich Private Partnerschaften KW - Institutionelle Öffentlich Private Partnerschaften KW - ÖPP KW - Neuer Institutionalismus KW - ÖPP-Erfolgsfaktoren KW - Public-Private Partnerships KW - Institutional Public Private Partnerships KW - PPP KW - New Institutionalism KW - PPP-factors of success Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52435 ER -